Resumen
Las noticias sobre el uso de herramientas de inteligencia artificial (IA en adelante) en el ámbito de la salud son algo cotidiano desde hace meses y, por poner unos pocos ejemplos, van desde su creciente aplicación para el diagnóstico a través de la imagen a su empleo para encontrar fármacos que sirvan como alternativa a los antibióticos, pasando por ser una herramienta para predecir la evolución de una determinada dolencia. Ante esta sucesión de evidencias, el 18 de octubre de 2023, la Organización Mundial de la Salud hizo público el documento Regulatory considerations on artificial intelligence for health en el que reconoce el potencial de la inteligencia artificial para mejorar la salud mediante el fortalecimiento de los ensayos clínicos, el diagnóstico médico, el tratamiento, el cuidado personal y la atención centrada en la persona, así como el apoyo a los conocimientos, capacidades y competencias de los profesionales de la atención en salud; por ejemplo, podría resultar beneficiosa en entornos con falta de especialistas, ya sea para interpretar escáneres retinales e imágenes radiológicas, o con otros fines.
No obstante, advierte también la OMS, las tecnologías de inteligencia artificial, incluidos los grandes modelos lingüísticos, se están desplegando rápidamente, a veces sin total comprensión de su posible funcionamiento, que podría perjudicar a los usuarios finales, incluidos los profesionales de la salud y los pacientes. Al utilizar datos de salud, estos sistemas podrían tener acceso a información personal sensible, por lo que requieren de marcos jurídicos y regulatorios sólidos para salvaguardar la privacidad, la seguridad y la integridad.
Se apunta aquí, como ya se hizo con anterioridad en documentos de Naciones Unidas, el Consejo de Europa o la Unión Europea, al carácter ambivalente de la IA, es decir, tanto a sus posibles beneficios en cualquier ámbito social y, singularmente, en el de la salud, como a sus, en parte ya, conocidos riesgos, señaladamente la brecha digital, el sesgo algorítmico, la discriminación y la marginación de las personas vulnerables o las minorías culturales, que tienen un acceso limitado a la asistencia sanitaria.
Frente a esta ambivalencia, entendemos que, parafraseando el título de una bien conocida obra de Umberto Eco, no se trata de adoptar posiciones apocalípticas -prohibir sin más el uso de sistemas de IA en el ámbito de la salud- ni tampoco totalmente integradas -aceptar sin más dichos sistemas- sino de que, partiendo del principio de precaución, se adopte un enfoque regulatorio de la IA que, a propósito de su aplicación en entornos sanitarios, tenga en cuenta, al menos, las siguientes directrices: la evaluación previa de los riesgos relevantes y de los impactos potenciales de la IA en la salud; el análisis de las ventajas y los inconvenientes que se derivan del uso o del rechazo de la IA en este ámbito; la proporcionalidad entre las medidas a adoptar y el nivel de protección elegido; la no discriminación en la aplicación de estas medidas; la fiabilidad y precisión y, finalmente, la revisión de las medidas a la luz de la evolución científica y tecnológica.
A estos objetivos tratan de dar respuesta dos normas de ámbito europeo que acaban de aprobarse pocos días antes de finalizar la redacción de estas líneas: el Reglamento del Parlamento Europeo y del Consejo de la Unión Europea por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y el Convenio Marco del Consejo de Europa sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho.
Se trata de dos textos de extensión y alcance diferentes (el primero es mucho más largo y detallado y con efecto directo y obligatorio en los 27 Estados de la Unión Europea) pero con elementos comunes: asumen una definición similar de lo que es un sistema de IA, se articulan a partir del mencionado principio de precaución y la consiguiente clasificación de los sistemas en función del riesgo que generen -serán de alto riesgo los que tengan un efecto perjudicial importante en la salud-, reconociendo que algunos de dichos riesgos son inaceptables y, por tanto, los sistemas que los provoquen deberán estar prohibidos, y establecen una serie de principios generales que se imponen a todos los sistemas de IA: respeto a la dignidad de las personas y a la autonomía individual, supervisión humana, rendición de cuentas y responsabilidad, garantías de no discriminación, exigencias en relación con la transparencia y explicabilidad de los sistemas, atención a las personas y grupos en situación de vulnerabilidad, necesaria alfabetización digital y tutela de la privacidad y la protección de datos personales.
En suma, y partiendo de que la IA es una realidad que está cambiando nuestras vidas, se pretende, en palabras del artículo 1 de la “Ley de Inteligencia artificial”, la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales, en particular la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas de inteligencia artificial, así como brindar apoyo a la innovación.
Es la versión jurídica más avanzada y moderna de la famosa Ley cero de la robótica enunciada por Isaac Asimov: no es ya que un robot -en nuestro caso un sistema de IA- no pueda dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños sino que debe diseñarse, desarrollarse y aplicarse de manera que consiga el mayor beneficio posible para la humanidad.
Citas
.
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.
Derechos de autor 2024 RqR Quantitative and Qualitative Community Nursing Research