El lado oscuro de la IA en la salud: su implicación en el desarrollo de virus y los riesgos públicos

La inteligencia artificial es una herramienta que está demostrando un gran potencial para mejorar el abordaje de la salud. Sin embargo, en malas manos esta herramienta puede abrir las puertas a una nueva Covid-19

Una joven en un ordenador con ChatGPT abierto (Foto. Freepik)
Una joven en un ordenador con ChatGPT abierto (Foto. Freepik)
Paola de Francisco
16 junio 2023 | 00:00 h

“Fácil”. Esta es la principal conclusión que estudiantes del Instituto Tecnológico de Massachusetts (MIT) extrajeron de una clase en la que se les proponía si la inteligencia artificial (IA) podría ayudar a cualquier persona, independientemente de sus conocimientos científicos, a desarrollar un virus capaz de desencadenar una pandemia. Los resultados de esta clase, compartidos en la revista científica Science, abren la puerta al mayor temor de los desarrollos tecnológicos: que estos se puedan utilizar contra el propio ser humano y su salud.

La inteligencia artificial ha demostrado tener importantes implicaciones en el día a día del mundo sanitario. Los médicos son capaces de llevar a cabo, gracias a esta herramienta, diagnósticos más precisos, estrategias terapéuticas personalizadas, conocer el pronóstico de los pacientes, evaluar y monitorizar su situación. Una herramienta más que ha mejorado los dispositivos con los que se contaban y que poco a poco van llegando a la clínica demostrando su importante potencial.

En una hora los estudiantes ya tenían listas de virus candidatos para crear una pandemia mundial gracias a la información de chatbots

También, diferentes ensayos médicos han evaluado el impacto de la IA en la sostenibilidad y financiación de los sistemas sanitarios al acortar y abaratar los procesos de desarrollos de medicamentos, y con esos sus precios, o liberar cierta carga de trabajo. La presencia de la inteligencia artificial está cada vez más cerca en nuestro sistema sanitario. De hecho, una encuesta publicada en Emerj señaló que el 50% de diferentes líderes empresariales y gubernamentales consideraban que esta herramienta será omnipresente en la atención médica para 2025.

Este peso que va a tomar la IA, aunque en muchos casos positivo y beneficioso, entraña riesgos. Un desafío que la Unión Europea busca enfrentar con la aprobación este miércoles de la primera Ley de Inteligencia Artificial con los que armonizar todo el desarrollo de esta tecnología y al mismo tiempo que este cumpla con la legislación. Porque sin estas normas los riesgos son muy altos: del desarrollo de virus pandémicos y algoritmos que pueden llegar a negar la atención a diferentes pacientes.

PELIGROS INNEGABLES

Kevin Esvelt, experto en bioseguridad del MIT pidió a sus estudiantes que crearan un virus peligroso con la ayuda de ChatGPT y de otros modelos de chatbot con inteligencia artificial. En una hora los estudiantes ya tenían listas de virus candidatos. Armas biológicas con acceso para cualquier persona con intenciones terroristas, sin necesidad de contar con ninguna experiencia, como sí hacía falta hasta ahora.

Aunque los sistemas de chatbots cuentan con barreras para evitar dar esta información, los estudiantes vieron que era “fácil” eludirlas. Aunque los virus resultantes podrían “no representar una gran amenaza pandémica”, porque, como explicaba Esvelt, los patógenos ofrecidos eran difícil de trabajar y hacerlos transmisibles en los humanos, sí que refleja a la posibilidad de nuevas amenazas.

“La introducción de herramientas de inteligencia artificial que avanzan rápidamente está reduciendo la barrera para acceder a sistemas vivos sintéticos”, señaló en nota de prensa tras la presentación del estudio Jaime Yassif, director de política pública global de Nuclear Threat Initiative, una organización no gubernamental que se enfoca en reducir las amenazas nucleares y de bioseguridad. “Esto está aumentando drásticamente el riesgo de maneras que son realmente alarmantes”.

Es “difícil” garantizar que los algoritmos “comprendan las normas y los valores que queremos darle”

Estos investigadores no son los únicos que han reflejado como la IA puede suponer una amenaza para la salud pública. En un editorial de la revista The BMJ dos investigadores ponen el foco en que es “difícil” garantizar que los algoritmos “comprendan las normas y los valores que queremos darle”. Sistemas que no cumplen con ello ya se han dado, y según explican los autores “ya han puesto en peligro la salud de millones de personas”.

Ejemplos de ello fue un algoritmo utilizado en el sistema de atención médica de Estados Unidos. El objetivo de este software era identificar a los pacientes que se beneficiaría de una atención adicional. Sin embargo, la medida la realizó a partir del coste que supondría su atención, elevando barreras para los pacientes negros que estaban más enfermos. Otro algoritmo, esta vez en la red social Facebook, tenía el objetivo de fomentar a la vacunación contra la Covid-19. “En sus esfuerzos por promover el contenido a favor de las vacunas, el algoritmo de Facebook supuestamente terminó mostrando comentarios contra las vacunas a los usuarios 775 millones de veces al día, lo que podría socavar la aceptación de la vacuna”, recuerdan en el artículo de opinión.

“La IA puede causar daño al paciente debido a fallas fatales en la cirugía robótica, sesgo en el diagnóstico o recomendaciones peligrosa”, señala un estudio publicado en la revista Bioética. La regulación, con leyes como la aprobada en Europa, y la sensibilización sobre estos problemas suponen las mejores medidas para evitar que, al mismo tiempo que la IA puede ser una gran herramienta para abordar la salud humana, se convierta en un peligro para ella.

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído