El diagnóstico médico por ChatGPT es una opción real que requiere control

Los expertos defienden que estos dispositivos deben estar en "manos de profesionales" ya que también pueden fallar

Ignacio Hernández Medrano, neurólogo y experto en inteligencia artificial.

24 ene 2023. 08.00H
SE LEE EN 5 minutos
La inteligencia artificial (IA) ya está presente en el mundo sanitario y puede verse en herramientas como el chatGPT que requieren de vigilancia humana. En los últimos años, se ha visto un boom en el uso de estas herramientas para el diagnóstico de algunas enfermedades como el Covid-19 o trastornos como las arritmias. Poniendo la vista en el futuro, los especialistas afirman que la IA servirá para identificar enfermedades de mayor gravedad, pero hay que tener precaución para que no genere desigualdades entre pacientes y vigilar de cerca los errores que puedan cometer estas máquinas. 

"La evolución del chatGPT es muy rápida y en pocos meses tendremos una versión 500 veces más potente. Los sistemas inteligentes empezarán a diagnosticar patologías más graves y es lógico que empiecen por la imagen y sigan hacia otro tipo de datos como los de laboratorio", explica Ignacio Hernández Medrano, neurólogo y creador de Savana, una plataforma de IA que lee y analiza millones de documentos clínicos. "Es importante entender que es una IA general, no experta, de forma que para utilizarla en Medicina (sea diagnóstico o predicción) hay que nutrirla con bases de datos expertas, que entiendan el matiz de lo que significa, por ejemplo, progresión en mieloma múltiple", añade.

¿Qué ocurre si la maquinaria de inteligencia artificial falla? Tal y como indica el neurólogo, al igual que las guías clínicas marcan el camino que debe seguir el médico en base a la evidencia científica, con la IA ocurre lo mismo. Estos dispositivos estarán codificados en base a los estudios previos y seguirán lo definido para que el paciente sea beneficiado.

"Uno aplica lo que es más probable en base a la herramienta; si el paciente resulta no ser predecible por el algoritmo, entonces no hay responsabilidad (ni del médico ni de la herramienta). Sólo la hay para el profesional si éste se sale de lo que dice el algoritmo sin ninguna razón para ello, o para el fabricante de IA si hace trampa en la validación o fraudes similares", sostiene.

Desigualdades en la atención sanitaria


Aunque estos dispositivos puedan actuar como sanitarios, nunca sustituirán al ser humano, ya que su labor se limita a "resolver problemas pero sin consciencia". Por lo tanto, ahí entra el profesional médico con su ética, relacionada estrechamente con la consciencia: "Son herramientas que tienen que estar en manos de un profesional".

En palabras de Medrano, cuando se juntan las máquinas y los humanos se obtiene "el mejor resultado posible". Ambas partes son necesarias porque los dispositivos no piensan contrafactual ni contextualmente, de forma que hay variables que se escapan. De la misma manera, las máquinas permiten asociar un número de alteraciones que el cerebro humano no es capaz.
 

En este sentido, existe un riesgo de que la asistencia sanitaria sea diferente según el nivel económico del paciente. "Tal vez empezamos a caminar hacia un mundo en el que aquellos que tienen menos recursos tienen acceso a una sanidad muy robotizada, con poco humanos. Es lo que ocurre cuando llamamos a servicios de baja calidad, que nos atiende una máquina. Mientras que los ricos sean los que tengan el privilegio de tener un médico, un ser humano apoyado por máquinas y que la interfaz sea humana", señala Medrano.

Normativa en materia de inteligencia artificial


No obstante, uno de los grandes retos con los que se ha encontrado la IA ha sido la regulación. Actualmente, el reglamento de protección de datos a nivel europeo permite dar salida a muchos proyectos de big data que antes se paraban. Ahora tan solo se debe cumplir con dos premisas: que los datos sean anónimos y que su uso no sea comercial.

A pesar de ello, la ley habla del principio de minimización de datos, es decir, aboga por usar la menor cantidad de datos posible para llevar a cabo la investigación, lo cual sigue siendo un problema para los investigadores

"Nuestros sistemas se basan en explorar relaciones de variables en inmensas cantidades de datos y, a priori, no sabes qué te vas a encontrar. Yo lo descubro cuando meto todos los datos y exploro mediante técnicas de inteligencia artificial", argumenta Medrano, quien confía en que se resuelva esta contrariedad cuanto antes porque también supone "una barrera competitiva enorme en relación con China o Estados Unidos".

Medrano: "Tenemos que asegurarnos de tener algoritmos de inteligencia artificial testados, verificados y actualizados"


Por otro lado, Europa también cuenta con el Reglamento de Inteligencia Artificial donde se recogen los aspectos más importantes como la privacidad y la verificación. Sin embargo, tal y como subraya Medrano, quedan algunos temas por tratar. En primer lugar, la demanda de explicabilidad a los sistemas de IA: "Se está empezando a entender que no es posible demandar explicabilidad a las máquinas porque funcionan como sistemas de reconocimiento de patrones y no saben cómo han llegado hasta ahí".

Asimismo, algo que no contempla esta normativa es la monitorización y la actualización de los algoritmos de IA. "Además de comprobar en la vida real que lo que hacemos en el laboratorio se aplica a los pacientes, tenemos que asegurarnos de tener algoritmos testados, verificados y actualizados", concluye el experto.

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.