Política > Sanidad hoy

Incluir a sanitarios en el desarrollo temprano de la IA la hace más ética

La OMS ha publicado más de 40 sugerencias para el uso apropiado de esta tecnología en los sistemas de salud

Jeremy Farrar, científico jefe de la OMS.

18 ene 2024. 17.10H
SE LEE EN 6 minutos
0
La Organización Mundial de la Salud (OMS) ha publicado nuevas orientaciones sobre la ética y la gobernanza de grandes modelos multimodales (LMM), un tipo de tecnología de Inteligencia Artificial (IA) generativa de rápido crecimiento cuyas aplicaciones se ven en toda la atención sanitaria. En concreto, se trata de modelos que han sido diseñados para realizar tareas precisas que mejoren los sistemas de salud. Por este motivo, una de las recomendaciones más destacadas se centra en incluir a los profesionales de la salud y a los pacientes en las primeras etapas de desarrollo de estas aplicaciones.

Según la OMS, la inclusión de estos trabajadores en la creación de estas tecnologías daría lugar a diseños estructurados que sean inclusivos y transparentes. Al mismo tiempo, el trabajo conjunto entre sanitarios y desarrolladores, brindaría la oportunidad de plantear cuestiones éticas, de expresar inquietudes y de proporcionar información que mejore la creación de la IA. Junto a los sanitarios, este organismo destaca también a los proveedores médicos y a los investigadores científicos como trabajadores que se deben tener en cuenta durante este proceso.

En total, la OMS ha publicado una guía que recoge más de 40 recomendaciones para los Gobiernos en materia de inteligencia artificial y del uso apropiado de los grandes modelos multimodales (LMM). Los LMM son sistemas que pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversos resultados que no se limitan al tipo de datos introducidos. Se trata de un sistema único a la hora de imitar la comunicación humana

Según Jeremy Farrar, científico jefe de la OMS, "las tecnologías de IA generativa tienen el potencial de mejorar la atención sanitaria, pero solo si quienes las desarrollan, las regulan y las utilizan, identifican y tienen plenamente en cuenta los riesgos asociados". Por este motivo, considera que es necesario contar con "información y políticas transparentes para gestionar el diseño, desarrollo y uso de LMM que permitan lograr mejores resultados de salud y superar las desigualdades sanitarias persistentes". 


Aplicaciones de la IA en la Salud


La nueva guía de la OMS describe cinco aplicaciones amplias de los LMM para la salud, entre las que se recogen los diagnósticos y la atención clínica, dónde se enmarcan cuestiones como las respuestas a las consultas escritas de los pacientes. También el uso guiado por el paciente, que se puede utilizar, por ejemplo, para investigar síntomas y tratamientos.

Otra de las aplicaciones es relativa a las tareas administrativas y de oficina, como documentar y resumir las visitas de pacientes dentro de registros médicos electrónicos. Junto a esto, la IA tendrá un gran peso en la educación médica y de enfermería (que incluye proporcionar a los alumnos encuentros simulados con pacientes), y en la investigación científica y desarrollo de fármacos, incluida la identificación de nuevos compuestos.

Junto a esto, la OMS señala que, si bien los LMM están comenzando a utilizarse para fines específicos relacionados con la salud, “también existen riesgos documentados de producir declaraciones falsas, inexactas, sesgadas o incompletas, que podrían perjudicar a las personas que utilizan dicha información”. Además, los LMM pueden estar entrenados con datos de mala calidad o sesgados, ya sea por raza, etnia, ascendencia, sexo, identidad de género o edad.


Riesgos de la IA en los sistemas de salud


Los riesgos que presentan estas tecnologías de IA - en concreto los LMM -, para los sistemas de salud son muy amplios. Uno de ello es la posibilidad de fomentar un "sesgo de automatización" por parte de los profesionales de la salud y los pacientes, mediante el cual se pasan por alto errores que de otro modo se habrían identificado. "Los LMM, al igual que otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información del paciente o la confiabilidad de estos algoritmos y la prestación de atención médica en general", señala la OMS.

Por esto, para crear LMM seguros y eficaces, este organismo subraya la necesidad de la participación de diversas partes interesadas, entre las que se encuentran gobiernos, empresas de tecnología, proveedores de atención médica, pacientes y sociedad civil, en todas las etapas del desarrollo y despliegue de dichas tecnologías, incluida su supervisión y regulación.


Recomendaciones para el uso de la IA en sanidad


La OMS sugiere a los gobiernos, que son quienes tienen la responsabilidad principal de establecer estándares para el desarrollo y despliegue de LMM en su uso con fines médicos y de salud pública, que inviertan en infraestructura pública o sin fines de lucro. Señalan que debe incluir los conjuntos de datos públicos y que deben ser accesibles para los desarrolladores de los sectores público, privado, que requiera que los usuarios se adhieran a principios y valores éticos a cambio de acceso.

Además, también recomienda que se utilicen leyes, políticas y regulaciones para garantizar que los LMM en la atención médica y la medicina cumplan con las obligaciones éticas y los estándares de derechos humanos que afectan, por ejemplo, la dignidad, la autonomía o la dignidad de una persona.

También especifica que se debería asignar “una agencia reguladora existente o nueva para evaluar y aprobar LMM y aplicaciones destinadas a su uso en atención médica o medicina, según lo permitan los recursos”. Junto a esto, recogen la sugerencia de introducir auditorías obligatorias posteriores a la liberación y evaluaciones de impacto, incluso para la protección de datos y los derechos humanos.

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.