Europa vigilará la IA en equipos sanitarios con evaluaciones y auditorías

La Comisión Europea velará para evitar "resultados indeseables" en la asistencia sanitaria tras aprobar su nueva ley

Ursula von der Leyen, presidenta de la Comisión Europea.

27 mar 2024. 15.30H
SE LEE EN 2 minutos
La Unión Europea ha impulsado la primera propuesta legislativa del mundo para el uso de la Inteligencia Artificial (IA). Esta tecnología ya se utiliza en múltiples sectores, por lo que no tardará en aterrizar en la sanidad, ya sea para ayudar en el desarrollo de nuevos medicamentos o en equipos sanitarios de diagnóstico y tratamiento de pacientes. La cúpula europea, consciente de que puede haber riesgos en su uso, lo vigilará a través de acuerdos de conformidad y auditorías.

Los beneficios potenciales de la inteligencia artificial para la sociedad "son múltiples, desde la mejora de la atención médica hasta una mejor educación". Ante su rápido desarrollo, la Unión Europea "ha decidido actuar para aprovechar estas oportunidades" en la primera ley de IA, explica a Redacción Médica un portavoz de la Comisión Europea.

Si bien, no obvia que, aunque la mayoría de los sistemade IA no suponen ningún riesgo o si lo tienen es muy bajo, "algunos de ellos crean riesgos que deben abordarse para evitar resultados indeseables, también en el ámbito de la asistencia sanitaria". Por tanto, la ley regulará la inteligencia artificial en base a sus riesgos, es decir, cuanto más riesgo haya, más estrictas serán las normas.

Preguntada por cómo serán de rígidas en el caso de aquella IA que esté aplicada a la sanidad, la Comisión Europea asegura que habrá controles. En primer lugar, antes de introducir un sistema de IA de alto riesgo en el mercado de la Unión Europea o ponerlo en servicio, los proveedores deberán someterlo a una evaluación de conformidad.

Este paso permitirá a los fabricantes demostrar que su sistema cumple los requisitos obligatorios para una IA fiable, incluida la calidad de los datos.


Evaluación de conformidad por terceros


Por su parte, los sistemas de IA que sean componentes de seguridad de productos cubiertos por la legislación sectorial de la Unión se considerarán siempre de alto riesgo cuando se sometan a una evaluación de la conformidad por terceros con arreglo a dicha legislación sectorial.

Además, los proveedores de sistemas de IA de alto riesgo también tendrán que aplicar sistemas de gestión de la calidad y el riesgo, registrarse en una base de datos pública de la Unión Europea y las autoridades de vigilancia del mercado apoyarán el seguimiento posterior a la comercialización mediante auditorías.

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.