La inteligencia artificial para crear fármacos exige "definición jurídica"

La EMA recomienda que los reguladores de esta tecnología se comprometan con criterios establecidos por comités de ética

Emer Cooke, directora ejecutiva de la EMA y presidenta del ICMRA.

16 ago 2021. 14.00H
SE LEE EN 3 minutos
POR JESÚS MEDIAVILLA
La inteligencia artificial ya no es algo exclusivo de la ciencia ficción. El desarrollo científico y tecnológico la ha convertido en uno de los retos del presente y clave para continuar la senda de los avances médicos y farmacológicos. Es por ello que la Coalición Internacional de Autoridades Reguladoras de Medicamentos (ICMRA, por sus siglas en inglés), y de la que la EMA (la Agencia Europea del Medicamento) es miembro, ha instado a los reguladores legislativos en su último informe a constituir un marco jurídico para el diseño y fabricación de fármacos.

En este documento, la ICMRA constata que la EMA “acogería con agrado una definición legal clara del uso de la IA en el desarrollo de medicamentos frente a un software simple, así como una categorización de riesgos para su uso”. La Agencia Europea entiende que es necesario establecer “mecanismos claros” de cooperación reguladora entre las autoridades competentes de medicamentos y dispositivos médicos, y los organismos notificados para facilitar “la supervisión del software basado en inteligencia artificial destinado a su uso junto con medicamentos”.


Europa aboga pro una inteligencia artificial fiable


Para la EMA una inteligencia artificial fiable puede aportar muchos beneficios, como una mejor atención sanitaria, además de otros aportes como un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible. Por eso, el planteamiento de la Unión Europea busca ofrecer a los ciudadanos la confianza necesaria para adoptar estas tecnologías, animando al mismo tiempo a las empresas a desarrollarlas.

Pero para hacerlo de manera segura desde Europa se insiste en la necesidad de legislar. En concreto, esto es particularmente necesario para los casos en los que el software se comercializa “por separado del medicamento y no se considera específicamente como parte de la autorización de comercialización del medicamento, pero podría afectar el beneficio / riesgo del medicamento”.

Desde la EMA subrayan la necesidad de clasificar el tipo de dispositivos que empleen inteligencia artificial para especificar si, por ejemplo, existe supervisión humana, salvaguardias, autoaprendizaje o autonomía del dispositivo. Es decir, que mida, de una manera u otra, el grado de independencia de la inteligencia artificial en los procesos en los que participa.


La EMA pide crear un centro de datos sensibles


Por su parte, la ICMRA  explica que las agencias reguladoras pueden optar por ofrecerse como una parte confiable y custodio de datos regulatorios, “como un centro para datos sensibles que sustentan las aplicaciones de autorización de comercialización que no se pueden compartir dentro de los consorcios”. Esto permitiría a las agencias acumular conocimientos en estas áreas emergentes. Así cuando las aplicaciones interactúan con las infraestructuras de datos sanitarios oficiales o existentes, la custodia de los datos podría vincularse al Espacio Europeo de Datos Sanitarios (EHDS).

La ICMRA, además, recomienda a la Unión Europea (UE) Garantizar la experiencia y la formación adecuadas en IA dentro del grupo de trabajo de inspecciones de la propia UE. Para ambos casos de estudio, existe la “necesita claridad con respecto al cumplimiento de la legislación actual de la UE sobre conflicto de intereses y protección de datos”.

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.