La
Unión Europea ha avanzado en la tan esperada
Ley europea de Inteligencia Artificial (IA). En diciembre se logró alcanzar un acuerdo para consolidarla. En esta norma, el organismo europeo cataloga a los dispositivos médicos con esta tecnología dentro de la sección de
sistemas de IA de alto riesgo. Pero, ¿qué debe incluir una normativa en relación con en el ámbito sanitario?
Ignacio H. Medrano, neurólogo y experto en esta herramienta, sintetiza en tres aspectos los elementos son necesarios. En primer lugar, reclama que la IA no sea calificada como un dispositivo médico, tal y como ocurre en otras regulaciones. "Un algoritmo hecho con IA, con
machine learning no tendría que ser un dispositivo médico, pero es lo que se ha decidido". Además, propone una especie de precertificaciones o 'fast track', pues ayudarían a incentivar la agilidad en el desarrollo.
"En mi opinión, en
Estados Unidos se comete un error, que después se replica en el
Reino Unido, que es clasificar a la Inteligencia Artificial como un dispositivo médico. Es decir, como no tengo ninguna caja regulatoria en la que meterlo, lo incluyo igual que si fuera un catéter o un aparato de electrocardiograma para yo poder poner en marcha un
algoritmo de soporte a la decisión. Tengo que hacer un ensayo clínico, y tener el mismo sello de la FDA (la agencia estadounidense de medicamentos) que tendría que obtener una máquina en un hospital. Eso no tiene sentido,
un algoritmo es información", explica. Además, este camino asegura que no es ni sostenible ni escalable.
Por tanto, el experto sostiene que Europa tiene la oportunidad de "entender esto mejor gracias a que ha llegado más tarde a la fiesta". Esto no quita que los algoritmos de IA esté controlado: "Evidentemente, los algoritmos de
Inteligencia Artificial tienen que tener una aprobación, monitorización y regulación, pero no tienen que pasar por un
marcado CE como si se tratara de un aparato físico, lo cual retrasa enormemente la innovación", relata.
‘Fast track’ para incentivar la rapidez
Además, propone establecer una especie de
‘fast track’ o precertificaciones a las empresas o institutos para así poder trabajar más deprisa. "Sería muy importante para el desarrollo de esta tecnología y habría una oportunidad para hacerlo".
A estos dos elementos le suma un tercero, relacionado con el principio de minimización de datos de la
Ley europea de Protección de Datos (GDPR, por sus siglas en inglés). Esta normativa, según sostiene, defiende utilizar los mínimos datos posibles para cada investigación. "El problema es que cuando trabajas con
machine learning, a veces encuentras correlaciones entre datos que no sabes a priori. Entonces, realmente cuantos más datos, mejor", aclara
Ignacio H. Medrano.
"Los algoritmos de IA tienen que tener una aprobación, monitorización y regulación, pero tienen que pasar con un marcado CE"
|
Esto no significa que sea una excusa para que las empresas se adueñen de los datos, asegura. "Realmente puedes encontrar asociaciones en los datos que no son conocidas hasta que una máquina se pone a buscar en ellas". Por tanto, considera que una
ley de Inteligencia Artificial y sanidad tendría que tener en cuenta este principio para hacer "una excepción" y que así no suponga un freno.
El especialista asegura que este camino no está exento de dificultades, pero que no se puede llevar a cabo frenando la innovación, pues repercute a que la tecnología llegue a los pacientes. "Hay que ser garantistas, pero el problema de pasarse de ello es que no ponemos los algoritmos en tiempo en manos de gente que realmente los necesita porque tiene una enfermedad hoy, no dentro de cinco años", sentencia.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.