Hace apenas un año, Europa parecía tomar la delantera en la gobernanza de la
Inteligencia Artificial con la aprobación del
AI Act, un reglamento pionero que establecía un
marco ético y seguro para el desarrollo y uso de estas tecnologías. El modelo era claro: un enfoque basado en el riesgo que ponía en el centro a las personas y sus derechos fundamentales. Para la
Medicina, esto suponía la promesa de un entorno predecible donde
innovar con seguridad.
Sin embargo, este pasado 19 de noviembre de 2025, la Comisión Europea ha lanzado lo que muchos expertos ya califican como
"frenazo" a la regulación de IA. Bajo el argumento de
"simplificar" y "aligerar cargas" para la industria, Bruselas ha presentado una propuesta que retrasa hasta diciembre de 2027 la aplicación completa de los requisitos para sistemas de alto riesgo, entre los que se encuentran la práctica totalidad de las herramientas de IA médica.
La figura clave que queda en el limbo
En el corazón de este frenazo regulatorio se encuentra una figura crucial para los médicos: el
"desplegador" o deployer. Según el AI Act original, esta es la persona u organización que utiliza un sistema de IA bajo su autoridad. En términos médicos, es el facultativo o la institución sanitaria que emplea un algoritmo para
ayudar en el diagnóstico, planificar un tratamiento o gestionar la historia clínica.
El reglamento original dotaba a este desplegador de
responsabilidades concretas, pero también de derechos y protecciones. Debía asegurar la supervisión humana efectiva, informar adecuadamente al paciente y monitorizar el funcionamiento continuo del sistema. Estas no eran meras formalidades burocráticas, sino los pilares que garantizaban que la IA fuera una
herramienta al servicio de la práctica clínica, no un elemento disruptivo sin control.
El coste real del retraso
La decisión de posponer 16 meses la aplicación plena de estas obligaciones tiene consecuencias directas e inmediatas para los profesionales sanitarios:
-
Vacío de Responsabilidad: Sin los estándares técnicos que definen qué es aceptable en IA médica -cuya publicación también se retrasa- los médicos se encuentran en una tierra de nadie jurídica. ¿Hasta qué punto son responsables de las decisiones que toma un algoritmo? ¿Qué nivel de supervisión se considera "suficiente"? La falta de claridad genera incertidumbre y riesgo legal.
-
Desprotección del Paciente y del Profesional: Las salvaguardas que el AI Act establecía para proteger tanto a los pacientes como a los médicos quedan en suspenso. La obligación de transparencia -informar cuándo se está usando IA- pierde fuerza, así como los mecanismos de monitorización continua que permiten detectar sesgos o malfuncionamientos.
-
Frenazo a la Formación Especializada: ¿Para qué formar urgentemente a los médicos en competencias de IA si las obligaciones asociadas no serán exigibles hasta finales de 2027? Este retraso genera complacencia justo cuando más necesitamos preparación.
¿Simplificación o desregulación encubierta?
La Comisión Europea argumenta que esta
pausa es necesaria para dar tiempo a la industria a adaptarse y
evitar la fuga de innovación hacia otros mercados. Sin embargo, muchos vemos en esta medida una desregulación encubierta que beneficia principalmente a los grandes desarrolladores tecnológicos.
Mientras las empresas ganan tiempo para
comercializar sus productos con menos restricciones, los médicos en primera línea de la atención se quedan sin el amparo regulatorio que necesitan para usar estas herramientas con seguridad jurídica y ética.
El imperativo deontológico en la era del vacío regulatorio
Ante este escenario, la profesión médica no puede cruzarse de brazos a esperar que pasen los 16 meses de gracia. Mientras la regulación se retrasa, la deontología y la
lex artis deben llenar el vacío.
Los colegios profesionales, las sociedades científicas y las instituciones sanitarias tienen la responsabilidad de:
-
Establecer guías de práctica clínica para el uso de IA que suplan temporalmente la falta de regulación
-
Desarrollar programas de certificación de competencias en IA para profesionales
-
Crear comités éticos específicos para evaluar herramientas de IA en el entorno sanitario
-
Exigir contractualmente a los proveedores tecnológicos los mismos estándares que establecía el AI Act original.
La oportunidad perdida y el camino por recuperar
Europa tenía la oportunidad de demostrar que es posible innovar en Medicina sin sacrificar los derechos de los pacientes ni la
seguridad jurídica de los profesionales. Con esta pausa regulatoria, ese liderazgo ético se difumina.
Lo que se presenta como una simplificación para ganar agilidad podría terminar costándole caro al sistema sanitario en forma de l
itigiosidad, desconfianza de los pacientes y herramientas mal implementadas.
La carrera tecnológica no se gana bajando estándares, sino manteniéndolos con convicción. En un mundo donde
la IA médica avanza a velocidad exponencial, Europa -y especialmente sus profesionales sanitarios- no pueden permitirse el lujo de renunciar a lo que les hacía diferentes: un modelo donde la innovación avanza
con los ciudadanos, no a su costa.
Mientras Bruselas debate plazos y simplificaciones, en las consultas y hospitales los médicos seguiremos necesitando respuestas claras. Porque en Medicina, a diferencia de la política, la
responsabilidad ante el paciente no admite prórrogas.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.