La unión EEUU-Europa de IA en fármacos "sienta bases de buenas prácticas"

Farmaindustria valora el pacto para controlar la inteligencia artificial en el desarrollo de medicamentos

Juan Yermo, director general de Farmaindustria


20 ene 2026. 12.55H
SE LEE EN 4 minutos
La inteligencia artificial (IA) ya está revolucionando la investigación biomédica y su potencial para transformar la atención sanitaria y mejorar la salud de las personas es enorme. La industria farmacéutica es uno de los sectores a la vanguardia en el uso de estas tecnologías, siempre en el marco de unos principios éticos y garantizando que la tecnología se utilice para el beneficio de la sociedad y el cuidado de la salud en todas las fases de la cadena de valor del sector farmacéutico.

Es por ello que la industria valora el decálogo publicado conjuntamente por la Agencia Europea del Medicamento (EMA) y su homóloga estadounidense (FDA), que reconocen el potencial de la IA y establecen 10 principios que esperan puedan sentar las bases para el desarrollo de buenas prácticas y fomenten el crecimiento en este campo.

El documento de Principios de buenas prácticas con IA en el desarrollo de medicamentos identifica la IA como las tecnologías de sistema utilizadas para generar o analizar pruebas a lo largo de todo el ciclo de vida del medicamento, desde las fases preclínicas, clínicas, así como de fabricación, comercialización y posteriores.

Las agencias, explican que estas tecnologías han de reforzar los requisitos de calidad, eficacia y seguridad que se exigen a los medicamentos y que, en concreto para la IA, se prevé que su uso pueda reducir el tiempo de comercialización, refuerce la excelencia regulatorio y la farmacovigilancia e incluso disminuya la dependencia de los ensayos con animales al mejorar las predicciones de eficacia o toxicidad.

El documento establece 10 principios en los que pueden trabajar los distintos agentes implicados, desde quienes desarrollan los medicamentos a los solicitantes o titulares de las autorizaciones de comercialización. También hace hincapié en la importancia de las alianzas internacionales sólidas para promover innovaciones responsables.


Los 10 principios de Europa y EEUU


  1. Diseño centrado en la persona. El desarrollo y el uso de las tecnologías de IA deben ajustarse a valores éticos y centrados en las personas.
  2. Enfoque basado en el riesgo. El nivel de validación y supervisión del sistema de IA debe ser proporcional al riesgo que pueda suponer para el modelo concreto y en el contexto de uso.
  3. Adhesión a estándares. Las tecnologías de IA deben cumplir las normas legales, éticas, técnicas, científicas, de ciberseguridad y reglamentarias pertinentes, incluidas las buenas prácticas (GxP).
  4. Contexto de uso claro. Los sistemas de IA han de tener bien establecido el contexto de uso, su función y alcance.
  5. Enfoque multidisciplinar. El desarrollo de todos los sistemas de IA debe abordarse desde un enfoque multidisciplinar.
  6. Gobernanza de datos y documentación. La procedencia de las fuentes de datos, su tratamiento y las decisiones analíticas se han de documentar de forma detallada, trazable y verificable, de acuerdo con las buenas prácticas. Así, se mantendrá una gobernanza adecuada, así como una protección y confidencialidad de los datos a lo largo de todo el ciclo de vida de la tecnología.
  7. Diseño y desarrollo de modelos. El desarrollo de tecnologías de IA debe seguir las mejores prácticas en el diseño de modelos y sistemas y en la ingeniería de software, para aprovechar los datos teniendo en cuenta que puedan ser interpretables, comprensibles y tengan rendimiento predictivo. Un buen desarrollo de modelos y sistemas promueve la transparencia, la fiabilidad, la generalización y la solidez de las tecnologías de IA, lo que contribuye a la seguridad de los pacientes.
  8. Evaluación del rendimiento basada en el riesgo. Las evaluaciones de rendimiento basadas en el riesgo analizan el sistema completo, incluidas las interacciones entre humanos e IA, utilizando datos y métricas adecuadas para el contexto de uso previsto y respaldadas por la validación del rendimiento predictivo mediante métodos de prueba y evaluación adecuadamente diseñados.
  9. Gestión del ciclo de vida. Los sistemas de gestión de la calidad basados en el riesgo se implementan a lo largo de todo el ciclo de vida de las tecnologías de IA, incluido el apoyo a la detección, evaluación y resolución de incidencias. Las tecnologías de IA se someten a una monitorización  programada y a reevaluaciones periódicas para garantizar un rendimiento adecuado, por ejemplo, posibles desviaciones de los datos (data drift).
  10. Información clara

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.