La
Agencia Europea de Medicamentos (EMA) ha publicado los principios y
recomendaciones “de alto nivel” para la
regulación en el uso de Modelos de Lenguaje Amplios (LLM, por sus siglas en inglés) en las
actividades regulatorias de medicamentos. Se trata de un plan de trabajo planteado hasta 2028 que que busca garantizar un uso “seguro, responsable y efectivo” de estas tecnologías emergentes dentro del ámbito regulatorio y que señala los
riesgos que acompañan a este tipo de modelos, como la posibilidad de generar
información incorrecta, los peligros respecto a la
protección de datos o los
usos poco éticos.
La posibilidad de que los modelos para generar lenguaje mediante Inteligencia Artificial, es decir, los
LLM generen
información incorrecta o sesgada sobre medicamentos es uno de los principales riesgos que destaca la
EMA. Esto puede afectar negativamente la toma de decisiones en áreas críticas y a la
ciencia regulatoria de medicamentos. Según el informe, los LLM han demostrado “un sorprendente
fracaso en tareas aparentemente triviales, dando respuestas irrelevantes o inexactas, conocidas como alucinaciones”.
Los modelos de lenguaje y la regulación de fármacos
Junto a esto, el informe publicado por la EMA resalta que, debido a la naturaleza de los LLM y su capacidad “para procesar
grandes volúmenes de información”, existe la posibilidad de que se almacene y reutilice información sensible o
confidencial. Es por esto que señala la probabilidad de que las indicaciones que se introduzcan en estos modelos “se almacenen y procesen” lo que da lugar, posteriormente, a “
riesgos en términos de información confidencial,
protección de datos y privacidad” dentro del campo farmacológico.
Por otra parte, la EMA señala que, como estos modelos tratan grandes cantidades de fuentes de texto, “los conjuntos de datos públicos extraídos de la web pueden ofrecer datos (personales) que podrían ser
inexactos o contener
información errónea”. Por esto, la EMA considera que es “muy difícil” contar con controles para abordar los
riesgos en la protección de datos.
Usos poco éticos de los LLM
La EMA dedica también un apartado de este informe a señalar las
consideraciones éticas generales en el uso de los LLM. Entre los principales riesgos en este aspecto señala que los LLM “pueden general
daños sociales” al contener un “texto discriminatorio o excluyente, incluido contenido que perpetúa estereotipos, normas excluyentes y
lenguaje tóxico”.
Junto a esto, destaca los “peligros de la información”, que pueden dar lugar a daños por
violaciones en la protección de datos mediante el mal uso, un uso inseguro o la
fuga de datos personales. No deja fuera tampoco los problemas que acompañan a la
desinformación, en caso de que los LLM difundan materia “falsa o engañosa”, entre la que incluyen
información médica poco ética o ilegal.
Responsabilidad de las autoridades reguladoras de fármacos
Los principios organizativos son un pilar fundamental a la hora de implantar estos modelos ligüísticos, que benefician en muchos aspectos a las
autoridades reguladoras de medicamentos. Pero es evidente que también se pueden ver afectadas por la
utilización que el personal haga de ellos, por lo que es necesario garantizar “un uso seguro y responsable” de los mismos.
Para ello, la EMA aconseja establecer una “
gobernanza” sobre el uso de los LLM para ayudar a los usuarios a “navegar por los
riesgos de estos modelos”, que sirva para brindar “
conciencia y protección” sobre su uso. Además, esta también puede considerar si se requiere “
capacitación obligatoria sobre el uso seguro y responsable de los LLM”.
Es por esto que el informe recoge dos recomendaciones. Por una parte, considerar la
definición de la gobernanza sobre el uso de LLM, incluidos los casos de uso permitidos, qué información, es decir “proporcionar a los usuarios información sobre las aplicaciones LLM utilizadas (por ejemplo, qué no compartir en el mensaje y si un modelo está alojado interna o externamente),
capacitación del personal y un enfoque de monitoreo de riesgos”.
Por otra parte, expresa que si se utilizan datos propios para mejorar el rendimiento de los LLM, se tomen “las debidas
precauciones” y se tenga cuidado, de nuevo, con la información que se proporciona y la
protección de datos.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.