El avance de la tecnología se ha vuelto imparable y la introducción de la
Inteligencia Artificial (IA) en la gestión de la información médica, ha llegado acompañada al sector de la mano de muchas
dudas e inseguridades, tanto para profesionales, como para pacientes. Con la proliferación de esta tecnología, la posibilidad de que un facultativo introduzca la
historia clínica de un paciente en estas plataformas se ha convertido en una realidad. Para comprender mejor esta situación, el
Ministerio de Sanidad y
Nuria Ruiz, directora general de Salud Digital de la Consejería de Digitalización de la Comunidad de Madrid, han explicado a
Redacción Médica qué medidas se implementan para proteger a los pacientes ante posibles riesgos.
Según explica el Ministerio de Sanidad, las herramientas en las que un profesional puede
introducir la historia clínica de un paciente son aquellas que proporcionan
de manera específica cada comunidad autónoma. Por supuesto, este uso se limita a efectos de prestar una atención sanitaria. Sanidad añade, también, que en el marco del
Sistema Nacional de Salud (SNS), los instrumentos que utilizan los profesionales sanitarios solo pueden ser utilizados por el personal autorizado.
Una de las medidas que se aplica en la
Consejería de Sanidad para cumplir la
Política de Seguridad es la prohibición de sistemas de información que no sean corporativos, tal y como explica Ruiz. En este sentido, asegura que los facultativos “no
pueden introducir las historias cínicas o información de las mismas” en programas de inteligencia artificial si estos no se encuentran entre los sistemas corporativos que ofrece la propia conserjería.
Además, añade que “en cumplimiento del
Esquema Nacional de Seguridad, las historias clínicas cuentan con medidas de seguridad suficientes que permiten
conocer la trazabilidad y todas las actuaciones que se efectúan sobre las mismas”. Para ello, se realizan
auditorías periódicas que permiten comprobar que únicamente se ejercen legítimas sobre la información que contiene acciones.
A pesar de todas las medidas, el riesgo de que
las inteligencias artificiales se conviertan en una tentación para los facultativos continúa siendo una realidad. Para evitarlo, Ruiz comenta que “se han adelantado” a esta demanda y que han
mejorado la digitalización de los procesos asistenciales, implantando estas innovaciones en las herramientas corporativas, para que puedan ser utilizadas
de forma segura por los trabajadores y velando por la seguridad de los ciudadanos.
¿Presenta peligros el uso de la IA en sanidad?
Lo cierto es que las herramientas de inteligencia artificial pueden
contener errores, tanto las comunes, como las que se utilizan como ayuda al diagnóstico. Por este motivo, Ruiz asegura que es
responsabilidad de los profesionales verificar que estos errores no se produzcan. Al mismo tiempo, los facultativos deben controlar los sesgos, las posibles discriminaciones o las
infracciones del ordenamiento jurídico.
“El profesional clínico
es el responsable final de las decisiones diagnósticas y terapéuticas relacionadas con el paciente, ya que las herramientas de
IA únicamente actúan de apoyo al proceso de razonamiento clínico con sugerencias o información complementaria,
nunca reemplazan el criterio experto del profesional”, asevera Ruíz.
A pesar de que la responsabilidad recae en todo caso sobre el profesional, la Conserjería de Sanidad también se asegura de
revisar previamente el uso de estas tecnologías de manera exhaustiva. “Se vela porque la información introducida únicamente se utiliza para los finos señalados”, señala la experta.
Pasos para velar por la privacidad del paciente
La
privacidad de los pacientes presenta un gran
peligro frente al uso de esas tecnologías. Ruiz explica que en los proyectos en los que existen componentes de IA, “siempre se promueve la utilización de
información anonimizada a través de distintos procesos técnicos y organizativos para que la información no permita la identificación de ningún paciente”.
Junto a esto, se establecen
medidas técnicas como el cifrado y el registro de actividad de usuarios, “estableciendo siempre el mínimo privilegio posible y velando porque la información se utiliza únicamente por el personal que lo necesita en el desempeño de sus funciones”, añade.
Para
garantizar un buen uso por parte del personal, Ruiz detalla que el
Sermas ofrece “
numerosas sesiones formativas”. Además, desde la Oficina de Seguridad, se está trabajando en la elaboración de
formaciones específicas en el uso de la IA para profesionales, tal y como comenta la experta.
Por supuesto, los ciudadanos siempre van a contar con su
derecho a efectuar una reclamación o defender la protección de sus datos ante el responsable del tratamiento. Además,
pueden interponer reclamaciones frente a la
Agencia Española de Protección de Datos , la cual puede ejecutar sanciones si detecta un
incumplimiento de la normativa vigente, tal y como detalla Ruiz.
¿Dónde se almacenan los datos en el SNS?
Los datos de salud en el SNS se almacenan “en
sistemas securizados, con comunicaciones cifradas y autenticación fuerte de los usuarios autorizados”, tal y como detalla el Ministerio de Sanidad.
En el caso de que se utilicen sistemas de IA, estos
deben formar parte de esos mismos entornos, utilizando los datos de los pacientes que puedan ser necesarios. De acuerdo con Ruiz, Sanidad explica que, en ocasiones, “esos datos podrán haber sido anonimizados o
seudonimizados”.
Junto a todas las medidas de seguridad, Sanidad considera que es esencial
informar tanto a los profesionales como a los ciudadanos de los derechos y los deberes en el uso de los datos de salud y sobre la legislación pertinente.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.