El
anuncio de OpenAI sobre el lanzamiento de
ChatGPT Salud 2026 ha despertado un notable interés público, pero también cierta inquietud entre los expertos de esta tecnología en el ámbito sanitario. Así, José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y experto en IA, analiza en
Redacción Médica el alcance y los riesgos de esta nueva herramienta que promete
transformar la relación de los ciudadanos con su información médica.
Según explica, ChatGPT Salud se presenta como "
un copiloto sanitario: un espacio dentro de ChatGPT en el que el usuario puede conectar datos de bienestar - como por ejemplo, Apple Health o MyFitnessPal- y, en determinados casos, también sus registros médicos, para
entender analíticas, preparar una cita o seguir patrones de hábitos". Bajo este enfoque de empoderamiento ciudadano, el experto advierte que "se esconde una estrategia empresarial audaz que nos obliga a analizar los
fundamentos éticos y legales de esta nueva frontera digital".
Riesgos: el "guion" de la IA y el sesgo de autoridad
Además, subraya que
el desarrollo de la Inteligencia Artificial avanzada no depende únicamente del prestigio técnico, sino de su
adopción masiva. "Los modelos a gran escala cuestan mucho de entrenar y, sobre todo, de servir a millones de personas. Por eso la salud es un territorio tentador: es
universal, recurrente y emocional", afirma. OpenAI sostiene que "cada semana, más de 230 millones de personas plantean preguntas de salud y bienestar en ChatGPT", un dato que, según el experto, convierte en lógica la decisión de
transformar ese uso espontáneo en un producto especializado, aunque no está exenta de consecuencias.
El problema, aclara, no está en "que el paciente quiera comprender su informe o llegar más preparado". "Eso puede mejorar la comunicación clínica", señala. Sin embargo, advierte de un cambio profundo en la dinámica asistencial: "El riesgo está en el desplazamiento del centro de gravedad: cuando la narrativa del paciente se cocina primero en una interfaz que ordena síntomas, sugiere hipótesis y propone preguntas ‘inteligentes’, la relación médico-paciente cambia".
En ese escenario, el profesional sanitario, según Trujillo, "deja de explorar un relato para negociar un guion ya consolidado que trae el paciente". Por eso, añade una advertencia clave: "En Medicina, un guion convincente puede ser tan peligroso como un error serio si genera falsa tranquilidad, sobrediagnóstico o retrasos en acudir a consulta".
Otro elemento crítico es el sesgo de autoridad. "Tendemos a conceder credibilidad extra a lo que suena experto, coherente y ‘científico’", explica, recordando que en contextos de salud "la ansiedad reduce el contraste: quien tiene miedo compra certezas". En este sentido, alerta de que "un modelo generativo puede equivocarse con prosa impecable y esa mezcla -error más elegancia- es especialmente tóxica cuando se transforma en 'consejo'".
Para el experto, las advertencias legales no son suficientes y no basta con avisar de que la IA "no sustituye a médico", sostiene. "Si la herramienta interpreta resultados, delimita ‘siguientes pasos’ o prioriza riesgos, ya está influyendo en conductas, incluso cuando se presenta como mera orientación".
Negocio, datos y límites regulatorios
La dimensión económica añade otra capa de preocupación. Trujillo recuerda que "el sector tecnológico debate modelos de monetización más allá de la suscripción y OpenAI ha impulsado experiencias de comercio dentro de ChatGPT". En este contexto, plantea una pregunta incómoda: "¿Qué ocurre si la lógica de recomendación se mezcla con incentivos económicos en un espacio de salud?". A su juicio, "no hace falta imaginar un banner; bastaría con que determinadas opciones -una prueba, una clínica, un seguro, un fármaco, un suplemento- aparezcan como 'recomendadas' para que la frontera entre consejo y negocio se vuelva peligrosa".
El experto también destaca un detalle revelador del lanzamiento: "El acceso inicial a ChatGPT Health se limita, de entrada, a usuarios fuera de la Unión Europea, Suiza y Reino Unido". Para Trujillo, esto "no es casualidad", ya que "Europa tiene el
Reglamento General de Protección de Datos (RGPD) y una Ley de Inteligencia Artificial de la UE (AI Act) que ya ha activado obligaciones para los grandes modelos", además de una
sensibilidad especial en torno al dato sanitario.
OpenAI asegura que "ChatGPT Salud opera como un espacio separado, con protecciones reforzadas, y que esas conversaciones no se usan para entrenar sus modelos fundacionales". También mantiene políticas por las que "el chat se elimina de la vista de forma inmediata y la supresión en sistemas puede completarse en un plazo máximo de 30 días". No obstante, el experto insiste: "Son medidas relevantes, pero no sustituyen lo esencial: gobernanza verificable".
Entre las preguntas que siguen abiertas, Trujillo enumera algunas: "¿Qué se guarda exactamente? ¿Qué terceros intervienen cuando se conectan registros médicos? ¿Con qué granularidad puede el ciudadano ver, revocar y auditar lo que comparte?". Y concluye: "Europa ha aprendido, por experiencia, que 'cumplimos' no siempre equivale a 'protegemos', y en salud la ambigüedad se paga cara".
Condiciones para un despliegue seguro
Desde una perspectiva ética, recuerda que "la Medicina no es solo técnica, es
una práctica informada por la ética".
El consentimiento informado, afirma, "exige comprensión", y mientras "un médico puede errar, pero debe poder razonar, justificar y corregir", un modelo generativo "puede
acertar sin comprender y fallar con una seguridad aparente que inhibe la duda del usuario".
El experto también alerta sobre las diferencias entre sistemas sanitarios: "protocolos, accesos a fármacos y circuitos asistenciales varían entre países; una recomendación optimizada para un contexto puede desajustarse en otro". En caso de daño, advierte, "aparecerá el vacío clásico: ¿quién responde, el profesional, el hospital o el proveedor tecnológico?".
Trujillo concluye que el debate no pasa por rechazar la innovación, sino por fijar límites claros: "No se trata de demonizar el desarrollo de la IA en salud. Se trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión". Para ello, defiende "condiciones irrenunciables: separación real de datos, auditorías independientes, evaluación de sesgos, supervisión humana operativa y prohibición -o, como mínimo, etiquetado inequívoco- de cualquier contenido patrocinado o con conflicto de interés".
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.