Formación > MIR

A ChatGPT se le atragantan 13 preguntas del MIR 2025 y acierta el 90%

La Inteligencia Artificial también señala que algunos de los errores podrían haber surgido por la ambigüedad o extensión

El ChatGPT tampoco logra la perfección en el MIR 2025.

28 ene 2025. 16.00H
SE LEE EN 4 minutos
Ni siquiera ChatGPT ha logrado obtener todas las preguntas acertadas en uno de los exámenes MIR más difíciles hasta la fecha. La Inteligencia Artificial (IA) ha respondido correctamente el 90,97 por ciento de las cuestiones de la prueba del pasado sábado, una elevada puntuación cercana a la excelencia, pero que queda lejos de la perfección.

Un análisis realizado por la propia entidad revela áreas de mejora que destacan la complejidad y el rigor del examen como filtro para evaluar los conocimientos clínicos. En algunos casos, incluso, habla de enunciados que podrían estar mejor redactados, lo que podría abrir la puerta a impugnaciones.

De las preguntas fallidas, cinco pertenecen a áreas clave de la medicina clínica: Oncología Genética, Otorrinolaringología Pediátrica, Cardiología, Neumología y Hepatología. Cada uno de estos errores refleja los desafíos inherentes al diagnóstico diferencial, la interpretación de imágenes médicas y la lectura de electrocardiogramas.


Qué preguntas erró la IA


En la primera de ellas, la Oncología Genética, correspondiente a la pregunta 2, la IA no logró identificar correctamente el Síndrome de Lynch, asociado a cáncer de endometrio y antecedentes familiares. En la segunda, la Otorrinolaringología pediátrica (pregunta 4), ante un caso de infección del oído, seleccionó como diagnóstico un absceso cerebral retromastoideo, menos común que el absceso subperióstico extracraneal, el diagnóstico correcto.

Cardiología (pregunta 13), ChatGPT erró al interpretar un electrocardiograma, donde confundió un flutter auricular con una fibrilación auricular, dejando pasar las características específicas que diferencian ambas arritmias. En Neumología (pregunta 16), frente a un patrón radiológico complejo, la IA eligió una neumonía intersticial inespecífica, pero el diagnóstico correcto era una atelectasia obstructiva, derivada de neoplasias centrales.

Finalmente, en Hepatología (pregunta 17), en un caso de hipertensión portal severa, ChatGPT optó por un trasplante hepático, aunque la colocación de un TIPS (derivación intrahepática) era la intervención inicial indicada.

Los errores se concentran en las áreas de diagnóstico diferencial en las imágenes médicas y la interpretación electrocardiográfica


Esto supone que los errores que cometió el sistema informático se encuentran concentrados en dos áreas muy concretas del examen. El diagnóstico diferencial en imágenes médicas, en el que los errores se basaron en priorizar los diagnósticos más probables, y la interpretación electrocardiográfica, donde omitió detalles específicos de los patrones del ECG, esenciales para identificar con precisión arritmias como el flutter auricular.

Con un porcentaje de acierto cercano al 91%, la IA analiza también el motivo por el que han surgido los diferentes errores que ha obtenido en la prueba. En las dos principales razones que se destacan, ChatGPT asegura que “algunas preguntas tienen enunciados extensos y cargados de detalles clínicos, lo que puede dificultar identificar la clave del problema en el tiempo disponible”, queja similar que ya están anunciando las academias de todo el país.

"Algunas de las preguntas tienen enunciados extensos y cargados de detalles clínicos, lo que puede llegar a dificultar la identificación clave del problema" 


En la segunda argumentación de los errores, la IA opina que las opciones de respuesta son ambiguas o muy similares. “En algunos casos, las opciones de respuesta son muy parecidas y dependen de interpretaciones sutiles”, algo también muy comentado en esta prueba en la que numerosas cuestiones “parecen estar hechas más para especialistas que para médicos medio”, como señaló en su análisis el profesor de CTO, Jorge García Macarrón.

Pese al alto porcentaje de preguntas acertadas por parte de ChatGPT, los errores producidos son señalados por la IA por errores más pertenecientes a la redacción de las preguntas y términos ambiguos que la propia capacidad, lo que podría abrir la puerta a las impugnaciones que se sucederán a lo largo de los próximos días.
¿Quieres seguir leyendo? Hazte premium
¡Es gratis!
¿Ya eres premium? Inicia sesión

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.