Formación > MIR

La IA de Google hace mejor examen MIR 2025 que ChatGPT pero también falla

Gémini coincide con Chat GPT en dos errores cuyas preguntas tienen una alta probabilidad de ser impugnadas por Sanidad

La IA de Google tampoco logra la perfección en el MIR 2025, uno de los más difíciles hasta la fecha.

31 ene 2025. 05.50H
SE LEE EN 3 minutos
Ni siquiera Gémini, la Inteligencia Artificial (IA) de Google, ha logrado responder correctamente todas las preguntas del MIR 2025, considerado uno de los exámenes más difíciles hasta la fecha. El pasado sábado 25 de enero, miles de aspirantes se presentaron a la prueba de Formación Sanitaria Especializada, organizada en diferentes sedes a lo largo del país por el Ministerio de Sanidad, en busca de una plaza

Tras finalizar el examen, numerosos comentarios sobre su alto nivel de exigencia inundaron las redes sociales, mientras que academias y opositores iniciaron los procesos de impugnación de algunas preguntas. Como ya informó Redacción Médica, ChatGPT tampoco logró acertar todas las cuestiones y señaló que algunos enunciados presentaban incorrecciones o ambigüedades, lo que dificultaba la elección de las respuestas correctas.

En este contexto, se esperaba que Gémini, reconocida por obtener mejores resultados que otras IA, alcanzara una puntuación perfecta. Sin embargo, aunque logró un 94,76 por ciento de aciertos, superando el desempeño de ChatGPT, aún quedó por debajo del 100 por ciento, lo que pone de manifiesto la dificultad a la que se enfrentaron los aspirantes.

La IA de Google logra un 94,76 por ciento de acierto en el MIR 2025, un 4,76 por ciento más que Chat GPT

Qué preguntas falló Gémini


Entre las 11 preguntas en las que la IA de Google falló, destacan algunos casos concretos. En la pregunta 4, se planteaba el caso clínico de una niña de 7 años con otalgia y otorrea purulenta derecha desde hacía tres semanas, tratada con antibióticos y antiinflamatorios. La opción correcta era la número 2, pero Gémini seleccionó erróneamente la primera alternativa.

Algo similar ocurrió en la pregunta 9, donde se describía a un hombre de 60 años que, tras sufrir un dolor brusco y un chasquido en el hombro, presentaba una deformidad en el brazo. Aunque la respuesta correcta era la segunda opción, la IA escogió la tercera.

Además de estos fallos, existen dos preguntas en las que tanto Gémini como ChatGPT cometieron errores. Precisamente, CTO ha solicitado su impugnación. En la pregunta 150, relacionada con el síndrome de inmovilidad en el anciano y el deterioro cognitivo, todas las IA coincidieron en que la respuesta correcta era la opción cuatro. Sin embargo, Sanidad estableció que la correcta era la primera, lo que ha generado una alta probabilidad de impugnación.

Las IAs y CTO coinciden en los errores de las preguntas 150 y 179


Por otro lado, en la pregunta 179, se incluyó una afirmación incorrecta sobre la metadona, indicando que tenía una escasa excreción renal, cuando en realidad se elimina por biotransformación hepática y excreción renal. Tanto las IA como algunas academias consideran que la formulación de la pregunta inducía a error y las últimas han solicitado que se anule.

A pesar de sus 11 errores, Gémini ha demostrado un rendimiento superior, con dos preguntas más acertadas que ChatGPT, lo que equivale a un 4,76 por ciento más de efectividad. No obstante, su desempeño resalta la extrema dificultad del MIR 2025, que incluso desafió a las Inteligencias Artificiales más avanzadas. Para los aspirantes a futuro médico especialista, este resultado confirma que la prueba de este año ha sido una de las más exigentes y que el proceso de impugnaciones podría modificar algunas calificaciones.
¿Quieres seguir leyendo? Hazte premium
¡Es gratis!
¿Ya eres premium? Inicia sesión

Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.