¿Puede
el ChatGPT resolver cuestiones de insuficiencia cardiaca? La respuesta es que sí, según los expertos. Así lo corroboran en un estudio llamado 'Idoneidad de ChatGPT para responder preguntas relacionadas con la insuficiencia cardíaca' donde examinaron la
precisión y la reproducibilidad de las respuestas de este modelo de lenguaje y llegaron a la conclusión de que puede ser clave para la
educación de los pacientes con esta patología.
Hay que tener en cuenta que la insuficiencia cardíaca es
una enfermedad crónica y supone una gran carga asistencial debido a las hospitalizaciones, que suponen gran parte del gasto sanitario asociado a la misma. Sin embargo, se ha demostrado que el conocimiento del paciente sobre el
manejo de su condición de insuficiencia cardíaca conduce a menos ingresos y de más corta duración.
A menudo los pacientes buscan respuestas sobre su enfermedad en
internet y el ChatGPT puede ser un buen lugar donde resolver sus dudas y se podría plantear crear una función complementaria aplicada a condiciones de alta prevalencia que
requieren cuidados complejos, como la insuficiencia cardíaca. No obstante, todavía está en investigación cómo se podría sacar el máximo partido de
esta tecnología en Medicina.
"Los
resultados de nuestro estudio muestran la impresionante capacidad de ChatGPT para proporcionar servicios integrales y respuestas fiables a las preguntas de los pacientes, así como la impresionante
mejora en el rendimiento por estos modelos en tan poco tiempo", afirman los autores.
ChatGPT, recurso preciso y fiable
En este sentido, sostienen que se trata de
un "recurso preciso y fiable" para que los pacientes con insuficiencia cardíaca lo utilicen con supervisión de su proveedor de atención médica. Lo que hicieron fue definir 107 preguntas que plantearon a las dos versiones del ChatGPT y revisar la
precisión, exhaustividad y precisión de las contestaciones generadas.
Concretamente, vieron que ChatGPT 4 superó a ChatGPT 3.5 al proporcionar
respuestas más completas y detalladas (83,2 por ciento frente a 78,5) y no dar contestaciones incorrectas. Además, ambos modelos también proporcionaron
respuestas reproducibles a la mayoría de las preguntas en general (100 por ciento frente a 94 por ciento).
En estos resultados también se vio que la última versión mostró un mejor desempeño en las
categorías de 'Conocimientos básicos' (causas, síntomas y diagnóstico) y 'Gestión' (manejo general, medicamentos y estilo de vida), mientras que GPT 3.5 tuvo mejor rendimiento en la categoría
'Otros' (pronóstico, procedimientos y soporte), con un 94,1 por ciento vs 64,7 por ciento.
"El desempeño de ChatGPT en este estudio muestra que esta tecnología emergente puede
ser una herramienta útil tanto para los pacientes como para los proveedores en el futuro. Recomendamos que los investigadores y los médicos continúen
investigando las capacidades y limitaciones de ChatGPT para maximizar su impacto en mejorando los resultados de los pacientes", concluyen los autores, aunque añaden que hay limitaciones del modelo como que en ocasiones genera información inexacta.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.