Desde que la
Inteligencia Artificial irrumpió en los distintos ámbitos de nuestra vida cada vez es más habitual hacer uso de ella para facilitarnos la existencia. Dentro de las
facultades de Medicina también se ha vuelto muy popular entre los estudiantes y, aunque no debería ser algo negativo, hay quienes pueden utilizarla para
realizar trabajos académicos sin esfuerzo. Una práctica
poco ética con la que corren el riesgo de ser 'pillados' y, por ende, suspender las asignaturas.
A pesar de que es una herramienta que genera texto y, en determinadas ocasiones
la IA puede ayudar a orientar al estudiante,
no es precisa, y menos aún, en un campo tan amplio y específico como lo es la Medicina. Así lo ha reconocido la propia
ChatGPT, quien ha sido consultada por este periódico para conocer
los motivos por los que
no se debería hacer uso de ella en los ejercicios académicos.
La primera de las causas que ha resaltado es su
falta de precisión médica. Por esta razón, ha recomendado que los alumnos prioricen hacer uso de
fuentes “confiables” para la realización de sus trabajos antes de consultarla.
Otro de los puntos que ha destacado es el riesgo de que se encuentren
información incorrecta. Esta IA genera respuestas basadas en patrones en los datos con los que ha sido entrenada, por lo que existe un riesgo de que se proporcione una información médica incorrecta o
desactualizada. “Esto podría llevar a
errores graves en la compresión de los conceptos médicos y en la práctica clínica”, ha afirmado.
¿Por qué un estudiante de Medicina no debe usar la IA?
El
plagio es otro de los puntos a tener en cuenta antes de tomar la decisión de usar este tipo de tecnologías para hacer las tareas de clase. “Muchas instituciones académicas tienen políticas estrictas contra el plagio, lo que podría resultar en
consecuencias graves para la reputación y el futuro académico de su responsable”, ha señalado.
Además, usar este tipo de plataformas digitales ya no solo puede afectar a la reputación de la persona, sino también a su
falta de comprensión y aprendizaje para el futuro. De hecho, ChatGPT resalta que el proceso de investigación y redacción es una parte “integral” del
aprendizaje en Medicina, por lo que usar esta herramienta les privaría de la oportunidad de investigar, analizar y comprender “a fondo” los temas médicos,
limitando su desarrollo académico y profesional.
¿Cómo me pueden 'pillar' en Medicina si uso IA?
Además de lo mencionado previamente, los docentes son “expertos” en detectar el uso de estas herramientas y pueden
identificar patrones de escritura “inconsistentes” con el estilo y nivel de conocimiento del estudiante. “Esto podría llevar a la sospecha de que se está utilizando una IA para completar el trabajo”, ha concluido.
La Inteligencia Artificial lleva ya años en auge y los profesores tienen sus propias estrategias para identificar qué ejercicios están elaborados a través de herramientas digitales, y cuáles no. Según ChatGPT, las
inconsistencias en el estilo de escritura, errores específicos, información inexacta o
patrones de redacción poco habituales son algunas de las formas con las que los profesores pueden identificar su uso.
Pero estos no son los únicos. También las respuestas que se generan pueden ir
más allá del nivel de conocimiento esperado de un estudiante, lo que hace
saltar las alarmas de los docentes de que hay algo extraño. Esto lleva al siguiente punto, y es que tomen la decisión de
comparar ese trabajo con otros anteriores, pudiendo descubrir que, efectivamente, el alumno
está haciendo trampas.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.