Los sistemas de
Inteligencia Artifical (IA) que se han desarrollado para diagnosticar el
cáncer de piel corren el riesgo de ser menos precisos para las personas con piel oscura. Así lo han indicado los investigadores que han llevado a cabo el estudio de la
Universidad de Oxford publicado en la revista
The Lancet. En el, han asegurado que se necesita hacer más para garantizar que la tecnología beneficie a todos los pacientes.
Actualmente, existen muy pocas bases de datos de imágenes que contengan información sobre la piel oscura y, por ende, no podrían usarse para desarrollar sistemas de IA para el diagnóstico de cáncer de este tipo de piel.
El objetivo de esta revisión sistemática ha sido identificar y evaluar todos los conjuntos de datos de imágenes de piel disponibles públicamente utilizados para el diagnóstico de esta enfermedad mediante la exploración de sus características, los requisitos de acceso a los datos y los metadatos de imágenes asociados.
El estudio resalta que el bajo rendimiento del algoritmo y, por tanto, los diagnósticos erróneos tienen serias implicaciones para los pacientes con
cáncer de piel; no solo corren el riesgo de pasar por alto neoplasias malignas tratables, sino que también pueden resultar en procedimientos quirúrgicos evitables y causar ansiedad innecesaria.
En la investigación han identificado 21 conjuntos de datos de acceso abierto para imágenes de cáncer de piel, de los cuales 14 registraron su país de origen. De estos, 11 incluían imágenes solo de
Europa, América del Norte y Oceanía. El equipo señala que pocos de estos datos registraron el origen étnico o el tipo de piel de las personas fotografiadas, por lo que no está claro lo generalizables que pueden ser los algoritmos basados en ellos.
"No hay imágenes de personas con antecedentes africanos, afrocaribeños o del sur de Asia"
|
Tan solo 10 imágenes de 106.950 estaban registradas como pertenecientes a personas con piel morena, y una de ellas estaba clasificada como un individuo con piel marrón o negra. “
No hay imágenes de personas con antecedentes africanos, afrocaribeños o del sur de Asia”, informa el equipo. “Junto con los orígenes geográficos de los conjuntos de datos, hubo una subrepresentación masiva de imágenes de lesiones cutáneas de poblaciones de piel más oscura”, apostillan estos investigadores.
David Wen, primer autor del estudio, reconoce que es poco probable que las omisiones sean deliberadas, pero pide unos estándares para garantizar que la información importante, incluida la etnia o el tipo de piel, se informe con imágenes. Por último, los investigadores añaden que los conjuntos de datos utilizados para desarrollar sistemas de IA deben representar las poblaciones en las que se utilizará la tecnología.
Aunque pueda contener afirmaciones, datos o apuntes procedentes de instituciones o profesionales sanitarios, la información contenida en Redacción Médica está editada y elaborada por periodistas. Recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.