El entusiasmo por incorporar inteligencia artificial en medicina ha llevado a Osakidetza a apostar por un sistema de diagnóstico de cáncer de piel basado en imágenes. Sin embargo, una investigación revela fallos graves que podrían poner en riesgo vidas humanas, especialmente entre colectivos racializados. ¿Está la tecnología lista para este tipo de decisiones clínicas?
Una promesa tecnológica con pies de barro
Osakidetza ha decidido apostar por Quantus Skin, un software de inteligencia artificial que evalúa imágenes de lesiones cutáneas para estimar su riesgo de malignidad. El objetivo es agilizar las derivaciones a dermatología en casos urgentes de melanoma, el tipo de cáncer de piel más agresivo. En 2022, se adjudicó un contrato por casi 1,6 millones de euros a la empresa Transmural Biotech para implantar esta tecnología en el sistema público.

Pero los resultados no convencen. Un estudio liderado por expertos del Hospital Ramón y Cajal y la Universidad Complutense reveló que el sistema tiene una sensibilidad del 69 %, lo que significa que no detecta uno de cada tres melanomas. Además, su especificidad es del 80,2 %, generando un alto número de falsos positivos que pueden saturar los servicios de dermatología innecesariamente.
Desde Transmural Biotech alegan que los malos resultados se deben a la calidad de las imágenes tomadas en atención primaria, pero el estudio se hizo con dermatólogos especializados. Aunque aseguran mejoras tras ajustes técnicos, reconocen que el rendimiento era inferior al esperado.
Un algoritmo que excluye a una parte de la población
Más allá de su bajo rendimiento, el mayor problema de Quantus Skin puede estar en su sesgo racial. La herramienta fue entrenada únicamente con imágenes de personas blancas, ignorando cómo se presentan las lesiones en pieles más oscuras. La justificación oficial fue que el sistema solo se usaría en el País Vasco, donde la mayoría de la población es caucásica.

Sin embargo, los datos contradicen esta afirmación: más de 300.000 personas extranjeras viven en la comunidad, muchas de ellas procedentes de África y América Latina. La exclusión de estas tonalidades de piel en el entrenamiento del algoritmo implica que sus diagnósticos podrían ser aún menos fiables para estos grupos.
Casos similares muestran lo que esto puede significar: otro sistema, desarrollado en Suecia, reducía su precisión del 70 % al 17 % en personas con piel oscura. Y aunque el melanoma es más frecuente en personas blancas, quienes tienen piel más oscura presentan tasas de supervivencia inferiores, en parte debido al diagnóstico tardío.
Expertos insisten en que un sistema de IA no puede aplicarse si no ha sido entrenado con muestras representativas de la población a la que pretende servir. No hacerlo no solo perpetúa desigualdades, sino que puede tener consecuencias trágicas.
Fuente: Infobae.