Desde hace años, el sistema VioGén se presenta como una herramienta clave en la lucha contra la violencia de género en España. Alimentado por algoritmos, promete evaluar riesgos y evitar tragedias. Sin embargo, los fallos recientes y la opacidad de su funcionamiento generan dudas profundas sobre su fiabilidad. Cada error no solo es un dato: es una vida en juego.

Una herramienta con buenas intenciones, pero con fallas evidentes
El sistema VioGén, desarrollado por el Ministerio del Interior en 2007, nació con la promesa de proteger a las víctimas de violencia de género mediante el análisis automatizado de datos. Utiliza información como denuncias previas, antecedentes del agresor y otros factores sociales o personales para clasificar el nivel de riesgo: bajo, medio, alto o extremo. De esta evaluación dependen medidas clave como órdenes de alejamiento o vigilancia permanente.
Pero los errores se repiten. En enero, Lina denunció amenazas por parte de su expareja en Benalmádena. El sistema clasificó su caso como de “riesgo medio”. Tres semanas después, fue presuntamente asesinada. No es un hecho aislado. En 2024, varios casos similares se registraron, todos bajo el paraguas de un sistema que aparentemente subestima el peligro.
Actualizaciones, nuevos protocolos… y las mismas preguntas
VioGén ha evolucionado. Su versión 2 introdujo el «Protocolo Cero» para casos en los que la víctima no desea denunciar y endureció las condiciones para cerrar expedientes. También añadió una vigilancia más prolongada en situaciones de riesgo bajo o no apreciado. Sin embargo, la estadística revela que de las más de 96.000 mujeres registradas, solo 12 eran consideradas en riesgo extremo. El margen de error parece inaceptablemente alto.
Autoridades como los ministros Ana Redondo y Fernando Grande-Marlaska insisten en que el sistema “salva vidas”, aunque reconocen que “no es infalible”. Esta afirmación, aunque cierta, deja una incómoda sensación de impotencia.
IA, justicia y decisiones que no pueden fallar
El caso de VioGén no es el único. La IA ya ha fallado con el sistema Veripol, diseñado para detectar denuncias falsas, y con el reconocimiento facial en Madrid, que ha encendido alarmas sobre privacidad. Incluso el Caso Ábalos mostró cómo una IA mal calibrada puede convertir una declaración judicial en un caos ilegible.
En otros países, los problemas son similares: algoritmos que recomiendan condenas en juicios sin revelar sus criterios, o sistemas como BOSCO que deciden ayudas sociales sin transparencia alguna. La tecnología avanza, pero las garantías no parecen acompañarla.

¿Quién vigila a los algoritmos?
En 2021 se prometió una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), y su sede en La Coruña comenzará a funcionar en 2025. Debería ser un actor clave en la vigilancia del uso ético de la IA, especialmente en temas tan sensibles como la seguridad y los derechos fundamentales. También se espera mucho del Centro Europeo de Transparencia Algorítmica (ECAT), ubicado en Sevilla.
Pero mientras esas instituciones se organizan, los algoritmos ya deciden quién vive con protección y quién no. El caso de Lina no es solo una tragedia individual, sino una advertencia colectiva: necesitamos entender, vigilar y mejorar los sistemas que supuestamente nos cuidan.
Fuente: Xataka.