Saltar al contenido
Tecnología

¿Minority Report en la vida real? El inquietante experimento del Reino Unido que predice futuros asesinos

El gobierno británico ha iniciado el desarrollo de un algoritmo que pretende identificar a quienes podrían cometer homicidios en el futuro. ¿Precaución legítima o distopía digital en plena expansión? Lo que se sabe hasta ahora plantea más preguntas que respuestas
Por AJ Dellinger Traducido por

Tiempo de lectura 3 minutos

Comentarios (0)

La tecnología ha transformado todos los aspectos de nuestras vidas, incluida la seguridad. Pero, ¿qué pasa cuando empezamos a usarla no solo para reaccionar al crimen, sino para predecirlo antes de que ocurra? Una iniciativa en marcha en el Reino Unido ha encendido todas las alarmas: un sistema diseñado para anticipar quién es más probable que cometa un asesinato. Aunque suena a ciencia ficción, como sacado de Minority Report, esto ya está ocurriendo.

El proyecto que nadie quería nombrar

Minority Report En La Policia De Uk
© Unsplash – Julien Tromeur

Lo que inicialmente se conoció como el Homicide Prediction Project fue rebautizado con un nombre más discreto: Sharing Data to Improve Risk Assessment. El cambio de nombre no oculta su intención: desarrollar un algoritmo capaz de identificar a personas que, según ciertos datos, podrían llegar a cometer crímenes violentos.

Gracias a documentos obtenidos por la organización de transparencia Statewatch a través de solicitudes de acceso a la información, se reveló que el Ministerio de Justicia británico trabaja en este sistema con el apoyo del Home Office, la Policía Metropolitana de Londres y la Policía de Greater Manchester. El sistema no solo incluye información sobre personas condenadas por delitos, sino también de sospechosos no condenados, víctimas, testigos y hasta personas desaparecidas.

El proyecto ha recopilado información de entre 100,000 y 500,000 personas, incorporando datos extremadamente sensibles: historial de salud mental, adicciones, autolesiones, intentos de suicidio, condiciones de discapacidad y otras “marcas de salud” que, según el Ministerio, tendrían “gran valor predictivo”.

Oficialmente, se niega el uso de datos de víctimas o personas vulnerables sin condenas previas, pero la magnitud y variedad de la información recopilada plantea serias dudas sobre los límites éticos del proyecto.

Historia conocida, consecuencias esperadas

Minority Report En La Policia De Uk
© Unsplash – Scott Rodgerson

No es la primera vez que el Reino Unido experimenta con justicia predictiva. El Offender Assessment System, ya en uso, pretende calcular la probabilidad de reincidencia de una persona y es utilizado por jueces para dictar sentencias. Sin embargo, evaluaciones gubernamentales han demostrado que sus predicciones sobre delitos no violentos suelen ser exageradas y menos precisas para personas negras.

Este sesgo no es exclusivo del Reino Unido. Los sistemas de justicia predictiva han demostrado fallos similares en todo el mundo, debido a que se alimentan de datos históricamente sesgados. La sobrerrepresentación de comunidades marginadas en las estadísticas policiales —resultado de décadas de sobrevigilancia— se incorpora en los algoritmos, lo que perpetúa un círculo de discriminación digital.

Más allá de la promesa de “prevenir la violencia antes de que ocurra”, el riesgo de aplicar un sistema así es evidente: condenar a personas no por lo que han hecho, sino por lo que un algoritmo cree que podrían hacer.

El simple hecho de ser pobre, vulnerable o vivir en un barrio conflictivo podría incrementar tu “riesgo algorítmico” sin que hayas cometido delito alguno. Y aunque los responsables del proyecto aseguran que se implementarán salvaguardas éticas, la experiencia sugiere que los sistemas de este tipo rara vez corrigen sus sesgos. Al contrario: los amplifican.

La advertencia ignorada

La película Minority Report de Steven Spielberg nos advirtió de los peligros de una justicia basada en la predicción. Irónicamente, la referencia parece haberse transformado en una hoja de ruta. En lugar de rechazar la idea de castigar el pensamiento o la probabilidad, estamos avanzando directamente hacia ella.

La pregunta ya no es si podemos crear estos sistemas. Es si debemos. Y, sobre todo, ¿quién los controla, y contra quién se usarán? El Reino Unido ha dado el primer paso, pero lo que viene después aún está por escribirse.

Compartir esta historia

Artículos relacionados