Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

Apple trabaja en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios

Funcionaría de manera local buscando coincidencias con material conocido

We may earn a commission from links on this page.
Imagen para el artículo titulado Apple trabaja en una herramienta para detectar pornografía infantil en los iPhones de sus usuarios
Foto: Apple

Apple estaría trabajando en una herramienta para detectar material conocido de abuso sexual infantil, como imágenes de pornografía infantil, en los iPhones de sus usuarios.

Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, dice que varias personas le confirmaron de forma independiente que Apple lanzaría el viernes una herramienta para el escaneo de material de abuso sexual infantil (CSAM) que funcionará del lado del cliente; es decir, localmente en los iPhones.

Esta herramienta utilizaría algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido conocido de pornografía infantil, lo que implica que los iPhones tendrán que descargar un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.

Advertisement

Como explica 9to5Mac, Apple aún no ha anunciado oficialmente esta iniciativa. Falta conocer detalles importantes, como qué pasaría una vez que apareciera una coincidencia. Matthew Green señala algunas implicaciones negativas de este tipo de herramientas: los algoritmos hash no son infalibles y pueden generar falsos positivos.

También está por ver si Apple permitirá a las autoridades controlar esas “huellas” que se descargarán en el iPhone, porque podría abrir la puerta para que los gobiernos busquen otro tipo de imágenes en los teléfonos de los usuarios, como por ejemplo imágenes de activismo político.

Advertisement

Las fotos almacenadas en iCloud ya son accesibles por las autoridades bajo petición judicial, puesto que Apple controla las claves de cifrado en vez del usuario. Pero esta nueva herramienta abriría la puerta a inspecciones locales en los iPhones, una potencial crisis de imagen para una compañía que dedica gran parte de sus esfuerzos de marketing a destacar la privacidad de sus teléfonos.


Actualización (6/7): Apple ha confirmado que esta herramienta llegará con iOS 15 y iPadOS 15 más adelante este mismo año, pero solo se cotejarán (de forma local en el dispositivo) las fotos que vayan a subirse a iCloud.

Advertisement

Se usará la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) para buscar coincidencias y cancelar, en consecuencia, la cuenta de usuarios con material de abuso infantil. El usuario podrá reportar el baneo si considera que es un error. Apple revisará manualmente los reportes.