Saltar al contenido
Tecnología

El alarmante aumento de la pornografía infantil creada con inteligencia artificial: un problema crítico para internet

La creciente circulación de imágenes de abuso infantil generadas con inteligencia artificial está encendiendo las alarmas entre organizaciones y expertos en ciberseguridad. Con tecnologías cada vez más avanzadas, estos contenidos han alcanzado niveles de realismo que dificultan su identificación, poniendo a prueba la capacidad de las autoridades para combatir este fenómeno.
Por

Tiempo de lectura 3 minutos

Comentarios (1)

En los últimos meses, la Fundación de Vigilancia de Internet (IWF) ha detectado un aumento “escalofriante” en la creación y circulación de pornografía infantil generada por IA. Estas imágenes y videos, que muestran a menores siendo abusados de manera realista, están inundando sitios de acceso público, principalmente en Rusia, Estados Unidos y Japón. Entre abril y septiembre de 2024, la IWF recibió 74 denuncias, superando las cifras del año anterior en un periodo más corto. Este material es compartido abiertamente en foros y galerías de imágenes de IA, lo que facilita su acceso a un público amplio.

Tecnologías que complican la detección

Lo que diferencia estas imágenes de otras es su realismo, fruto de la capacidad de los sistemas de inteligencia artificial de aprender a partir de imágenes y videos reales de abusos infantiles. Derek Ray-Hill, director general interino de la IWF, advirtió que estas herramientas tecnológicas han alcanzado un nivel de sofisticación preocupante, dificultando la tarea de las autoridades. “El software utilizado ha sido entrenado con material real de agresiones, lo que incrementa la gravedad del problema”, explicó Ray-Hill, quien instó a los gobiernos a actualizar sus leyes para poder hacer frente a esta nueva amenaza digital.

Una industria que, lamentablemente, no deja de crecer

El uso de inteligencia artificial para la creación de material de abuso infantil no es un fenómeno nuevo, pero su escala está creciendo a niveles industriales. Según una investigación de la periodista Octavia Sheepshanks, estos creadores de contenido buscan generar al menos 1000 imágenes al mes, lo que evidencia la magnitud del problema. Los pedófilos utilizan software de IA que ha sido entrenado con material real para generar nuevas imágenes, las cuales luego promocionan en plataformas de intercambio de imágenes como Pixiv, un sitio popular en Japón.

El proceso de distribución del contenido ilegal

El método de distribución de estas imágenes suele seguir un proceso en tres etapas:

  1. Los pedófilos crean las imágenes utilizando IA entrenada con material real.
  2. Promocionan estas imágenes en plataformas de intercambio de fotos como Pixiv.
  3. Los usuarios son dirigidos a sitios donde pueden pagar por acceder a contenido más explícito, utilizando servicios como Patreon.

Este esquema ha permitido la proliferación de un volumen abrumador de imágenes de abuso sexual infantil, lo que dificulta que las autoridades y organizaciones como la IWF puedan mantener el ritmo de eliminación y detección.

La urgencia de nuevas medidas

Diseño Sin Título 2024 10 22t175601.474
© Phanphen Kaewwannarat

Con el aumento continuo de este tipo de denuncias, los expertos temen que las organizaciones encargadas de combatir la pornografía infantil en internet se vean superadas. La IWF ha pedido a los parlamentarios británicos que adapten las leyes existentes a la realidad digital actual, ya que las herramientas de IA avanzan más rápido que la legislación. Sin una respuesta eficaz, las autoridades corren el riesgo de no poder frenar la propagación de este material.

Un problema global que requiere acción inmediata

El uso de IA para crear y difundir imágenes de abuso infantil plantea un reto global. A pesar de los esfuerzos de organizaciones como la IWF, la naturaleza avanzada y clandestina de estas prácticas está haciendo que la detección y eliminación de este material sea más complicada que nunca. La clave para combatir este problema radica en la cooperación internacional y en el desarrollo de tecnologías que puedan identificar con mayor precisión este tipo de contenido, así como en la adaptación de las leyes para hacer frente a esta nueva amenaza.

Este sombrío panorama refleja los peligros del mal uso de la inteligencia artificial, y la necesidad urgente de implementar medidas legales y tecnológicas para proteger a los menores de este tipo de explotación.

Compartir esta historia

Artículos relacionados