Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

Esta herramienta del MIT protege tus fotos de retoques maliciosos basados en IA

MIT Photoguard introduce perturbaciones invisibles en las fotos que impiden que se editen mediante algoritmos generativos

We may earn a commission from links on this page.
Ejemplo de como MIT Photoguard protege las fotos de la edición Por IA.
Captura de pantalla: Hadi Saman / MIT CSAIL / YouTube

Los artistas no son los únicos que tienen que lidiar con la llegada de las nuevas herramientas generativas de imágenes como Dall-E o Stable Diffusion. Cualquier persona puede ver como usan una foto suya (o peor, su imagen) para realizar montajes generados por IA. Pues bien, el MIT ha creado una herramienta para evitar este uso no autorizado.

La herramienta en cuestión se llama Photoguard, y es una creación del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL por sus siglas en inglés del Instituto Tecnológico de Massachusetts. Lo que Photoguard no es una herramienta exactamente nueva. Ya hemos visto otras técnicas de protección de imágenes para que las IA no puedan leerlas, pero hasta ahora esas herramientas estaban enfocadas al arte. La nueva Photoguard del MIT CSAIL está enfocada en fotos comunes y corrientes.

Advertisement

De nuevo, la técnica consiste en introducir en la imagen información que resulta invisible al ojo humano, pero que interfiere completamente con la manera que tienen las IAs generativas de imágenes de analizar los píxeles de la imagen.

Interactive Demo: Raising the Cost of Malicious AI-Powered Image Editing

Cuando alguien trata de editar las imágenes alteradas usando herramientas de IA, el resultado es una imagen llena de aberraciones que hacen evidente que se trata de un montaje. Hasta es posible introducir perturbaciones que hagan que los algoritmos de IA trabajen sobre una foto completamente diferente que es invisible a ojos vista.

Advertisement
Advertisement

La técnica no es efectiva al cien por cien, y un usuario malicioso puede llegar a eliminar las perturbaciones introduciendo las suyas propias, pero para eso debe saber editar manualmente imágenes (algo que pocos usuarios de IA saben hacer), o dedicar mucho más tiempo a la edición, lo que elimina de la ecuación la ventaja del mínimo esfuerzo.

Hadi Saman, doctorado del MIT y principal autor del estudio sobre Photoguard, ha destacado en su presentación la necesidad de que las empresas se impliquen a la hora de integrar estos sistemas de protección en todas las imágenes con las que trabajan o que publican en sus plataformas. “Es necesario un enfoque colaborativo que involucre a desarrolladores de modelos, plataformas de redes sociales y legisladores”, explica Saman. “Hay que crear una defensa sólida contra la manipulación no autorizada de imágenes. Trabajar en este tema es de suma importancia hoy”.