Advertisement
Advertisement

La distinción es importante porque Glaze no funciona haciendo que una imagen se vuelva absolutamente imposible de leer para una IA. Lo que hace es introducir aberraciones que confunden a los algoritmos para impedirles interpretar el estilo artístico concreto de la imagen. La técnica no busca bloquear completamente la minería de datos (en este caso de imágenes) de la que se nutren IAs como Stable Diffusion, sino impedir que estas sean usadas para realizar falsificaciones.

El de las falsificaciones es un problema mayor del que parece. Las IA que generan imágenes son muy fáciles de usar. Básicamente solo hay que introducir palabras o frases cortas descriptivas (lo que se conoce como prompts), algo que cualquier ser humano mínimamente alfabetizado y con cero talento para el arte o la escritura puede hacer. Muchos usuarios de estas IA se aprovechan de esa facilidad para introducir prompts como “arte al estilo de X” donde X es el artista real cuyo estilo quieren imitar. Artistas consolidados con un sello muy personal como el canadiense Sam Yang (SamDoesArts) han visto como de la noche a la mañana Internet se llenaba de imágenes generadas por IA que imitaban su estilo. En algunos casos, los falsificadores tan solo usan las copias para rascar tráfico, que ya es malo de por sí, pero también ha habido casos de desaprensivos que han intentado venderlas haciéndolas pasar por obras del artista original.

Los creadores de Glaze han usado la app sobre una imagen cedida voluntariamente por la artista Karla Ortiz (arriba). Esto es lo que explican sobre su funcionamiento:

Stable Diffusion puede aprender a crear imágenes al estilo de Karla después de ver solo algunas piezas de la obra de arte original de la artista (que puede tomar directamente del portfolio público de Karla en Internet). Nuestra herramienta agrega pequeños cambios a la obra de arte que impiden que Stable Diffusion aprenda el estilo artístico de Karla. En su lugar, la IA interpretará su arte en un estilo diferente (por ejemplo, el de Vincent van Gogh). Alguien que trate de incitar a Stable Diffusion a generar “obras de arte al estilo de Karla Ortiz” solo obtendría imágenes en otro estilo híbrido. Esto protege el estilo de Karla de ser reproducido por IA sin su consentimiento.

Advertisement

Un experto en el uso de IA para animaciones llamado David Marx puso a prueba Glaze tratando de saltarse la protección para imitar adrede el estilo de Karla Ortiz. Al final tuvo que felicitar a sus creadores. La app no evita que las IA copien el contenido de la imagen, pero el estilo queda completamente irreconocible.

Advertisement

Zhao y su equipo explican que la app, aún en fase beta, no funciona bien con todos los estilos artísticos, ya que las aberraciones que introduce son visibles en algunas imágenes que usan colores planos y líneas muy definidas. Con todo, es un comienzo alentador para los artistas que ven peligrar su sustento a manos de una caterva de imitadores que se promocionan como artistas o “ingenieros de prompts”, pero ni saben sujetar un pincel, ni quieren hacer el esfuerzo de aprender a hacerlo.