Saltar al contenido

El nuevo generador de imágenes con inteligencia artificial de Amazon crea una ‘marca de agua invisible’ en cada deepfake

Amazon también afirma que protegería a cualquier cliente de AWS acusado de violar los derechos de autor con su creador de arte con IA.

¿Qué tan difícil es verificar si una imagen es una IA deepfake o no? Bueno, Amazon afirma que tiene algún tipo de respuesta con su propio sistema de marcas de agua para Amazon Titan Image Generator, el nuevo creador de arte con IA que anunció hoy. Por supuesto, no es tan fácil. Cada empresa que haga uso del modelo, deberá delinear cómo los usuarios pueden comprobar si esa imagen que encontraron en línea era realmente solo otro IA deepfake.

Amazon no ofreció muchos —o realmente ninguno—detalles acerca de titán capacidades, y mucho menos sus datos de capacitación. El vicepresidente de servicios web de Amazon para aprendizaje automático, Swami Sivasubramanian, dijo a los asistentes a la conferencia re:Invent de la compañía: Puedes crear una imagen “realista” de una iguana, cambiar el fondo de la imagen y usar una herramienta de relleno generativa para expandirla. Los bordes de la imagen. No es nada que no hayamos visto antes, pero el modelo está restringido a los clientes de AWS a través del Base plataforma. Es un modelo fundamental para que las empresas se integren en sus propias plataformas.

El gigante proveedor de servicios en la nube es, como muchas otras empresas, que impone a los usuarios individuales la responsabilidad de averiguar si una imagen fue creada por AI o no. La compañía dijo que este nuevo generador de imágenes de AI pondrá una “marca de agua invisible” en cada imagen creada a través del modelo. Esto está “diseñado para ayudar a reducir la difusión de información errónea al proporcionar un mecanismo discreto para identificar imágenes generadas por IA”.

No queda inmediatamente claro qué tipo de marca de agua es o cómo los usuarios externos pueden identificar la imagen. Otras empresas como Google DeepMind han afirmado que han encontró formas de perturbar los píxeles de una imagen generada por IA para crear una marca de agua inalterable. Gizmodo se acercó a Amazon para aclaración , pero no recibimos una respuesta inmediatamente.

El vicepresidente de IA generativa de AWS, Vasi Philomin, dijo El borde que la marca de agua no afecta la calidad de la imagen, aunque no se puede “recortar ni comprimir”. etiqueta de metadatos , aparentemente. Adobe utiliza etiquetas de metadatos para indicar si una imagen creada con su modelo Firefly es IA o no. Requiere que los usuarios vayan a un sitio separado en orden para encontrar si una imagen contiene la etiqueta de metadatos o no.

Para averiguar si una imagen es IA, los usuarios necesitarán conectarse a una API separada. Estará hasta cada empresa individual que hace uso del modelo para decirle a los usuarios cómo acceder a esa tecnología de escaneo de IA.

En pocas palabras, va a ser increíblemente molesto descubrir qué imágenes son IA, especialmente considerando que cada empresa está creando una marca de agua separada. sistema para su IA.

Los modelos de IA de Amazon pueden ser los más cerrados de cualquier compañía importante lanzados hasta ahora. El martes, la compañía reveló “Q”,

un chatbot personalizable hecho para empresas, aunque no tenemos idea sobre sus modelos subyacentes o sus datos de entrenamiento.publicación de blog, el fabricante líder de chips de inteligencia artificial, Nvidia, dijo que Amazon usó sumarco NeMopara entrenar el nuevo modelo. NeMo incluye modelos preentrenados destinados a acelerar el desarrollo de nueva IA, pero eso no ofrece Hay muchas pistas sobre qué tipo de contenido se incluye en el nuevo generador de arte con IA.Hay una razón por la cual la compañía no querría hablar mucho sobre lo que pasó con esta IA. Ha habido una gran cantidad de tipos artísticos que han criticado e incluso demandado a otras empresas, alegando que quienes crean generadores de arte con IA utilizaron su trabajo sin permiso para el entrenamiento de IA. Ya se ha comprometido a proteger a las empresas que utilizan el modelo de lenguaje del gigante tecnológico que codifica la IA.

Susurrador de códigossi alguien intenta demandar. El miércoles, Sivasubramanian dijo a los asistentes que la política de indemnización también se aplicaría al modelo Titán.AWS afirma que el modelo Titan tiene “soporte integrado para el uso responsable de la IA mediante la detección y eliminación de contenido nocivo de los datos”, rechazar entradas de usuario inapropiadas y filtrar salidas de modelos”. Lo que eso significa está en el aire sin tener la oportunidad de probarlo . Al igual que todo la IA anunciada en su re:Invent conferencia, el modelo está cerrado estrictamente,excepto para los clientes empresariales que que pagan .

AWS claims the Titan model has “built-in support for the responsible use of AI by detecting and removing harmful content from the data, rejecting inappropriate user inputs, and filtering model outputs.” Just what that means is up in the air without getting the chance to test it. As with all the AI announced at its re:Invent conference, the model is locked up tight except for paying enterprise customers.

Update 11/30/23 at 3:55 p.m. ET: This post was updated to include a comment from an Amazon spokesperson.

This content has been automatically translated from the original material. Due to the nuances of automatic translation, there may be slight differences. For the original version, click here.

También te puede interesar