Saltar al contenido
Tecnología

La nueva marca de agua de OpenAI empeorará nuestros problemas de imágenes falsas

Todo lo que se necesita es una captura de pantalla para eliminar la nueva y elegante marca de agua de OpenAI. Eso significa que buscarla podría dejarlo aún más confundido.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

OpenAI anunció que agregará marcas de agua a las imágenes generadas por sus herramientas de inteligencia artificial el martes, en un esfuerzo para combatir los crecientes temores sobre el inminente tsunami de deepfake. Las imágenes creadas con DALL-E y otros servicios de OpenAI incluirán una marca de agua visual y otros detalles sobre su origen en los metadatos: información codificado en el archivo generado. Aquí está el problema: todo lo que tienes que hacer para eliminar la marca de agua de metadatos es tomar una captura de pantalla. Eso significa La “solución” de OpenAI podría dejarle más confundido, no menos, una vez que entre en vigor.

Imagínese mirar una imagen sospechosa. Si verifica y descubre la marca de agua de la IA, caso cerrado. Pero si está mirando una IA -imagen generada a la que se le ha quitado la marca de agua, verificar los metadatos podría darle una falsa sensación de seguridad. En otras palabras, buscar la marca de agua podría significar que tiene menos información que cuando empezó.

La propia OpenAI explica que ustedes podrían incluso eliminar la marca de agua por accidente. Cuando suben una imagen a las redes sociales, la mayoría de las plataformas automáticamente eliminar metadatos del archivo porque a veces puede revelar la información personal de un usuario. Entonces, cuando publicas una de tus creaciones de IA en Instagram, podrías causar involuntariamente un fiasco de imagen falsa.

Las imágenes de OpenAI incluirán una marca de agua visual y detalles sobre la fuente de la imagen incrustada en los archivos.
Las imágenes de OpenAI incluirán una marca de agua visual y detalles sobre la fuente de la imagen incrustada en los archivos. Graphic: OpenAI

La empresa sostiene que esto sigue siendo una buena idea. “Creemos que adoptar estos métodos para establecer la procedencia y alentar a los usuarios a reconocerlos Las señales son clave para aumentar la confiabilidad de la información digital”, escribió OpenAI en un publicación de blog. Sin embargo, la empresa admite que la marca de agua “no es una solución milagrosa”. OpenAI no respondió de inmediato a una solicitud de comentarios.

OpenAI no puede asumir toda la culpa aquí. La compañía está adoptando un nuevo estándar desarrollado por la Coalición para la procedencia y autenticidad del contenido ( C2PA), una iniciativa encabezada por Adobe en asociación con una variedad de empresas, entre ellas Arm, la BBC, Intel, Microsoft y Nueva York. Times y X/Twitter. Meta anunció que añadirá sus propias etiquetas a imágenes generadas por IA, aunque no está claro exactamente cómo la empresa planea integrar el estándar C2PA.

Ya puedes ejecutar una imagen a través de un sistema de verificación de IA desarrollado con C2PA llamado Contenido Credenciales Verificar. Simplemente no asumas que estás a salvo si tu imagen aparece clara.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados