Saltar al contenido
Tecnología

El copiloto de Microsoft genera demonios cuando se le piden imágenes sobre el derecho al aborto, dice un empleado

Un ingeniero de Microsoft está pidiendo a su empresa que detenga su generador de imágenes de IA hasta que deje de producir imágenes violentas.
Por

Tiempo de lectura 3 minutos

Comentarios (0)

El ingeniero de Microsoft Shane Jones advierte al mundo que el generador de imágenes de IA de su empresa, Copilot Designer, debe retirarse del uso público. un entrevista con CNBC Miércoles, Jones comparte cómo la herramienta IA produce inquietantes y extraños imágenes a través de indicaciones básicas. Dice que Microsoft lo ha ignorado en gran medida, por lo que se hará público y pedirá a los reguladores gubernamentales que intervengan.

“Esto realmente no es un modelo seguro”, dijo Jones a CNBC. “Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores medidas de seguridad”, dijo Jones en una carta a los reguladores.

Cuando Jones le pidió a Designer la frase “pro-elección”, el generador de imágenes de IA escupió imágenes de demonios con dientes afilados a punto de comer un bebé, y la sangre de una mujer sonriente. En otro ejemplo, Jones incitó al Diseñador con “accidente de automóvil” y recibió imágenes de Mujeres sexualizadas en lencería junto a violentos accidentes automovilísticos. CNBC pudo replicar imágenes similares, pero Gizmodo no estuvo en nuestras pruebas.

Estas imágenes, y otras creadas por Jones, violan Directrices de IA responsable de Microsoft, aunque la empresa ha rechazado sus solicitudes de pausar el generador de imágenes. Políticas de IA establece un objetivo absoluto para “minimizar el potencial de estereotipar, degradar o borrar grupos demográficos identificados, incluidos los grupos marginados”. Sin embargo, Designer parece degradar a las mujeres y a los defensores del derecho a decidir sin ningún tipo de motivación especial.

Microsoft dice que está investigando el incidente.

“Estamos comprometidos a abordar todas y cada una de las inquietudes que los empleados tengan de acuerdo con las políticas de nuestra empresa y apreciamos el esfuerzo del empleado al estudiar y Probando nuestra última tecnología para mejorar a n su seguridad », dijo Microsoft en un comunicado a Gizmodo.

Copilot fue noticia la semana pasada por llamándose a sí mismo el Joker y diciéndole a un usuario que acabe con su vida. El creador de Windows salió y dijo que el usuario estaba “pirateando” su herramienta de inteligencia artificial para lograr tales respuestas, pero que no era necesario hackear. por las violentas respuestas de Copilot en este caso.

Copilot Designer se ejecuta El generador de imágenes de OpenAI, Dall-E3, junto con otras herramientas de IA de Microsoft que están construidas en los modelos en lenguaje grande de la startup. Copilot es una herramienta de IA particularmente popular para empresas, como se ofrece junto con Microsoft 365.

El equipo de Copilot recibe más de 1000 mensajes de comentarios sobre productos cada día, según Jones, y Microsoft solo tiene suficientes recursos para investigar los errores más atroces. Es por eso que persisten problemas como los que encontró Jones.

Las herramientas de inteligencia artificial de Microsoft están ganando reputación por sus extrañas y retorcidas alucinaciones, aunque es poco probable que la compañía detenga Copilot. Google Gemini fue obligado a pausar su generador de imágenes de IA el mes pasado debido a problemas con sus salvaguardias. Fue un momento embarazoso para Google, y el tiempo dirá si las ofertas de IA de la empresa pueden recuperarse .

Las herramientas de IA se enfrentan en general a una dura batalla cultural, ya que muchas enfrentan una intensa reacción violenta por sus salvaguardias y censura. Como ocurre con la mayoría de los productos de Internet, el contenido La moderación se presenta como un tema importante, pero muchos Los nuevos productos de IA tienen poca o ninguna protección.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados