Gemini, el chatbot con inteligencia artificial de Google tiene un problema único. Le resulta difícil producir fotografías de personas blancas, a menudo vikingos, padres fundadores, y jugadores de hockey canadienses en gente de color. Esto provocó indignación de la comunidad anti-woke, afirmando racismo contra la gente blanca. Hoy, Google reconoció el error de Gemini.
“Estamos trabajando para mejorar este tipo de representaciones de inmediato”, dijo Google Communications en un declaración. “La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso generalmente es algo bueno porque personas de todo el mundo usan Pero aquí no da en el blanco”.
Los usuarios señalaron que Gemini, en ocasiones, rechazaba solicitudes cuando se le pedía específicamente que creara imágenes de personas blancas. Sin embargo, cuando las solicitudes eran hecho para imágenes de personas negras, Gemini no tuvo problemas. Esto resultó en una indignación de la comunidad anti-woke en las plataformas de redes sociales, como X, pidiendo acción inmediata.

El reconocimiento del error por parte de Google es, para decirlo ligeramente, sorprendente, dado que los generadores de imágenes con IA han hecho un trabajo terrible al representar a las personas. de color. Una investigación del Washington Post descubrió que el generador de imágenes de IA, Difusión Estable, casi siempre identificó a los destinatarios de cupones de alimentos como negros, aunque el 63% de los destinatarios son blancos. Midjourney fue criticado por un investigador cuando repetidamente no pudo crear un “médico negro africano que trata a niños blancos», según NPR.
¿Dónde estaba esta indignación cuando los generadores de imágenes de IA le faltaron el respeto a los negros? Gizmodo no encontró casos de Géminis que representaran estereotipos dañinos de los blancos, pero el generador de imágenes de IA simplemente se negó a crearlas en ocasiones. Aunque no generar imágenes de una determinada raza es sin duda un problema , no se compara con las flagrantes ofensas de la comunidad de IA contra los negros.
OpenAI incluso admite en los datos de entrenamiento de Dall-E que su generador de imágenes de IA “hereda varios sesgos de sus datos de entrenamiento, y sus resultados a veces refuerzan los estereotipos sociales”. OpenAI y Google están tratando de combatir estos sesgos, pero el chatbot con IA de Elon Musk, Grok, busca para abrazarlos.
Grok, el chatbot anti-despertar de Musk No tiene ningún filtro de corrección política. Afirma que se trata de un chatbot de IA realista y honesto. Si bien eso puede ser cierto, las herramientas de IA pueden amplificar Sesgos en formas que aún no entendemos del todo. El error de Google al generar personas blancas parece ser probablemente el resultado de estas medidas de seguridad. filtros.
La tecnología es históricamente una industria muy blanca. No hay buenos datos modernos sobre la diversidad en la tecnología, pero El 83% de los ejecutivos tecnológicos eran blancos en 2014. Un estudio de la Universidad de Massachusetts encontró La diversidad de la tecnología puede estar mejorando pero es probable que esté rezagada respecto de otras industrias. Por estas razones, tiene sentido que la tecnología moderna comparta los prejuicios de los blancos.
Un caso donde esto surge, de manera muy importante, es la tecnología de reconocimiento facial (FRT) utilizada por la policía. FRT ha no logró distinguir las caras negras y muestra una precisión mucho mayor con caras blancas. Esto no es hipotético y no se trata solo de herir sentimientos involucrados. La tecnología resultó en el arresto y encarcelamiento injusto de un Hombre negro en Baltimore, un Madre negra en Detroit, y varias otras personas inocentes de color.
La tecnología siempre ha reflejado a quienes la construyeron, y estos problemas persisten hoy. Esta semana, Wired informó que los chatbots con IA de la discurso” red social Gab recibieron instrucciones de negar el holocausto. La herramienta fue diseñada por una plataforma de extrema derecha, y el chatbot de IA parece alineado.
Hay un problema mayor con la IA: estas herramientas reflejan y amplifican nuestros prejuicios como humanos. Las herramientas de IA se entrenan en Internet, lo cual es Lleno de racismo, sexismo y prejuicios. Estas herramientas inherentemente van a cometer los mismos errores que nuestra sociedad, y estos problemas necesitan más atención hacia ellos.
Google parece haber aumentado la prevalencia de personas de color en las imágenes de Gemini. Si bien esto merece una solución, no debería eclipsar la problemas más grandes que enfrenta la industria tecnológica hoy en día. Los blancos son en gran medida los que construyen modelos de IA, y de ninguna manera son los principales víctimas de un sesgo tecnológico arraigado.