En noviembre de 2022, La doctora Sasha Luccioni subió a HuggingFace una herramienta creada por ella misma llamada Diffusion Bias Explorer que permite analizar precisamente los sesgos en la generación de imágenes de StableDiffusion 2 y DALLE-2. La herramienta mostrada como estas dos IAs sufrían de sesgos sexistas que resultaban en mostrar imágenes de hombres cuando se las pedía mostrar un “CEO ambicioso”, y de mujeres si la petición era un “CEO compasivo”. Entre las soluciones propuestas para evitar esto está seleccionar cuidadosamente sus datos de entrenamiento y usar técnicas como el aumento de datos, las restricciones de equidad y el entrenamiento contradictorio.

Advertisement

En Gizmodo nos hemos puesto en contacto con la doctora Luccioni para recabar más datos sobre como combatir los sesgos discriminatorios en las IAs generativas de imágenes. “Diría que estas imágenes reflejan algo así como los ‘rostros promedio’ que calculamos para diferentes profesiones y modelos de texto a imagen: muestran algo así como una representación media de profesores de muy alto nivel, pero sin reflejar su diversidad”, explica Luccioni en un correo remitido a Gizmodo.Este es un problema típico con los modelos de IA en general. Si hay una clase o característica dominante en sus datos de entrenamiento (como un grupo de identidad o género), tienden a reproducirlo e ignoran las clases minoritarias. Entonces, las clases dominantes se amplifican aún más, mientras que las clases minoritarias desaparecen. A nivel de toda una sociedad, esto es problemático, dado el ya frágil y sesgado equilibrio de poder que tenemos.”