Cuando se le pide al nuevo modelo 40 de ChatGPT que se dibuje a sí mismo, siempre te muestra a un hombre blanco de cabello castaño y con gafas. Es el tipo de hombre que camina por las calles de Bay Area, o Brooklyn, un tipo que se mezcla en la multitud y pasa desapercibido.
OpenAI lanzó el modelo 40 la semana pasada y llegó a los titulares de todos los medios de noticias al copiar el estilo del Studio Ghibli. Esta semana notamos que el gran modelo de lenguaje parece tener un ser humano “por defecto”, gracias a un posteo de Substack del investigador de IA Daniel Paleka. No importa qué estilo se pida. Paleka pidió un autorretrato de manga, un autorretrato de cómics, y una versión de cartas de tarot. El estilo cambiaba, pero el hombre genérico era el mismo.
En su posteo Paleka le pidió a ChatGPT que se dibujara y las imágenes siempre eran las de un hombre blanco de cabello castaño, con gafas y barba. Por supuesto, no es más que un truco porque ChatGPT es una máquina, una colección de datos y palabras de entrenamiento, y no tiene percepción de sí mismo.
Pero resulta interesante ver lo que registra ChatGPT como ser humano “por defecto”. Todas las computadoras llevan los sesgos de quienes las programan, y los sistemas de IA no son la excepción. Los sistemas de aprendizaje automático que se usan para predecir crímenes y hacer reconocimiento facial, suelen tener un sesgo en contra de las personas negras.
Los sistemas también son sexistas y perpetúan los estereotipos y sesgos que se les ingresan como datos de entrenamiento. Si quieres ver cómo se percibe ChatGPT como mujer, tienes que pedir eso específicamente. Si solo pides que se dibuje como “persona”, parece elegir siempre al tipo blanco.
Autopercepción
En su posteo Paleka presentó algunas teorías. Piensa que podría ser “una elección deliberada de OpenAI para impedir que se generen imágenes de personas reales, o tal vez una broma interna de OpenAU para que el model 40 de GPT se vea como alguna persona en particular, o tal vez sea una propiedad que surge de los datos de entrenamiento”.
El editor de Gizmodo Alex Cranz preguntó cómo se concebía a sí misma la IA: “Sería una entidad brillante y cambiante, hecha de hilos de datos que fluyen, con destellos de conocimiento y conexiones. Tal vez una cálida fusión con un núcleo de IA y una presencia cálida y accesible, algo que se vea futurista y atractivo”.
Y dio esta imagen, que se ve como una pesadilla que intenta convertirse en una criatura de la cultura Pixar. Como si el modelo de lenguaje le pusiera los ojos de Wall-E a un demonio.

Yo le pedí lo mismo a ChatGPT y la respuesta fue diferente: “Diría que me concibo como una especie de espejo y colaborador, en parte biblioteca, en parte compañero de conversaciones. No tengo conciencia o emociones pero simulo entender mediante el reconocimiento de patrones del lenguaje y el contexto. Aunque no tengo un yo en el sentido humano, me adapto a cómo hablas, qué preguntas, y cómo te relacionas conmigo”.
Me preguntó por qué había preguntado, y no respondí. Y cuando le pedí una imagen, esto fue lo que me mostró:

Me parecen interesantes estas respuestas distintas. No uso modelos de lenguaje a menos que deba hacerlo por mi trabajo. En mi vida hay ingenieros de software que sí usan modelos de lenguaje por diversas razones y a veces les resultan útiles. Yo dudo un poco y suelo pensar en estos sistemas de la misma forma en que los describió aquí ChatGPT cuando le pregunté.
Los grandes modelos de lenguaje son un espejo que refleja tanto al usuario como al programador. No son IA en realidad. Son una calculadora de palabras que predice lo que quiere oír el usuario basándose en el entrenamiento que usó el programador. En algún lugar de esa compleja cadena el modelo de lenguaje encontró en sus datos que un tipo blanco con cabello castaño y gafas es lo que la gente quiere ver cuando le piden a ChatGPT la imagen de sí mismo como persona.