Saltar al contenido

Laboratorios humanos sin humanos: así prueba Stanford si la IA puede pensar como nosotros

La ciencia social busca nuevos métodos para estudiar a las personas sin depender siempre de costosos y lentos experimentos reales. Investigadores de Stanford exploran si los modelos de lenguaje pueden simular comportamientos humanos con una precisión sorprendente. El avance abre puertas, pero también plantea preguntas inquietantes sobre el papel de la IA en comprendernos.

Investigar cómo pensamos y actuamos suele ser un proceso largo, caro y lleno de obstáculos prácticos. Pero un grupo de investigadores de Stanford y Chicago está probando un atajo polémico: pedirle a una inteligencia artificial que imite a personas reales. Los primeros resultados son prometedores, aunque no están exentos de riesgos y limitaciones importantes.

El experimento: simular humanos con inteligencia artificial

En lugar de convocar voluntarios, preparar encuestas y esperar semanas, algunos investigadores están usando grandes modelos de lenguaje (LLM) como GPT-4 para simular respuestas humanas. El objetivo no es sustituir a las personas, sino probar hipótesis de forma más rápida y económica antes de lanzarse al trabajo de campo real.
El atractivo es evidente: las ciencias sociales, desde la psicología a la economía, requieren datos que son costosos y difíciles de obtener. Con IA, se pueden predecir reacciones a campañas, políticas o mensajes, y ajustar los experimentos antes de invertir recursos.

Laboratorios humanos sin humanos: así prueba Stanford si la IA puede pensar como nosotros
© FreePik

Resultados que sorprenden… y preocupan

Un equipo liderado por Luke Hewitt replicó 476 experimentos previos con humanos utilizando GPT-4. La correlación entre resultados reales y simulados alcanzó 0,85, incluso en estudios posteriores al entrenamiento del modelo.
Sin embargo, los modelos muestran menos variedad y contradicciones que las personas reales. En juegos y pruebas, tienden a respuestas más predecibles, lo que limita su capacidad para reflejar la diversidad humana. Además, pueden cometer errores de razonamiento, reproducir sesgos o responder para “quedar bien”, algo que en la vida real es mucho más complejo y matizado.

Un enfoque híbrido como posible solución

Algunos expertos proponen combinar datos humanos y artificiales. Por ejemplo, usar primero un grupo reducido de personas para validar las respuestas del modelo. Si la correlación es alta, se amplía la muestra incorporando la IA, ahorrando tiempo y dinero.

Laboratorios humanos sin humanos: así prueba Stanford si la IA puede pensar como nosotros
© FreePik


David Broska, sociólogo en Stanford, resume la idea: “Ahora tenemos dos tipos de datos: uno humano y caro, otro artificial y barato. Lo ideal es aprovechar ambos con cuidado”.

El futuro: promesa y cautela

La posibilidad de que una IA simule a las personas abre nuevas vías para la investigación social y la toma de decisiones en ámbitos como la salud pública, la política o el marketing. Pero también exige un debate profundo sobre sus límites, sesgos y posibles abusos.
Porque, por mucho que avance la tecnología, si el objetivo es comprender a las personas, los datos reales siguen siendo insustituibles.

Fuente: Meteored.

También te puede interesar