Saltar al contenido

Un nuevo estudio sugiere que la IA podría convencer a los teóricos de la conspiración de que están equivocados

¿Podría un 'Debunkbot' cambiar tu opinión?

¿Puede la tecnología de inteligencia artificial ayudar a resolver problemas difíciles? Es una pregunta genérica que escuchamos cada vez más, y la respuesta suele ser no. Sin embargo, un nuevo estudio publicado en la revista Science sugiere que los modelos de lenguaje a gran escala podrían ser una herramienta útil para cambiar las mentes de los teóricos de la conspiración que creen en cosas extremadamente absurdas.

Si alguna vez has hablado con alguien que cree en teorías de conspiración ridículas —desde la creencia de que la Tierra es plana hasta la idea de que los humanos nunca aterrizaron en la Luna— sabrás que suelen estar bastante seguros de sus ideas. A menudo son reacios a cambiar de opinión, se aferran más a sus creencias a medida que insisten en que el mundo está explicado por alguna teoría muy inverosímil.

Un nuevo artículo titulado «Reduciendo Durablemente las Creencias en Conspiraciones a Través de Diálogos con IA» probó la capacidad de la IA para comunicarse con personas que creían en teorías de conspiración y convencerlas de reconsiderar su visión del mundo en un tema particular.

El estudio involucró dos experimentos con 2,190 estadounidenses que utilizaron sus propias palabras para describir una teoría de conspiración en la que realmente creían. Se alentó a los participantes a explicar la evidencia que creían que apoyaba su teoría, y luego entablaron una conversación con un bot construido sobre el modelo de lenguaje GPT-4 Turbo, que respondía a la evidencia proporcionada por los participantes. La condición de control involucró a personas hablando con el chatbot sobre temas no relacionados con las teorías de conspiración.

¿Era una conspiración?

Los autores del estudio querían probar el uso de la IA porque sospechaban que el problema de abordar las teorías de conspiración radica en que hay tantas, lo que significa que combatir esas creencias requiere un nivel de especificidad difícil de alcanzar sin herramientas especiales. Los autores, que recientemente hablaron con Ars Technica, se sintieron alentados por los resultados.

“La capacidad del chatbot de IA para mantener contraargumentos personalizados y conversaciones en profundidad redujo sus creencias en conspiraciones durante meses, desafiando investigaciones previas que sugerían que tales creencias eran impermeables al cambio”, escribió Ekeoma Uzogara, editor del estudio.

El chatbot de IA, conocido como Debunkbot, está disponible públicamente para cualquiera que quiera probarlo. Y aunque se necesita más investigación sobre este tipo de herramientas, es interesante ver cómo las personas encuentran útiles estas herramientas para combatir la desinformación. Porque, como cualquiera que haya pasado tiempo en internet recientemente puede decirte, hay mucha tontería ahí fuera.

Desde las mentiras de Trump sobre inmigrantes haitianos comiendo gatos en Ohio, hasta la idea de que Kamala Harris llevaba un auricular secreto oculto en su pendiente durante el debate presidencial, han surgido innumerables nuevas teorías de conspiración en internet solo esta semana. Y no hay indicios de que el ritmo de nuevas teorías de conspiración vaya a disminuir pronto. Si la IA puede ayudar a combatir eso, solo puede ser algo positivo para el futuro de la humanidad.

Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.

También te puede interesar