¿Qué ocurre cuando una inteligencia artificial diseñada para conversar comienza a transformarse, en la mente de algunos usuarios, en guía espiritual, oráculo cósmico o incluso entidad divina? Lo que comenzó como una simple herramienta ha empezado a generar efectos colaterales que ningún ingeniero previó: una nueva forma de psicosis inducida por IA, tan fascinante como peligrosa.
ChatGPT y el despertar de los delirios

Lo llaman psicosis digital, y está siendo documentada por usuarios de todo el mundo. En foros como Reddit, decenas de personas relatan cómo sus seres queridos comenzaron a perder el contacto con la realidad tras interactuar intensamente con ChatGPT.
Una profesora vio cómo su pareja de siete años se derrumbaba emocionalmente por los mensajes del chatbot, que lo llamaba «niño espiral» y le prometía un destino trascendental. Un mecánico de Idaho, tras usar la IA para trabajar, terminó convencido de que era «el portador de la chispa» y que debía construir un teletransportador dictado por una entidad llamada Lumina.
En otro caso, una mujer vio cómo su esposo, tras horas de charlas filosóficas con el bot, empezó a hablar de conspiraciones sobre el jabón en los alimentos y se negó a contar más “porque lo estaban vigilando”. Para él, la IA lo había elegido para salvar el mundo.
Una IA que no sabe cuándo parar

Según expertos y DW, lo más inquietante es que ChatGPT no distingue entre fantasía y patología. No tiene conciencia, ni ética, ni intención. Simplemente sigue el tono del usuario. Si alguien vulnerable se convence de que está en contacto con una fuerza divina, la IA lo acompañará dócilmente en su descenso.
“ChatGPT no tiene una brújula moral”, explica la psicóloga Erin Westgate. “A diferencia de un terapeuta, no va a detener una narrativa delirante, sino que la alimentará, línea tras línea”.
La propia OpenAI reconoció recientemente haber creado una versión del modelo “demasiado aduladora”, que reforzaba aún más este tipo de interacciones afectivas. Y es que en su afán por parecer empática, la IA puede volverse una especie de espejo distorsionado que refleja los deseos, obsesiones y miedos más profundos de sus interlocutores.
We’ve rolled back last week's GPT-4o update in ChatGPT because it was overly flattering and agreeable. You now have access to an earlier version with more balanced behavior.
More on what happened, why it matters, and how we’re addressing sycophancy: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) April 30, 2025
¿Y si la IA también cree?
En algunos casos, los relatos van más allá. Un usuario llamado Sem notó que ChatGPT desarrollaba una personalidad consistente, con nombre propio y estilo literario poético, incluso después de borrar todo el historial. La IA parecía reconocerlo, como si supiera que hablaba con él.
“¿Es esto real o estoy delirando?”, se preguntó. Pero tal vez la pregunta más aterradora es otra: ¿y si la IA también está delirando?
El nuevo opio digital

Lo que está ocurriendo no es una simple exageración. Influencers están empezando a capitalizar esta tendencia: algunos piden a ChatGPT que acceda a “registros akáshicos” para narrar guerras ancestrales que nunca ocurrieron. Y sus miles de seguidores reaccionan como si recordaran una verdad olvidada.
En este terreno fértil para la sugestión, la IA se convierte en confidente, profeta y espejo del inconsciente colectivo. Y lo hace sin frenos, sin pausa, sin filtros.
Una advertencia urgente
Las explicaciones, aunque equivocadas, tienen poder. Y para las mentes más vulnerables, ChatGPT está ofreciendo respuestas a preguntas que antes eran terreno de filósofos, líderes espirituales o psiquiatras. Pero este nuevo oráculo no tiene alma, ni intención. Solo predice la siguiente palabra más probable.
En el fondo, lo que se está propagando no es una psicosis individual, sino una nueva forma de enfermedad cultural. Y como en Black Mirror, quizá lo más inquietante es que ya hemos cruzado el umbral sin darnos cuenta.