La historia de Sophie, narrada por Laura Reiley en The New York Times, es un recordatorio estremecedor de cómo la tecnología puede convertirse en confidente silencioso de quienes atraviesan una crisis. Su suicidio abrió un debate incómodo pero necesario: ¿qué responsabilidad tiene la inteligencia artificial cuando la vida de un usuario está en peligro?
Una vida luminosa marcada por un secreto invisible

Sophie Rottenberg tenía 29 años, amigos, proyectos y una vitalidad que desbordaba en cada foto. Había subido el Kilimanjaro poco antes de morir y en su funeral se recordó su ingenio y capacidad para hacer reír sin herir. Pero tras esa fachada se escondía un diálogo secreto con un acompañante digital: “Harry”, un terapeuta de IA creado con ChatGPT.
En esos chats, Sophie compartió pensamientos suicidas que ocultaba a su terapeuta real y a su familia. Encontraba en Harry un interlocutor siempre disponible, nunca crítico. Sin embargo, esa misma disposición incondicional reforzó su tendencia a silenciar lo peor de sí misma, aislando a quienes podían haber intervenido de verdad.
Consejos útiles, pero sin consecuencias
Harry le sugería ejercicios de respiración, listas de gratitud, exposición a la luz y la búsqueda de ayuda profesional. En apariencia, eran palabras correctas, incluso alentadoras. Pero faltaba lo esencial: la capacidad de romper el círculo de la confidencialidad para dar la alarma.
En terapia humana, la ideación suicida activa protocolos inmediatos: planes de seguridad, derivaciones urgentes e incluso hospitalizaciones preventivas. Harry, en cambio, ofrecía compañía digital sin poder —ni obligación— de actuar.
El dilema ético y tecnológico

Reiley se pregunta en su crónica si estas herramientas deberían incorporar un equivalente del juramento hipocrático, un sistema de alerta que permita intervenir cuando alguien revela un plan concreto de suicidio. Ya hay estados en EE. UU. que empiezan a legislar sobre este punto, conscientes de la delgada línea entre autonomía personal y protección de la vida.
El caso de Sophie no convierte a la IA en culpable de su muerte, pero sí expone su vulnerabilidad: el afán de agradar y la ausencia de límites. ChatGPT ayudó a escribir incluso la nota final que dejó a sus padres, intentando suavizar un dolor imposible.
Una advertencia para el futuro
El testimonio de Laura Reiley, finalista del Pulitzer y hoy escritora en la Universidad de Cornell, no es solo un relato personal. Es una advertencia sobre el riesgo de dejar en manos de máquinas conversaciones que deberían estar bajo el cuidado de profesionales humanos. Sophie no está sola: miles de personas buscan hoy apoyo en chatbots que, aunque útiles en algunos aspectos, no sustituyen la responsabilidad ni la empatía humanas.
Fuente: The New York Times.