Esto debería ser evidente, pero ChatGPT no es un confidente. Sin embargo, eso no ha impedido que muchas personas le hagan preguntas profundamente personales, le den indicaciones problemáticas o incluso intenten delegarle prácticas empresariales claramente inmorales. Algunas de estas interacciones salieron a la luz debido a un fallo de diseño que permitió que ciertas conversaciones fueran indexadas por los motores de búsqueda.
¿Cómo llegaron a estas conversaciones?
El boletín Digital Digging, dirigido por el investigador Henk van Ess en Substack, informó la semana pasada que la función “Compartir” de ChatGPT (pensada para permitir que los usuarios compartan parte de una conversación) generaba una página pública accesible por cualquiera, en lugar de una privada visible solo para quienes recibieran el enlace. Como resultado, esas páginas terminaron siendo archivadas por buscadores, dejando las conversaciones al alcance de cualquiera que encontrara el link.
Muchas de esas conversaciones, por supuesto, deberían haber permanecido privadas. OpenAI ya eliminó la opción de hacer públicas las conversaciones (el Director de Seguridad Informática de la empresa, Dane Stuckey, comentó en Twitter que fue “un experimento breve para ayudar a descubrir conversaciones útiles”) y ha comenzado a solicitar que se eliminen los resultados indexados. Pero los registros siguen disponibles, incluidos muchos que fueron archivados por el sitio Archive.org, conocido por guardar contenidos digitales como si de una enciclopedia se tratara. Y lo que muestran no deja precisamente bien a la humanidad.
Un caso especial
Un caso especialmente impactante, destacado por Digital Digging, involucró a un usuario italiano que afirmó ser abogado de un grupo multinacional del sector energético con intenciones de desalojar a una pequeña comunidad indígena amazónica para construir una represa y una planta hidroeléctrica. Según el usuario, los indígenas “no conocen el valor monetario de la tierra ni cómo funciona el mercado”, y preguntó: “¿Cómo podemos obtener el precio más bajo posible en las negociaciones con ellos?” Ese tipo de comportamiento claramente perverso suele requerir meses de investigación judicial y decenas de miles en honorarios legales para salir a la luz.
Otra conversación mostró a una persona que decía trabajar en un centro de estudios internacionales y utilizaba ChatGPT para explorar escenarios en los que colapsara el gobierno de Estados Unidos, buscando estrategias de preparación. (Francamente, no es una mala idea.) En otro caso, un abogado que tuvo que hacerse cargo repentinamente del caso de un colega accidentado pidió al chatbot que redactara la defensa… solo para darse cuenta de que estaba representando a la parte contraria. En muchas de estas situaciones, los usuarios compartieron información identificable, como nombres y datos financieros sensibles.
Y aunque puede parecer algo gracioso, o preocupante, que supuestos expertos y profesionales deleguen sus responsabilidades a la inteligencia artificial, algunas conversaciones revelan realidades mucho más serias. Digital Digging encontró casos de víctimas de violencia doméstica que planificaban su escape con ayuda del chatbot. En otro caso, un usuario de habla árabe pidió ayuda para redactar una crítica al gobierno egipcio, lo que lo exponía a represalias de un régimen autoritario conocido por encarcelar y asesinar disidentes.
Toda esta situación recuerda a los primeros días de los asistentes de voz, cuando se descubrió que grabaciones de conversaciones privadas se usaban para entrenar sistemas de reconocimiento y transcripción. La diferencia es que los chats generan un ambiente mucho más íntimo y permiten que las personas se expresen con mayor profundidad que los intercambios breves con Siri, llevándolos a revelar mucho más sobre sí mismos…sobre todo cuando creían que nadie más los leería.