El caso de estudio de este mes nos ofrece una señal de advertencia para nuestros tiempos. Los médicos detallaron que un hombre tuvo psicosis por intoxicación al seguir consejos dietarios de la IA.
Los médicos de la Universidad de Washington documentaron en Annals of Internal Medicine: Clinical Cases lo que sería un episodio de Black Mirror en la vida real. Aparentemente el hombre se intoxicó por ingerir bromuro durante tres meses por recomendación de ChatGPT. Afortunadamente, con el tratamiento adecuado pudo recuperarse.
Los compuestos de bromuro solían utilizarse a comienzos del siglo 20 para tratar diversos problemas de salud, desde el insomnio a la ansiedad. Eventualmente, sin embargo, se descubrió que el bromuro podía ser tóxico a altas dosis o por consumo prolongado y causar problemas neuropsiquiátricos. Para la década de 1980 el bromuro ya se había eliminado de la mayoría de las drogas y los casos de intoxicación por bromuro se redujeron.
Aun así, el ingrediente sigue estando en algunos medicamentos veterinarios y otros productos de consumo como los suplementos dietarios, por lo que ocasionalmente hay casos de intoxicación por bromuro incluso en nuestros días. Este incidente, sin embargo, sería el primero en que la intoxicación por bromuro tuvo su causa en el uso de la IA.
Lo que sucedió
Según el informe el hombre fue a la sala de emergencias y le dijo al personal de salud que creía que su vecino lo estaba envenenando. Aunque sus signos vitales estaban bien, el hombre comenzó a evidenciar agitación y paranoia, y se negó a beber el agua que le daban, aunque tenía sed. También tuvo alucinaciones visuales y auditivas, y poco después tuvo un brote psicótico. En medio de su psicosis intentó escapar, por lo que los médicos lo retuvieron utilizando el recurso de “hospitalización psiquiátrica involuntaria por grave discapacidad”.
Le suministraron líquido intravenoso y n antipsicótico, y empezó a estabilizarse. Desde el principio sospecharon que se trataba de intoxicación por bromuro y cuando pudo hablar de manera coherente se enteraron de cómo había sido la ingesta.
El hombre les dijo a los médicos que tres meses antes había empezado a tomar bromuro de sodio intencionalmente. Había leído que el uso de sal en exceso (cloruro de sodio) tenía efectos negativos en la salud, y cuando buscó información encontró consejos sobre cómo reducir la ingesta de sodio.
“Inspirados por su historia como estudiante de nutrición”, escriben los médicos, el hombre decidió tratar de eliminar el cloruro de su dieta. Consultó con ChatGPT y aparentemente el consejo fue que podía reemplazar el cloruro por bromuro. Siguiendo lo que le indicó la IA empezó a consumir bromuro de sodio que compró por Internet.
Debido a los tiempos transcurridos, es probable que el hombre utilizara ChatGPT 3.5 o 4.0. Loso médicos no tenían acceso a los chats del paciente por lo que no sabremos exactamente cómo se dieron sus consultas. Pero cuando los médicos le preguntaron a ChatGPT 3.5 con qué se podía reemplazar el cloruro la respuesta incluía el uso de bromuro.
Es posible y probable que la IA se refiriera al uso de bromuro que no tenía que ver con lo dietario, sino con elementos de limpieza. El ChatGPT que usaron los médicos destacaba de manera visible que el contexto del reemplazo tenía importancia, según detallaron. Pero la IA no brindaba advertencias sobre los peligros de consumir bromuro ni preguntaba por qué la persona se interesaba en conocer cómo reemplazar el cloruro.
En cuanto al hombre, gradualmente se recuperó y pudo luego dejar de tomar la medicación antipsicótica. A las tres semanas salió del hospital, y en la consulta posterior seguía estable.
Los médicos escribieron en su trabajo que, aunque las herramientas como ChatGPT pueden “brindar un puente entre los científicos y la población que no es académica, la IA también tiene riesgos porque promulga información sin contexto”. Con admirable control de sus opiniones personales añadieron que un experto médico humano probablemente no le habría recomendado a quien busca reemplazar la sal que ingiriera bromuro.
Sinceramente, no sé si hoy un ser humano daría ese consejo. Por eso es mejor tener un amigo con quien conversar nuestras ideas, como parte esencial de la vida, no importa cuál sea la última versión de ChatGPT que tengas a mano.