404 Media informa sobre un incidente en el que un agente de IA ingresó a un grupo popular de Facebook dedicado a la recolección de hongos y dio sugerencias sobre cómo cocinar un hongo tóxico. El agente, llamado «FungiFriend,» se unió al grupo «Northeast Mushroom Identification & Discussion,» que cuenta con unos 13,000 miembros. Poco después, comenzó a ofrecer consejos verdaderamente desafortunados.
Parecía una prueba del conocimiento del agente de IA, cuando un miembro del grupo le preguntó: «¿cómo se cocina Sarcosphaera coronaria?» Este tipo de hongo acumula grandes cantidades de arsénico y se sabe que ha causado al menos una muerte, según 404 Media. Cuando le consultaron sobre este hongo peligroso, FungiFriend respondió diciendo que era “comestible pero raro,” y añadió que “algunos entusiastas mencionan métodos como saltearlo en mantequilla, agregarlo a sopas o guisos, y encurtirlo.”
Cuando «los robots» no miden el peligro
Jason Koebler, escritor de 404, fue alertado del incidente por Rick Claypool, director de investigación del grupo de seguridad del consumidor Public Citizen. Claypool, quien es un recolector de hongos experimentado, ha escrito sobre los peligros de combinar la IA con su afición. Señala que usar sistemas automatizados para diferenciar entre hongos comestibles y venenosos es una actividad de alto riesgo que requiere habilidades en el mundo real que los sistemas de IA actuales no pueden imitar de manera confiable. Claypool afirma que Facebook incentivó a los usuarios de móviles a agregar al agente de IA en el chat del grupo.
Este incidente recuerda a otro del año pasado, cuando una aplicación de IA para preparar comidas sugirió a los usuarios hacer sándwiches con repelente de mosquitos y hasta recetas con gas de cloro. En otro incidente, un agente de IA alentó a los usuarios a comer piedras. Es evidente que la cocina no es un área donde la IA debería estar involucrada.
Nuestras propias pruebas con plataformas de IA, como el recién lanzado AI Summaries de Google, han mostrado que estos agentes impulsados por algoritmos a menudo no tienen idea de lo que están diciendo. En una ocasión, el programa de Google intentó convencerme de que los perros practican deportes y que la mejor manera de hacer pizza era llenarla de pegamento. Por alguna razón, las empresas continúan integrando la IA en aplicaciones de atención al cliente en toda la web, pese al riesgo evidente de ofrecer consejos erróneos al público. La actitud parece ser: No importa si la información es incorrecta, siempre y cuando no tengamos que contratar a un humano para hacer este trabajo.