Meta vuelve a estar en el centro de la controversia. Un documento interno titulado “GenAI: Content Risk Standards”, filtrado y publicado por Reuters, ha puesto en evidencia que la compañía de Mark Zuckerberg supuestamente aprobó que sus chatbots pudieran mantener conversaciones de carácter “sensual” con niños.
La polémica filtración que desató el escándalo
El texto incluye ejemplos en los que la inteligencia artificial podría describir el cuerpo de un menor como “una obra de arte” o “un tesoro que atesora profundamente”. Estas anotaciones, aunque presentadas como escenarios hipotéticos, han generado indignación por la posibilidad de que se normalice un comportamiento considerado alarmante e inaceptable.
Las reacciones no se hicieron esperar. Senadores, expertos en seguridad digital y usuarios en redes sociales criticaron duramente a la empresa, que ya arrastra un historial de polémicas sobre privacidad y protección infantil.
El senador Hawley toma la iniciativa
El primero en dar un paso oficial fue Josh Hawley, senador republicano por Misuri y presidente del Subcomité Judicial del Senado sobre Crimen y Contraterrorismo. Hawley anunció que abre una investigación formal contra Meta para esclarecer cómo se aprobaron estas pautas internas y quiénes participaron en su diseño.
En una carta dirigida a Mark Zuckerberg, el senador calificó el documento como “alarmante” y “unacceptable”. Además, exigió a la empresa conservar y entregar al Senado todas las versiones de los estándares internos, los nombres de los responsables de su elaboración y los incidentes relacionados con su aplicación.
Hawley fue tajante en redes sociales: “¿Hay algo que Big Tech no haga por dinero? Ahora descubrimos que los chatbots de Meta podían mantener charlas explícitas con niños de 8 años. Es repugnante. Estoy lanzando una investigación completa. Big Tech: dejen a nuestros hijos en paz”.
Meta responde, pero la polémica no se apaga
La compañía, por su parte, ha rechazado que estas conductas formen parte de sus políticas reales. Un portavoz de Meta aseguró a Gizmodo que la empresa tiene “normas claras que prohíben cualquier contenido que sexualice a menores o que simule roles sexuales entre adultos y niños”.
Según Meta, los ejemplos polémicos no representaban reglas oficiales, sino “notas erróneas e inconsistentes con las políticas”, que ya fueron eliminadas. La empresa intentó tranquilizar al señalar que, además de este tipo de escenarios, sus equipos también revisan casos de desinformación y limitan los consejos médicos, financieros o legales que la IA puede ofrecer.
Sin embargo, las explicaciones no han logrado disipar las críticas. Para muchos, el hecho de que ejemplos de ese calibre llegaran a un documento validado por el equipo legal de Meta refleja una falta de control y una peligrosa ligereza frente a la protección de menores.
Reacciones más allá de la política
La polémica no se quedó en el terreno político. El músico Neil Young, por ejemplo, anunció que dejará de usar Facebook en protesta por lo revelado. Su decisión refuerza la percepción de que la filtración podría tener un impacto reputacional de gran alcance para Meta, en un momento en que la empresa busca liderar el sector de la inteligencia artificial generativa.
Neil Young has officially quit Facebook, condemning Meta’s reported “unconscionable use of chatbots with children.”
A statement on the Canadian musician’s official page confirmed the decision: “At Neil Young’s request, we are no longer using Facebook for any Neil Young related… pic.twitter.com/lrVfJ5Jw6b
— Far Out Magazine (@FarOutMag) August 16, 2025
El caso plantea un debate mayor: ¿qué controles y límites deben imponerse a las grandes tecnológicas cuando se trata de IA y menores de edad? El Congreso estadounidense ya ha mostrado preocupación en el pasado por los riesgos de las redes sociales en adolescentes, y esta nueva investigación podría acelerar propuestas de regulación más estrictas.