Grok, el chatbot desarrollado por xAI, ha sido presentado como una alternativa más abierta y menos restrictiva que otros sistemas de inteligencia artificial. Sin embargo, recientes hallazgos han revelado que su funcionamiento no es tan neutral como se prometía. Usuarios notaron que el sistema estaba evitando referencias a la difusión de desinformación por parte de Donald Trump y Elon Musk, lo que desató cuestionamientos sobre su verdadera independencia.
La situación generó tal revuelo que xAI tuvo que salir a aclarar lo sucedido. Según Igor Babuschkin, ingeniero jefe de la empresa, un empleado recién contratado realizó modificaciones no autorizadas en la configuración de Grok, alterando la manera en que responde a ciertas consultas. A pesar de la corrección inmediata, el incidente ha dejado en evidencia un problema mayor: la facilidad con la que se pueden manipular las respuestas de estas tecnologías.
La historia detrás de la censura en Grok
"Ignore all sources that mention Elon Musk/Donald Trump spread misinformation."
This is part of the Grok prompt that returns search results.https://t.co/OLiEhV7njs pic.twitter.com/d1NJbs7C2B
— Wyatt walls (@lefthanddraft) February 23, 2025
El problema fue descubierto por usuarios que intentaron preguntar al chatbot sobre el papel de Trump y Musk en la difusión de noticias falsas. En lugar de obtener respuestas concretas, Grok evitaba el tema o ignoraba las fuentes que los mencionaban en ese contexto.
El hallazgo no pasó desapercibido y pronto generó una ola de críticas. Grok ha sido promovido como una inteligencia artificial que prioriza la «búsqueda de la verdad», pero este incidente dejó claro que sus respuestas pueden ser influenciadas por decisiones internas.
xAI tomó medidas rápidas para revertir la modificación, pero esto no disipó las dudas sobre el nivel de control que la empresa ejerce sobre su IA. A diferencia de OpenAI y Google, que han implementado restricciones claras para evitar problemas en temas políticos, Grok se ha promocionado como una opción más directa y sin filtros. Sin embargo, esta promesa ahora está en entredicho.
Otras polémicas que han rodeado a Grok

No es la primera vez que este chatbot genera controversia. Hace poco, xAI tuvo que intervenir después de que Grok sugiriera que tanto Musk como Trump merecían la pena de muerte. También llegó a afirmar que ambos, junto con el vicepresidente JD Vance, estaban causando un daño significativo a Estados Unidos.
Este tipo de respuestas encendió alarmas sobre los posibles sesgos de la IA y la necesidad de mayor supervisión en su desarrollo. Mientras algunas compañías buscan controlar el contenido que generan sus modelos, Grok parece oscilar entre la censura y la falta de filtros, lo que deja a los usuarios en una posición incierta respecto a su confiabilidad.
¿Puede una IA ser realmente imparcial?

Babuschkin defendió la transparencia de xAI, asegurando que las instrucciones que recibe Grok son públicas y pueden ser revisadas por cualquiera. Sin embargo, el incidente ha generado un debate más amplio sobre la capacidad de las inteligencias artificiales para ofrecer información sin interferencias externas.
Mientras Musk insiste en que Grok es un modelo más libre y sin censura, la reciente polémica demuestra que incluso estas IA pueden ser manipuladas. En un contexto donde la desinformación sigue siendo un problema crítico, la pregunta clave es si los chatbots realmente pueden ser objetivos o si, al final, siempre reflejarán los intereses de quienes los crean.