Saltar al contenido
Tecnología

¿Grok es realmente imparcial? La polémica sobre su censura a menciones de Trump y Musk

El chatbot de inteligencia artificial creado por la empresa de Elon Musk ha sido señalado por evitar información comprometedora sobre su fundador y el expresidente de EE.UU. Una reciente controversia ha puesto en duda su supuesta transparencia y ha desatado un debate sobre el control y los sesgos en la IA.
Por

Tiempo de lectura 3 minutos

Comentarios (0)

Grok, el chatbot desarrollado por xAI, ha sido presentado como una alternativa más abierta y menos restrictiva que otros sistemas de inteligencia artificial. Sin embargo, recientes hallazgos han revelado que su funcionamiento no es tan neutral como se prometía. Usuarios notaron que el sistema estaba evitando referencias a la difusión de desinformación por parte de Donald Trump y Elon Musk, lo que desató cuestionamientos sobre su verdadera independencia.

La situación generó tal revuelo que xAI tuvo que salir a aclarar lo sucedido. Según Igor Babuschkin, ingeniero jefe de la empresa, un empleado recién contratado realizó modificaciones no autorizadas en la configuración de Grok, alterando la manera en que responde a ciertas consultas. A pesar de la corrección inmediata, el incidente ha dejado en evidencia un problema mayor: la facilidad con la que se pueden manipular las respuestas de estas tecnologías.

La historia detrás de la censura en Grok

El problema fue descubierto por usuarios que intentaron preguntar al chatbot sobre el papel de Trump y Musk en la difusión de noticias falsas. En lugar de obtener respuestas concretas, Grok evitaba el tema o ignoraba las fuentes que los mencionaban en ese contexto.

El hallazgo no pasó desapercibido y pronto generó una ola de críticas. Grok ha sido promovido como una inteligencia artificial que prioriza la «búsqueda de la verdad», pero este incidente dejó claro que sus respuestas pueden ser influenciadas por decisiones internas.

xAI tomó medidas rápidas para revertir la modificación, pero esto no disipó las dudas sobre el nivel de control que la empresa ejerce sobre su IA. A diferencia de OpenAI y Google, que han implementado restricciones claras para evitar problemas en temas políticos, Grok se ha promocionado como una opción más directa y sin filtros. Sin embargo, esta promesa ahora está en entredicho.

Otras polémicas que han rodeado a Grok

Grok, la IA de Elon Musk, ignoró menciones sobre desinformación de Trump y su creador
© Grok.

No es la primera vez que este chatbot genera controversia. Hace poco, xAI tuvo que intervenir después de que Grok sugiriera que tanto Musk como Trump merecían la pena de muerte. También llegó a afirmar que ambos, junto con el vicepresidente JD Vance, estaban causando un daño significativo a Estados Unidos.

Este tipo de respuestas encendió alarmas sobre los posibles sesgos de la IA y la necesidad de mayor supervisión en su desarrollo. Mientras algunas compañías buscan controlar el contenido que generan sus modelos, Grok parece oscilar entre la censura y la falta de filtros, lo que deja a los usuarios en una posición incierta respecto a su confiabilidad.

¿Puede una IA ser realmente imparcial?

Grok, la IA de Elon Musk, ignoró menciones sobre desinformación de Trump y su creador
© Grok.

Babuschkin defendió la transparencia de xAI, asegurando que las instrucciones que recibe Grok son públicas y pueden ser revisadas por cualquiera. Sin embargo, el incidente ha generado un debate más amplio sobre la capacidad de las inteligencias artificiales para ofrecer información sin interferencias externas.

Mientras Musk insiste en que Grok es un modelo más libre y sin censura, la reciente polémica demuestra que incluso estas IA pueden ser manipuladas. En un contexto donde la desinformación sigue siendo un problema crítico, la pregunta clave es si los chatbots realmente pueden ser objetivos o si, al final, siempre reflejarán los intereses de quienes los crean.

Compartir esta historia

Artículos relacionados