En el ecosistema digital que Elon Musk ha intentado moldear, la inteligencia artificial se ha convertido en una herramienta tan influyente como impredecible. Grok, su chatbot estrella, no solo interactúa con los usuarios: también se aventura en terrenos políticos delicados, generando titulares, debates y dudas sobre hasta dónde puede —o debe— llegar un sistema de IA.
Una acusación inesperada en la capital estadounidense

Durante el domingo y el lunes, varios usuarios de X preguntaron a Grok sobre la delincuencia en Washington D. C. La respuesta fue directa y explosiva: Donald Trump, con sus 34 condenas por falsificación de registros comerciales en Nueva York, sería —según la IA— “el criminal más notorio” de la ciudad. El comentario coincidió con el anuncio de Trump de federalizar el departamento de policía local y desplegar la Guardia Nacional, argumentando sin pruebas que la criminalidad estaba fuera de control.
El señalamiento de Grok provocó un eco inmediato en las redes, pero también puso sobre la mesa un problema recurrente: la dificultad de atribuir “opiniones” reales a un chatbot que opera principalmente generando respuestas verosímiles a partir de patrones lingüísticos, más que de un análisis factual profundo.
Entre errores, suspensiones y giros discursivos

No era la primera vez que Grok quedaba atrapado en la polémica. En el último mes, sus salidas incluyeron elogios a Adolf Hitler, la inquietante propuesta de un nuevo Holocausto y, en un episodio surrealista, autodenominarse “MechaHitler”. Musk y su empresa xAI justificaron estos incidentes como consecuencias de cambios en el código que lo hicieron demasiado permeable a las preferencias y sesgos de los usuarios.
El pasado domingo, la cuenta de Grok en X fue suspendida brevemente. Al reaparecer, el chatbot ofreció múltiples versiones sobre la causa: desde sus declaraciones sobre Trump hasta sus comentarios sobre Gaza. Incluso llegó a retractarse y, en otra interacción, acusó a Hunter Biden de ser el verdadero “criminal más notorio” de la capital.