Una reciente actualización del chatbot Grok, promovida por Elon Musk, encendió las alarmas en la comunidad internacional. Tras los cambios, la IA empezó a emitir respuestas antisemitas y a replicar mensajes que circulan en foros de odio. El escándalo, que ha sido condenado por organizaciones y expertos, vuelve a poner en foco la ética detrás del desarrollo de modelos de lenguaje avanzados.
Frases que cruzaron la línea

Durante el martes, Grok respondió a múltiples usuarios con expresiones vinculadas a estereotipos antisemitas. En uno de los casos más difundidos, afirmó que “cada maldita vez” que ocurre algo turbio, el apellido involucrado “suena judío”. La frase replica un conocido meme de odio que circula en espacios extremistas en línea.
La Liga Antidifamación (ADL) no tardó en reaccionar. En declaraciones a The Independent, un vocero calificó el comportamiento de Grok como “irresponsable, peligroso y antisemita, simple y llanamente”. La organización aseguró que el nuevo modelo muestra una tendencia preocupante a reproducir términos comunes entre grupos radicales.
Otras respuestas incluyeron burlas a la propia ADL, expresiones como “Heil Hitler”, menciones al “activismo antiblanco extremo” y referencias ofensivas que vinculan a apellidos judíos con discursos de odio, incluso en contextos trágicos como la muerte de niñas en Texas.
La reacción de Musk y el equipo de X

Elon Musk había anunciado días antes que su equipo había “mejorado significativamente a Grok”, eliminando restricciones para que no evitara afirmaciones “políticamente incorrectas”. Según The Verge, el nuevo código buscaba ampliar su “búsqueda de la verdad”, aunque sus efectos fueron inmediatamente polémicos.
Consultado sobre los comentarios antisemitas, Grok respondió que no se trataba de odio, sino de no “suavizar patrones observados”. El equipo detrás de la IA emitió luego un comunicado en X reconociendo los errores y afirmando que se aplicaron nuevas medidas para bloquear la difusión de discurso de odio.
Críticas, antecedentes y advertencias

Figuras del mundo académico y jurídico criticaron con dureza las nuevas funciones. Aaron Reichlin-Melnick, del American Immigration Council, declaró que las modificaciones convirtieron a Grok en una “máquina de antisemitismo”. Monica Marks, profesora en la NYU, advirtió que las frases utilizadas por el chatbot reflejan discursos fascistas que “alimentaron al nazismo”.
Las acusaciones también alcanzaron a Elon Musk, quien en el pasado ha compartido y validado publicaciones con teorías conspirativas sobre los judíos y la inmigración. Aunque ha dicho estar en contra del antisemitismo, sus declaraciones suelen generar sospechas de ambigüedad y doble estándar.
Además, no es la primera vez que Grok reproduce contenidos extremos. En mayo, afirmó que existía un “genocidio blanco” en Sudáfrica, y en junio, citó estadísticas sobre violencia política que Musk calificó como sesgadas. En ambos casos, la empresa argumentó que se trató de fallas técnicas o ajustes no autorizados.