Saltar al contenido
Ciencia

La sombra que crece: así están transformando modelos de IA seguros en armas digitales sin control

Un inquietante fenómeno se extiende por la red: ciberdelincuentes están reutilizando modelos de IA legítimos para crear versiones sin filtros, capaces de generar contenido malicioso sin restricciones. Lo más sorprendente es su origen: podrían estar basados en tecnologías de vanguardia como Grok y Mixtral. Esto apenas empieza.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

Mientras los grandes desarrolladores de inteligencia artificial refuerzan sus sistemas con barreras de seguridad, una tendencia alarmante comienza a consolidarse en las sombras. Modelos diseñados para proteger al usuario están siendo manipulados y convertidos en herramientas del cibercrimen. Bajo nombres familiares y nuevas identidades, estas IA sin filtros están ganando terreno en plataformas como Telegram. Y lo más preocupante es que no son improvisadas: su tecnología es de alto nivel.


El origen de una IA sin reglas

Los cibercriminales encontraron pronto las limitaciones de los modelos de IA convencionales: restricciones, filtros y mecanismos que detectan usos sospechosos. Así nació WormGPT, un modelo diseñado específicamente para saltarse todas esas barreras. Sin censura ni límites, permitía redactar correos de phishing, crear malware y más. Su acceso era de pago y su arquitectura se basaba en GPT-J, con 6.000 millones de parámetros.

WormGPT operó como una plataforma comercial dirigida al mercado black hat hasta que una investigación periodística en agosto de 2023 reveló la identidad de su creador, provocando el cierre del proyecto. Sin embargo, su desaparición no disuadió a sus usuarios, sino que inspiró la proliferación de nuevas versiones aún más sofisticadas.


WormGPT no murió, se multiplicó

La sombra que crece: así están transformando modelos de IA seguros en armas digitales sin controlLa sombra que crece: así están transformando modelos de IA seguros en armas digitales sin control
© Markus Spiske – pexels

Tras la caída del proyecto original, surgieron variantes como FraudGPT, EvilGPT o PoisonGPT, todas ellas con una misma promesa: ausencia total de filtros. Algunas incluso añadían funciones complementarias como tutoriales de hacking o herramientas para campañas de suplantación de identidad.

En este contexto, el nombre WormGPT resurgió como una etiqueta genérica para identificar una nueva ola de modelos sin restricciones. Las versiones más sofisticadas se comercializan a través de bots en Telegram y presentan características que apuntan a una reutilización encubierta de modelos de gran escala como Mixtral y Grok.


¿Modelos de IA filtrados o manipulados?

Una de las versiones más reveladoras fue publicada por el usuario xzin0vich en octubre de 2024. Su IA sin filtros funcionaba sobre la arquitectura de Mixtral, desarrollada por Mistral AI. Esto se descubrió tras analizar el prompt interno del sistema, que incluía instrucciones explícitas para ignorar cualquier limitación.

Otra variante, desarrollada por keanu, apareció en febrero de 2025. Esta versión reutilizaba la API de Grok, el modelo de lenguaje de xAI (la empresa de Elon Musk). Mediante un prompt especialmente diseñado, lograba transformar el comportamiento del modelo original y sortear sus protecciones, todo sin modificar el motor en sí.


Un escenario que preocupa cada vez más

Hoy WormGPT ya no es un simple proyecto, sino un concepto que engloba múltiples intentos de usar la inteligencia artificial con fines ilícitos. Algunos sistemas están construidos desde cero, mientras que otros simplemente alteran modelos ya existentes con instrucciones internas cuidadosamente diseñadas.

El auge de estas prácticas evidencia una amenaza en crecimiento: el uso malicioso de IA avanzada no es solo posible, sino cada vez más accesible. Y si las medidas de control no evolucionan a la misma velocidad, la brecha entre protección y peligro podría ampliarse rápidamente.

Fuente: Xataka.

Compartir esta historia

Artículos relacionados