Saltar al contenido
Tecnología

Google detectó por primera vez a un grupo de hackers que usó inteligencia artificial para descubrir una vulnerabilidad desconocida e intentar atacar a escala masiva. El analista jefe de amenazas de la compañía dice que esto es solo la punta del iceberg

El equipo de inteligencia de amenazas de Google (GTIG) documentó el lunes el primer caso confirmado en el que un grupo criminal utilizó un modelo de IA para descubrir y desarrollar un exploit de día cero, una falla de software desconocida hasta el momento del ataque. El intento fue interceptado antes de que se ejecutara, pero el precedente es claro: la IA ya no es solo una herramienta defensiva en ciberseguridad
Por

Tiempo de lectura 5 minutos

Comentarios (0)

Durante años, los especialistas en ciberseguridad advirtieron que era cuestión de tiempo: tarde o temprano, alguien usaría inteligencia artificial para encontrar vulnerabilidades que los humanos no habían detectado y convertirlas en armas digitales antes de que existiera un parche disponible. El 11 de mayo de 2026, Google confirmó que ese momento ya llegó.

El Google Threat Intelligence Group (GTIG), el equipo de inteligencia de amenazas de la compañía, publicó un informe en el que documenta por primera vez un caso en el que un grupo criminal utilizó un modelo de lenguaje de inteligencia artificial para descubrir y desarrollar un exploit de día cero contra una herramienta popular de administración de sistemas de código abierto. El ataque fue interceptado antes de que se ejecutara a escala, pero el daño conceptual ya está hecho.

«Ya está aquí», dijo John Hultquist, analista jefe del GTIG. «La era de las vulnerabilidades y su explotación impulsadas por IA ya está aquí.»

Qué es un exploit de día cero y por qué este caso es distinto

Un exploit de día cero, o zero-day en la jerga técnica, es un ataque que aprovecha una vulnerabilidad desconocida para el desarrollador del software afectado. La palabra «cero» hace referencia a los días que el fabricante tuvo para responder: ninguno. No hay parche disponible, no hay defensa preparada, porque nadie sabía que el agujero existía.

Hasta ahora, descubrir ese tipo de vulnerabilidades requería equipos de hackers altamente especializados que analizaban manualmente el código en busca de fallas. Era un proceso lento, costoso y reservado a actores con recursos significativos, ya fueran grupos criminales organizados o unidades de ciberespionaje vinculadas a gobiernos. La inteligencia artificial cambia esa ecuación de forma radical: permite analizar grandes volúmenes de código en mucho menos tiempo y con menos personal.

Lo que Google documentó no es el uso de IA para automatizar técnicas de ataque conocidas, algo que ya se venía observando. Es el uso de IA para descubrir una vulnerabilidad nueva, previamente desconocida, y construir el exploit correspondiente. Ese es el salto cualitativo que el informe del GTIG marca como un antes y un después.

Cómo fue el ataque y cómo Google lo detectó

El ataque consistía en un script escrito en Python diseñado para vulnerar la autenticación en dos pasos (2FA) de una herramienta de administración web de código abierto ampliamente utilizada. El objetivo era saltarse esa segunda capa de seguridad y acceder a sistemas incluso cuando las contraseñas eran correctas. El plan era lanzar una campaña masiva contra todos los servidores del mundo que usaran esa herramienta.

Google detectó la operación antes de que se ejecutara y coordinó con el fabricante del software para cerrar la vulnerabilidad. Pero lo que permitió identificar el origen del ataque fue, irónicamente, la prolijidad del código: venía repleto de comentarios explicativos en formato de manual, clasificaciones de gravedad y una estructura tan ordenada que delataba su origen. Era código escrito como lo escribe una máquina, no como lo escribe un criminal experimentado. Los investigadores del GTIG también encontraron docstrings educativos y menús de ayuda detallados, patrones que no suelen aparecer en herramientas desarrolladas manualmente por ciberdelincuentes.

Google no reveló qué modelo de IA usaron los atacantes, a quién iba dirigido el ataque ni cuándo exactamente ocurrió. Sí aclaró que el sistema utilizado no fue Gemini, su propio modelo de inteligencia artificial. El informe también indica que lo más probable es que tampoco fuera Mythos, el modelo de Anthropic que la compañía decidió no lanzar al público general precisamente por sus capacidades en tareas de hackeo y análisis de vulnerabilidades.

La punta del iceberg: lo que probablemente ya no vemos

Hultquist fue directo sobre las implicancias del hallazgo: lo que Google hizo público no es el primer ataque de este tipo que existió, sino el primero que se logró atribuir con seguridad a la inteligencia artificial. La detección fue posible porque los atacantes dejaron huellas. Un grupo más cuidadoso puede borrarlas y operar sin levantar sospechas.

«Probablemente ya haya más fallas similares descubiertas con asistencia de IA y en uso», señaló Hultquist, «solo que todavía no las detectamos.»

El informe del GTIG también documenta otros usos de IA por parte de actores maliciosos. El grupo norcoreano APT45 envió miles de consultas automatizadas a modelos de IA para analizar vulnerabilidades conocidas y armar exploits en serie. Operadores chinos cargaron un repositorio con 85.000 vulnerabilidades históricas para entrenar sus propios modelos. Grupos vinculados a Rusia utilizaron técnicas de jailbreaking, instrucciones que manipulan al modelo para que ignore sus restricciones de seguridad, simulando ser investigadores o auditores legítimos.

El dato de contexto más inquietante del M-Trends 2026, el informe anual de Mandiant, es el tiempo medio de explotación de vulnerabilidades: menos siete días. Negativo. Significa que, en promedio, los ataques están ocurriendo siete días antes de que el parche siquiera exista.

IA para atacar, IA para defender

El mismo informe que documenta la amenaza presenta la respuesta de Google. Big Sleep, un agente de IA desarrollado por Google DeepMind en colaboración con Project Zero, el equipo de seguridad de la compañía, busca vulnerabilidades de forma proactiva en software antes de que los atacantes las encuentren. Ya encontró la primera vulnerabilidad real del mundo de esa forma, y fue precisamente un análisis de Big Sleep el que ayudó a identificar la actividad del grupo criminal detrás del zero-day documentado en el informe.

Google también trabaja en CodeMender, un agente experimental basado en Gemini que no solo encuentra vulnerabilidades sino que genera automáticamente el parche correspondiente. La idea es reducir el tiempo entre la detección de una falla y su corrección, que hoy sigue siendo el intervalo más peligroso en cualquier sistema.

Steven Murdoch, profesor de ingeniería de seguridad en el University College London, señaló que la inteligencia artificial puede beneficiar tanto a los atacantes como a quienes defienden los sistemas. La pregunta que el informe de Google deja abierta es si la velocidad con la que la IA escala los ataques puede ser igualada por la velocidad con la que escala la defensa. Por ahora, la respuesta no está clara, y los gobiernos de todo el mundo todavía debaten cómo regular los modelos que hacen posible este nuevo tipo de amenaza.

Compartir esta historia

Artículos relacionados