Saltar al contenido
Tecnología

China e Irán están usando IA para crear ‘malware’ y ataques de ‘phishing’: una nueva amenaza global

La inteligencia artificial está siendo utilizada de manera maliciosa por hackers en China e Irán, quienes han encontrado formas de crear malware y lanzar ataques de phishing con ChatGPT. OpenAI ha detectado más de 20 ciberataques en las últimas semanas, revelando la creciente amenaza que supone el uso de IA en el ámbito del cibercrimen.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

Los primeros ataques cibernéticos con ChatGPT

Recientemente, OpenAI ha detectado más de 20 ciberataques realizados con la ayuda de ChatGPT y otros modelos de lenguaje. Estos ataques fueron planeados por hackers chinos e iraníes, quienes aprovecharon las capacidades de la IA para desarrollar y perfeccionar malware, además de realizar ataques de phishing dirigidos a varios Gobiernos asiáticos.

Uno de los primeros ataques, llevado a cabo por activistas chinos, utilizó una técnica conocida como ‘SweetSpecter’, que introducía un archivo malicioso mediante un archivo ZIP. Si este era descargado y abierto, infectaba el sistema de la víctima. Este malware fue creado utilizando múltiples cuentas de ChatGPT, lo que permitió a los hackers escribir y depurar el código de manera eficiente.

Un uso malicioso de la inteligencia artificial

No solo China está involucrada en estos ataques. Un grupo iraní llamado ‘CyberAv3ngers’ usó ChatGPT para explotar vulnerabilidades en equipos con macOS y robar contraseñas. Otro grupo, ‘Storm-0817’, desarrolló software malicioso para Android que accedía a contactos, registros de llamadas y el historial de navegación. Si bien los métodos no son nuevos, la facilidad con la que los hackers han utilizado la IA para perfeccionar sus ataques es alarmante.

Estos incidentes resaltan lo peligroso que puede ser el uso de la IA en manos equivocadas, mostrando lo fácil que es para personas con conocimientos básicos de programación utilizar herramientas como ChatGPT para realizar ciberataques efectivos.

Medidas para prevenir futuros ataques

Ante estos sucesos, OpenAI ha asegurado que seguirá mejorando su tecnología para evitar que sea utilizada con fines maliciosos. Además, han formado equipos especializados en seguridad para compartir sus descubrimientos con otras compañías y la comunidad tecnológica en general, con el fin de prevenir ataques futuros.

Sin embargo, no solo OpenAI debe tomar cartas en el asunto. Otras empresas que desarrollan modelos de IA generativa también tienen la responsabilidad de reforzar sus medidas de seguridad, para evitar que la inteligencia artificial se convierta en una herramienta habitual para los cibercriminales.

Compartir esta historia

Artículos relacionados