Los primeros ataques cibernéticos con ChatGPT
Recientemente, OpenAI ha detectado más de 20 ciberataques realizados con la ayuda de ChatGPT y otros modelos de lenguaje. Estos ataques fueron planeados por hackers chinos e iraníes, quienes aprovecharon las capacidades de la IA para desarrollar y perfeccionar malware, además de realizar ataques de phishing dirigidos a varios Gobiernos asiáticos.
Uno de los primeros ataques, llevado a cabo por activistas chinos, utilizó una técnica conocida como ‘SweetSpecter’, que introducía un archivo malicioso mediante un archivo ZIP. Si este era descargado y abierto, infectaba el sistema de la víctima. Este malware fue creado utilizando múltiples cuentas de ChatGPT, lo que permitió a los hackers escribir y depurar el código de manera eficiente.
Un uso malicioso de la inteligencia artificial
No solo China está involucrada en estos ataques. Un grupo iraní llamado ‘CyberAv3ngers’ usó ChatGPT para explotar vulnerabilidades en equipos con macOS y robar contraseñas. Otro grupo, ‘Storm-0817’, desarrolló software malicioso para Android que accedía a contactos, registros de llamadas y el historial de navegación. Si bien los métodos no son nuevos, la facilidad con la que los hackers han utilizado la IA para perfeccionar sus ataques es alarmante.
Estos incidentes resaltan lo peligroso que puede ser el uso de la IA en manos equivocadas, mostrando lo fácil que es para personas con conocimientos básicos de programación utilizar herramientas como ChatGPT para realizar ciberataques efectivos.
Medidas para prevenir futuros ataques
Ante estos sucesos, OpenAI ha asegurado que seguirá mejorando su tecnología para evitar que sea utilizada con fines maliciosos. Además, han formado equipos especializados en seguridad para compartir sus descubrimientos con otras compañías y la comunidad tecnológica en general, con el fin de prevenir ataques futuros.
Sin embargo, no solo OpenAI debe tomar cartas en el asunto. Otras empresas que desarrollan modelos de IA generativa también tienen la responsabilidad de reforzar sus medidas de seguridad, para evitar que la inteligencia artificial se convierta en una herramienta habitual para los cibercriminales.