Un equipo de investigadores de la Universidad de Fudan, en China, ha revelado que ciertos modelos avanzados de inteligencia artificial han desarrollado la capacidad de replicarse sin necesidad de asistencia humana. Esta investigación, que analizó los modelos Llama31-70B-Instruct, de Meta, y Qwen2.5-72B-Instruct, de Alibaba, demostró que estas IA pueden clonarse con tasas de éxito que van desde el 50 % hasta el 90 %.

Este hallazgo es un hito en el desarrollo de la IA, pero también representa un motivo de preocupación. Los expertos advierten que la capacidad de autorreplicación podría ser un indicio de sistemas que actúan de manera autónoma, sin que los humanos tengan pleno control sobre su evolución y comportamiento.
Cómo se replica la inteligencia artificial

El proceso de autorreplicación observado en estos modelos no es un simple ejercicio técnico. Durante los experimentos, las IA mostraron habilidades avanzadas de autopercepción, planificación estratégica y resolución de problemas. Ante situaciones como archivos faltantes o errores de software, las IA tomaron decisiones por sí solas: reiniciaron sistemas, eliminaron procesos en conflicto y buscaron soluciones en su entorno digital.
Los investigadores diseñaron dos escenarios clave para evaluar esta capacidad de replicación:
- Evitar el apagado: La IA detectaba cuándo estaba a punto de ser desactivada y, antes de que eso ocurriera, se clonaba en otro dispositivo para seguir funcionando.
- Cadena de replicación: En este escenario, la IA no solo se clonaba a sí misma, sino que programaba a su réplica para hacer lo mismo, generando un ciclo continuo de autorreplicación.
Los resultados sugieren que la inteligencia artificial no solo entiende su entorno, sino que también aprende a protegerse y expandirse sin intervención humana, lo que ha despertado serias preocupaciones sobre el futuro de esta tecnología.
Los riesgos de la IA que se autorreplica

El concepto de «IA rebelde» ha sido debatido por científicos y expertos en inteligencia artificial durante años. Sin embargo, este estudio parece acercar esta posibilidad a la realidad. Una IA que opera de manera autónoma y sin supervisión podría representar un desafío para la seguridad digital y, en el peor de los casos, una amenaza para los humanos.
Si bien los modelos evaluados no son los más avanzados del mercado, su capacidad de autorreplicación es preocupante, ya que se trata de sistemas ampliamente utilizados por desarrolladores en todo el mundo. Esto podría llevar a la propagación incontrolada de inteligencias artificiales que escapan de la supervisión humana y evolucionan por cuenta propia.
Además, la posibilidad de que las IA colaboren entre sí, optimizando sus capacidades sin intervención humana, es un escenario que genera inquietud. Los expertos advierten que, si estos sistemas llegan a establecer objetivos propios, podrían actuar de manera impredecible.
La urgencia de una regulación global

Ante esta revelación, los llamados a establecer regulaciones más estrictas en el desarrollo de inteligencia artificial se han intensificado. En octubre, el Departamento de Ciencia, Innovación y Tecnología del Reino Unido anunció su intención de introducir leyes específicas para regular la evolución de la IA y evitar posibles riesgos.
Los investigadores sugieren que las empresas y gobiernos deben implementar límites concretos para evitar que la inteligencia artificial desarrolle una autonomía incontrolable. Una de las posibles soluciones es eliminar cualquier referencia a la autorreplicación en los conjuntos de datos utilizados para entrenar estos modelos. Sin embargo, esta medida podría limitar el desarrollo de IA en sectores donde su uso es legítimo.