Un grupo de 116 expertos, entre ellos Elon Musk y pioneros de la rob√≥tica, advierten en una carta abierta a la ONU a bloquear el desarrollo y uso de armas letales aut√≥nomas. ¬ŅLa raz√≥n? Prevenir una nueva era b√©lica marcada por el uso de robots asesinos. Dicho de otra forma, evitar algo parecido a Skynet.

Entre los firmantes tambi√©n se encuentra Mustafa Suleyman de Google, m√°s de 100 especialistas de 26 pa√≠ses que piden la prohibici√≥n de armas aut√≥nomas. ¬ŅPor qu√©? La carta surge a ra√≠z de la propuesta reciente de la ONU para tratar el tema de los usos de drones, tanques o armas automatizadas. Seg√ļn se puede leer en la carta de los expertos:

Esta carrera armamentista amenaza con inaugurar la tercera revolución en la guerra después de la pólvora y las armas nucleares. Una vez desarrolladas, las armas autónomas letales permitirán que los conflictos armados se libren a una escala como nunca antes se ha visto ya escalas de tiempo más rápidas de lo que los humanos pueden comprender.

Estas pueden ser armas del terror, armas que los terroristas usarán contra poblaciones inocentes, y armas cortadas para comportarse de manera indeseable. No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil cerrarla.

Advertisement

Elon Musk. AP

La misiva destaca en√©rgicamente la necesidad de una acci√≥n urgente. Los expertos piden que se a√Īadan a la lista de armas prohibidas bajo la convenci√≥n de la ONU puesta en vigor en 1983, que incluye armas l√°ser qu√≠micas e intencionalmente cegadoras, sistemas de armas aut√≥nomas letales ‚Äúmoralmente err√≥neas‚ÄĚ.

La carta tambi√©n sigue la estela propuesta por Musk durante las √ļltimas semanas, qui√©n ha advertido reiteradamente de la necesidad de una regulaci√≥n proactiva de la IA, llegando a denominarla como ‚Äúla mayor amenaza existencial de la humanidad‚ÄĚ. [The Guardian]