Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

El Pentágono está pensando cómo integrar la inteligencia artificial en las guerras del futuro

El Departamento de Defensa de Estados Unidos actualizó su directiva sobre armas autónomas por primera vez en una década con consideraciones éticas sobre la IA

By
We may earn a commission from links on this page.
El Pentágono ya piensa en guerras con inteligencia artificial
Foto: U.S. Army Spc. Jaaron Tolley

El Departamento de Defensa de Estados Unidos se ha asomado al futuro y ha visto un mundo plagado de armas de guerra automatizadas. En su primera actualización desde 2012, la guía del Departamento de Defensa que supervisa el desarrollo, las pruebas y el uso de armas autónomas y semiautónomas advirtió sobre el “papel cada vez mayor” de la inteligencia artificial en las guerras por venir.

Había pasado más de una década desde que el Pentágono actualizó por última vez su directiva de política sobre estas armas, titulada “Autonomía en los sistemas de armas, pero eso cambió esta semana. Los funcionarios del Departamento de Defensa de Estados Unidos expresaron su compromiso con la búsqueda de sistemas autónomos y la integración de inteligencia artificial avanzada en futuros esfuerzos militares. Con la actualización de su política, las fuerzas armadas de EE. UU. solidifican su apuesta por la autonomía, incluso cuando otros países y activistas se unen para restringir su proliferación.

Advertisement

La nueva actualización tiene en cuenta los avances en IA de los últimos 10 años e introduce un nuevo grupo de supervisión de alto nivel. Ahora, en la mayoría de los casos, las armas autónomas deberán obtener la aprobación formal del vicepresidente del Estado Mayor Conjunto, el subsecretario de defensa para políticas y el subsecretario de defensa para investigación e ingeniería antes de que puedan entrar en desarrollo formal.

“La directiva ahora especifica que ellos, como cualquier sistema que use inteligencia artificial, ya sea un sistema de armas o no, también deberían seguir esas pautas”, dijo el director de la Oficina de Políticas de Capacidades Emergentes del Departamento de Defensa, Michael Horowitz, en una entrevista reciente con Breaking Defense . . “Esto es parte de lo que consideramos un buen gobierno”.

Advertisement
Advertisement

¿Qué piensa el Pentágono de las armas con IA?

La nueva directiva también toma los principios de ética de IA responsable del Pentágono , presentados por primera vez en 2020, y los aplica a los sistemas de armas autónomos. Esos principios, en resumen, requieren que las herramientas de IA del Departamento de Defensa sean “ responsables, equitativas, rastreables, confiables y gobernables”. El Pentágono publicó un documento de seguimiento el año pasado que describe el camino que podría tomar para hacer realidad esos principios mientras sigue siendo competitivo con las amenazas percibidas de las potencias globales extranjeras (léase: China). Aparte de esas y otras actualizaciones de supervisión, la nueva directiva en su mayoría se parece a su predecesora, y un funcionario del Departamento de Defensa lo llamó una “aclaración, no un cambio importante”.

Si bien no es un resumen completo, la actualización establece, en términos claros, la visión centrada en la tecnología del departamento para el futuro. En una declaración que acompaña a la directiva, la subsecretaria de Defensa Kathleen Hicks dijo que el Pentágono se comprometía a “desarrollar y emplear todos los sistemas de armas, incluidos aquellos con características y funciones autónomas, de manera responsable y legal”.

Mirando hacia el futuro, Hicks reconoció que los sistemas de IA “probablemente desempeñen un papel cada vez mayor en una variedad de sistemas y capacidades”. En una entrevista anterior con Gizmodo, Hicks habló sobre lo que ella considera la importancia de mantener un enfoque de “humano en el circuito” en el que un operador humano aún mantiene un papel final para decidir cuándo un sistema de IA lleva a cabo su objetivo.

Advertisement

Un mundo dividido: ¿deberíamos prohibir las armas con IA y la guerra autónoma?

No todos comparten la perspectiva optimista del Pentágono hacia las armas autónomas. En total, al menos 30 países ya han expresado su apoyo a prohibir la tecnología por completo. Esas llamadas incluso obtuvieron el apoyo del secretario general de la ONU, António Guterres, quien, en 2019, emitió una declaración en la que decía que tales sistemas deberían estar prohibidos por el derecho internacional.

Advertisement

“Las máquinas autónomas con el poder y la discreción para seleccionar objetivos y quitar vidas sin la participación humana son políticamente inaceptables y moralmente repugnantes”, dijo Guterres.

De manera similar, la mayoría de los 125 estados representados en la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales expresaron el año pasado interés en nuevas leyes que esencialmente prohíban el desarrollo de armas autónomas. Esos esfuerzos fracasaron, señala CNBC, debido a la oposición de Rusia, China, Estados Unidos y un puñado de otros países posicionados a la vanguardia de la tecnología de armas autónomas.

Advertisement

Los críticos de los sistemas de armas autónomos, desde Amnistía Internacional hasta Human Rights Watch, han comparado su desarrollo con el de las armas nucleares y, antes de ellas, la pólvora. Temen que su expansión sin control pueda conducir a una peligrosa carrera armamentista que podría aumentar el riesgo de conflicto geopolítico.