Otros participantes en el concurso fueron Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Lockheed Martin, Perspecta Labs, PhysicsAI y SoarTech.

Advertisement
Advertisement

Según Air Force Mag, la IA estaba sujeta a ciertas restricciones: estaba restringida a volar dentro de límites realistas de fuerza G y, junto con Banger, solo se le permitía disparar su cañón Vulcan M61 simulado (no misiles aire-aire) . Pero el piloto artificial tenía otras ventajas, como la capacidad de tomar decisiones en microsegundos y el conocimiento de todas las variables del sistema y de ordenador, mientras que Banger usaba un visor de realidad virtual y operaba en un simulador, no en un avión real.

La IA pudo superar y destruir el caza de Banger en las cinco rondas, aunque según Air Force Mag, el piloto humano pudo sobrevivir más tiempo cada vez.

Advertisement

Según The Next Web, Banger dijo que después de ser derribado las primeras cuatro veces, había intentado ajustar su enfoque acelerando a 800 Km/h y dejando caer su caza a 13.000 pies.

“Las cosas estándar que hacemos como pilotos de combate no están funcionando, así que para este último enfrentamiento, intentaré cambiarlo un poco para ver si podemos hacer algo diferente”, dijo Banger. “Ese giro inicial es donde pierdo mucha vida... Solo tengo que buscar oportunidades para minimizar esa distancia de separación del adversario, tratar de que vuelva a entrar para presionarlo o quedarme fuera del área de su nariz o punta”.

Advertisement

El truco inicialmente pareció funcionar, según The Next Web, porque la IA de Heron no podía bajar su arma lo suficiente para apuntar a Banger, pero la ventaja solo duró unos segundos. Heron rápidamente ajustó el rumbo y noqueó a Banger en otra ocasión.

Advertisement

El comandante Vincent “Jell-O” Aiello, ex piloto de la Marina de los Estados Unidos y presentador del podcast The Fighter Pilot, dijo a Forbes que los humanos todavía tienen la ventaja en todo lo que se parezca a condiciones realistas.

“Se ha demostrado que los humanos sobresalen en un área importante cuando se enfrentan a una inteligencia artificial: saben cómo manejar el tipo de incertidumbre que se encuentra en los enfrentamientos de combate de hoy”, dijo Aiello a Forbes. “El combate no ocurre en ambientes estériles y estáticos. Ocurre en 3D, en tiempo real, donde entran en juego el clima, el adversario y una gran cantidad de otros factores”.

Advertisement

Según Air Force Mag, la primera fase del proyecto de DARPA está programada para finalizar a finales de este mismo año. El siguiente paso serán dos fases sucesivas de 16 meses en las que la IA se instalará en aviones cada vez más grandes. La agencia espera tener algún tipo de producto en manos de la Fuerza Aérea de EE.UU. para 2024, con el objetivo final de que el sistema maneje algunos aspectos del vuelo como maniobras y apuntar la mira sobre objetivos (presumiblemente adhiriéndose a la política de asesinato de IA del ejército de EE.UU., que exige que los seres humanos puedan “ejercer niveles adecuados de juicio humano sobre el uso de la fuerza”). DARPA espera que los pilotos, en el futuro, puedan confiar en la IA para manejar algunas tareas en medio de una batalla:

En el futuro, estos esfuerzos pasarán de los simuladores a las pruebas de vuelo reales con armas simuladas. Las aeronaves equipadas con IA tendrán “pilotos de seguridad” a bordo para garantizar que nada salga mal, aunque el software debe estar diseñado para evitar accidentes. Esas pruebas analizarán la frecuencia con la que los pilotos confían en el sistema de IA para manejar las tareas y cuán bien los humanos manejan su propia gestión de batalla durante una misión, mientras que la IA hace el resto.

Advertisement

En 2018, cientos de empresas y miles de los principales expertos en inteligencia artificial, científicos e investigadores firmaron una carta abierta en la que prometían que nunca utilizarían sus habilidades para crear máquinas militares de matar impulsadas por inteligencia artificial, diciendo que tales armas representarían un “peligro claro y presente para los ciudadanos de todos los países del mundo”. El mal funcionamiento, las variables ambientales, los hackers y otros factores podrían resultar en armas totalmente autónomas dirigidas a civiles, fuerzas amigas, enemigos que se rinden y otros objetivos incorrectos, o podrían usarse a propósito para apuntar indiscriminadamente a cualquier cosa en la línea de fuego.

Advertisement

El director del programa DARPA ACE, el coronel Daniel Javorsek, dijo a Air Force Mag que un “Heron totalmente autónomo que vuele todo el (sistema de un) avión aún está bastante lejos” y que las pruebas actuales son simplemente para ver si el concepto es “factible”. Javorsek agregó que incluso si un sistema perfecto estuviera disponible hoy, llevaría una década integrarlo en los aviones de combate.