Imaginemos por un momento que que nunca jamás has usado tus piernas ni has visto una pelota en tu vida y que ponen ante ti el reto de chutar a puerta. Ese es precisamente el último logro de Google DeepMind, la inteligencia artificial que ya sabe jugar al Go mejor que los seres humanos.

Que una inteligencia artificial haya aprendido a controlar los movimientos de una especie de insecto robot para que dispare proyectiles a una zona determinada, dicho así, no parece muy tranquilizador. Afortunadamente, el reto era virtual. Los investigadores mostraron a Google Deepmind un campo cerrado con reglas de física reales en el que había un sencillo robot de cuatro patas y una pelota. El objetivo era aprender a manejar el robot para que llevara la pelota hasta una zona roja. El vídeo de la prueba demuestra que es pan comido para DeepMind.

¿Para qué toda esta prueba? Para comprobar hasta qué punto DeepMind es capaz de enfrentar retos en los que hay que deducir diferentes variables que no están directamente asociadas mediante prueba y error. Los científicos creen que es el comienzo de una nueva plataforma de aprendizaje para robots reales que les permita aprender a moverse de manera segura más rápido en un entorno en el que colaboren con seres humanos. También puede servir para algo mucho más simple, que es crear el software controlador perfecto para los robots que corren valiéndose de diferentes extremidades. [Google vía Engadget]


Síguenos también en Twitter, Facebook y Flipboard.