Las ultimas noticias en tecnología, ciencia y cultura digital.

Esta nueva técnica usa IA para que el movimiento de los personajes de un juego sea mucho más real

A medida que los mundos que exploramos en los videojuegos se vuelven más complejos, los animadores se enfrentan al problema de cómo hacer que los personajes que se mueven por ellos luzcan realistas. Un grupo de investigadores ha encontrado una genial solución que se vale de la inteligencia artificial.

Hasta ahora, los estudios de desarrollo de videojuegos solían recurrir a sistemas de captura de movimiento con personas reales. Vistes a un actor con un traje cubierto de sensores y grabas sus movimientos caminando, corriendo, saltando o realizando cualquier otra tarea que pueda necesitarse en el juego. Sin duda es una buena técnica, pero el problema es que no cubre absolutamente todas las interacciones posibles con el mundo ni las transiciones entre un movimiento y otro, lo que a menudo se traduce en movimientos bruscos y poco realistas. Las transiciones entre un movimiento y otro (por ejemplo entre levantarse de una silla, recoger algo del suelo y echar a correr) son especialmente problemáticas porque se resuelven por software y siempre se nota el punto en el que el juego ejecuta una rutina de movimiento y luego la siguiente.

Advertisement

Un equipo de expertos en computación de la Universidad de Edimburgo en colaboración con Adobe Research han dado con una novedosa solución que presentarán en la próxima conferencia Siggraph que tendrá luger dentro de un mes en Brisbane, Australia. Esa solución consiste en usar redes neurales de aprendizaje para que calculen las transiciones entre un movimiento y otro.

Para crear uno de esos Deepfakes que se han vuelto tan tristemente populares, lo que se hace es entrenar una red neural para que se aprenda el rostro de una persona desde cada ángulo posible. Para ello se la enseña decenas de miles de fotos de ese rostro. Con ese conocimiento, la red neural es capaz de calcular con precisión y de forma realista los movimientos de esa persona.

El método empleado por los investigadores es similar, solo que en vez de caras lo que se le enseña a la red neural es a interpretar movimientos diferentes en función del entorno. El movimiento que hace una persona para sentarse en un estrecho taburete no es el mismo que el que hace para sentarse en un sofá. La postura final en la que se sienta tampoco. Igualmente no es lo mismo agacharse un poco para pasar por una puerta baja, que tener que agacharnos para pasar por una abertura de apenas metro y medio de alto. La IA desarrollada en Edimburgo interpreta estos movimientos y los traduce a diferentes posiciones de las articulaciones. El resultado no es solo que adapta los movimientos y las transiciones de manera realista en función del entorno, sino que ella misma aprende a interpretar cómo interactuar con objetos similares pero que nunca ha visto.

La IA no solo ayuda a llenar los vacíos entre una rutina preprogramada de movimiento y otra. Además tiene otras ventajas interesantes para los desarrolladores. La primera es que reduce el tamaño de los archivos relacionados con el movimiento y la cantidad de datos que hay que procesar o compartir. Esa es una ventaja crucial sobre todo teniendo en cuenta que parece que nos encaminamos a un futuro de juegos en streaming. La otra ventaja es que el método abre la puerta a combates mucho más realistas en los que varios personajes podrían interactuar al mismo tiempo, algo que ahora mismo suele estar reservado a escenas cinemáticas. [Eurekalert]

Share This Story