Crear un modelo 3D de, digamos, el museo del Louvre es un proceso lento que requiere miles de mediciones y material obtenido mediante escáneres y cámaras, pero ¿y si se pudiera recrear ese modelo 3D automáticamente sólo mediante una descripción de texto y un puñado de imágenes? Investigadores de Intel Labs y la Universidad de Washington lo han hecho realidad.

El sistema se basa, de hecho, en fotos de Flickr y descripciones de Wikipedia. Primero, el software hace una búsqueda en Flickr del lugar que hay que recrear, y utiliza esas imágenes para generar un modelo tridimensional lo más detallado posible. Para ello utiliza técnicas de reconocimiento de objetos y alineación de cada foto en un espacio tridimensional.

A continuación, el programa desarrollado por Bryan Russell y su equipo hace una búsqueda en Wikipedia y cataloga los hitos importantes del lugar, enlazándolos al modelo 3D. El resultado es algo muy parecido a un paseo interactivo por el lugar, con multitud de datos y descripciones que rivalizan con la mejor de las visitas guiadas.

De momento, el sistema depende mucho de su capacidad para extender búsquedas, y de la calidad y cantidad de las descripciones e imágenes disponibles. El equipo ha logrado, por ejemplo, obtener una recreación muy acertada de la Capilla Sixtina, pero otros lugares menos frecuentados dan problemas por falta de descripciones precisas.

El objetivo de los científicos de este proyecto de computación es convertir su software en una aplicación de realidad aumentada que incluso pueda guiarnos sobre el terreno siempre y cuando tengamos conexión a internet. Los primeros resultados de este software serán presentados este mes de noviembre en el evento Siggraph Asia que tendrá lugar en Hong Kong. [New Scientist]