Saltar al contenido
Tecnología

Las cámaras de los robots siempre tuvieron un problema con la luz. Un nuevo “ojo” inspirado en la biología acaba de resolverlo imitando cómo se contrae y expande nuestra pupila

Un equipo de ingenieros desarrolló un sistema visual que se adapta automáticamente a la iluminación sin motores ni ajustes externos. El resultado no es solo más eficiente: es más parecido a cómo ven los seres vivos.
Por

Tiempo de lectura 5 minutos

Comentarios (0)

Hay algo que hacemos constantemente y sin pensar: pasar de la oscuridad a la luz sin quedarnos prácticamente ciegos. Entrar a un túnel, salir al sol, mirar una pantalla de noche, conducir al amanecer. Nuestro ojo ajusta la pupila, regula cuánta luz entra y sigue funcionando con una naturalidad que parece trivial, pero no lo es en absoluto.

Para las máquinas, de hecho, sigue siendo un problema serio. En robótica y navegación autónoma, uno de los grandes cuellos de botella no es tanto “ver más nítido” como seguir viendo bien cuando la iluminación cambia de golpe. Y eso, en el mundo real, pasa todo el tiempo.

La visión artificial siempre tuvo un problema con la luz porque las cámaras tradicionales no se adaptan como un ojo

Una cámara puede ofrecer una imagen excelente en condiciones controladas, pero fuera del laboratorio la historia cambia. Reflejos, deslumbramientos, zonas de sombra, contraluces o cambios bruscos entre interior y exterior pueden saturar el sensor o reducir su capacidad de interpretar lo que tiene delante.

Eso es especialmente delicado en sistemas que no solo miran, sino que además tienen que tomar decisiones a partir de lo que ven. Vehículos autónomos, robots móviles o sistemas de inspección industrial dependen de que la imagen no se degrade justo cuando el entorno se vuelve más imprevisible. Y ahí es donde entra este nuevo desarrollo.

Lo interesante del avance no es solo que se inspire en el ojo humano. Es que copia una de sus funciones más elegantes

Un equipo de ingenieros de la Universidad de Carolina del Norte en Chapel Hill presentó en Science Robotics un sistema visual que puede modificar su apertura de forma autónoma, imitando el comportamiento del iris humano.

La idea es sencilla de explicar, pero muy difícil de ejecutar bien: en lugar de usar una apertura fija o depender de mecanismos externos, el sensor cambia por sí solo la cantidad de luz que deja pasar. Eso significa que puede adaptarse en tiempo real a distintas condiciones de iluminación sin recurrir a motores, ajustes manuales ni estructuras rígidas tradicionales. Y ahí está una de las claves del trabajo.

En vez de usar una pieza mecánica clásica, el sistema se apoya en un material líquido que responde como si fuera parte de un tejido vivo

Las cámaras de los robots siempre fallaron en algo muy humano. Un nuevo “ojo” artificial acaba de resolverlo imitando cómo cambia nuestra pupila con la luz
© ChatGPT / Gizmodo.

El corazón del dispositivo es un metal líquido conductor conocido como EGaIn, encerrado en una estructura sellada y combinado con una solución salina que reproduce ciertas condiciones bioinspiradas. Cuando la luz incide sobre el sensor, el sistema genera una señal que desplaza ese material dentro del dispositivo. Ese movimiento modifica la geometría de la apertura y, con ello, regula cuánta luz entra.

Lo fascinante es que el ajuste no ocurre como una orden externa, sino como una respuesta integrada en el propio sistema. En otras palabras, no es una cámara “corrigiendo” un problema después de verlo. Es un sensor que se adapta físicamente antes de que el problema lo desborde. Y eso se parece mucho más a un ojo que a una cámara convencional.

También cambia otra cosa importante: cómo se captura el entorno en los bordes de la imagen

Uno de los problemas habituales en óptica artificial es que muchas lentes funcionan muy bien en el centro del encuadre, pero empiezan a deformar o perder calidad en los extremos. En robótica, eso no es un detalle menor: muchas veces los obstáculos, movimientos o cambios más relevantes aparecen precisamente fuera del eje central.

El nuevo sistema incorpora una geometría más cercana a la curvatura de un ojo real, lo que permite mejorar el campo visual lateral y reducir parte de esa distorsión periférica. No se trata solo de captar más luz, sino de captar mejor el espacio completo. Ese matiz es importante porque acerca el dispositivo a una visión más útil en condiciones reales, no solo a una imagen más bonita en laboratorio.

Las pruebas muestran una mejora concreta en el rendimiento, y ahí es donde la idea deja de ser una curiosidad elegante

En los ensayos realizados por el equipo, el sistema fue sometido a condiciones de iluminación difíciles, con focos intensos, reflejos y escenarios pensados para reproducir situaciones complicadas del mundo exterior. Con lentes más convencionales, el rendimiento se resentía con bastante facilidad: la imagen tendía a saturarse y el sistema perdía precisión a la hora de interpretar correctamente la escena.

Con el nuevo diseño, en cambio, la capacidad de respuesta mejoró de forma clara. Según los resultados presentados, la precisión subió desde alrededor del 68% hasta el 83,5%, una diferencia lo bastante significativa como para que deje de ser solo una mejora de laboratorio y empiece a parecer una solución aplicable.

Eso abre una puerta mucho más grande que la de una cámara “más lista”

Lo interesante de este avance no es solo que mejore el rendimiento de un sensor. Es que apunta a una dirección bastante más profunda en el diseño de máquinas: dejar de compensar los límites del hardware únicamente con software, y empezar a construir sistemas que ya nazcan con respuestas más parecidas a las de un organismo.

Durante años, gran parte de la evolución de la visión artificial se apoyó en procesar mejor la imagen una vez capturada. Este trabajo propone algo distinto: hacer que el propio sistema visual responda de forma adaptativa desde su estructura física. Eso cambia bastante el enfoque. Porque ya no se trata solo de “ver más” o de “ver más definido”. Se trata de ver mejor en un mundo imprevisible.

En el fondo, este tipo de tecnologías apuntan a una idea cada vez más clara: las máquinas no necesitan parecer más inteligentes, sino más vivas

Y ahí está quizá la parte más interesante de toda esta historia. El avance no convierte a un robot en un ser biológico, claro. Pero sí muestra algo que empieza a repetirse en muchos campos de la ingeniería: cuando la tecnología quiere operar bien en el mundo real, cada vez recurre más a soluciones que la naturaleza ya resolvió hace millones de años.

No porque la biología sea romántica. Sino porque funciona. Y si este tipo de sistemas sigue evolucionando, lo que hoy parece una lente curiosa podría terminar siendo una pieza bastante habitual en robots, vehículos autónomos o dispositivos que necesiten hacer algo tan aparentemente simple como lo que hacemos nosotros a cada instante: seguir viendo bien cuando la luz cambia.

Compartir esta historia

Artículos relacionados