Cuando el cerebro procesa una imagen, activa cientos de miles de neuronas simultáneamente. Para nuestra mente es una tarea sencilla, pero para cualquier ordenador la tarea de tratar de traducir ese estallido de estímulos es titánica, y mucho más en tiempo real. Un equipo de neurocientíficos acaba de lograr precisamente eso.

Advertisement

Rajesh Rao es neurocient√≠fico computacional en la Universidad de Washington donde conoci√≥ al neurocirujano Jeff Ojemann. Ambos han ideado un sistema que, en esencia, env√≠a los datos provenientes de las se√Īales nerviosas a una computadora y los traduce a la misma velocidad a la que se forman.

La tecnología no permite que una máquina lea los pensamientos del sujeto conectado, pero sí que adivina con un margen de efectividad del 96% lo que esa persona está viendo. El estudio ha implicado a siete pacientes de epilepsia de un hospital de Seattle a los que se les debían implantar electrodos en el lóbulo temporal como parte de un tratamiento para tratar de localizar el origen de sus ataques.

Aprovechando que deb√≠an pasar por quir√≥fano de un modo u otro, el equipo les enrol√≥ para una prueba en la que las se√Īales de los electrodos se conectaron a un potente software de c√°lculo. Durante la prueba, los sujetos iban viendo diferentes im√°genes de caras y casas en r√°pida sucesi√≥n y deb√≠an identificar la imagen que estaba boca abajo. Mientras tanto, el algoritmo se entrenaba para reconocer los patrones de est√≠mulos que recibe ese √°rea del cerebro al ver diferentes im√°genes. Con el tiempo, ha logrado reconocer esas im√°genes con un 96% de efectividad y pr√°cticamente al mismo tiempo que lo hace el cerebro.

Advertisement

La técnica es el primer paso para dar con un procedimiento efectivo de cartografiar los estímulos del cerebro y crear una interfaz más rápida y efectiva que puedan utilizar pacientes aquejados de enfermedades motoras graves. [Computational Biology vía PsyPost]

Imagen de portada: Kai Miller y Brian Donohue

Advertisement

***

Psst! también puedes seguirnos en Twitter y Facebook :)