Cuando el cerebro procesa una imagen, activa cientos de miles de neuronas simultáneamente. Para nuestra mente es una tarea sencilla, pero para cualquier ordenador la tarea de tratar de traducir ese estallido de estímulos es titánica, y mucho más en tiempo real. Un equipo de neurocientíficos acaba de lograr precisamente eso.

Rajesh Rao es neurocientífico computacional en la Universidad de Washington donde conoció al neurocirujano Jeff Ojemann. Ambos han ideado un sistema que, en esencia, envía los datos provenientes de las señales nerviosas a una computadora y los traduce a la misma velocidad a la que se forman.

Advertisement

La tecnología no permite que una máquina lea los pensamientos del sujeto conectado, pero sí que adivina con un margen de efectividad del 96% lo que esa persona está viendo. El estudio ha implicado a siete pacientes de epilepsia de un hospital de Seattle a los que se les debían implantar electrodos en el lóbulo temporal como parte de un tratamiento para tratar de localizar el origen de sus ataques.

Aprovechando que debían pasar por quirófano de un modo u otro, el equipo les enroló para una prueba en la que las señales de los electrodos se conectaron a un potente software de cálculo. Durante la prueba, los sujetos iban viendo diferentes imágenes de caras y casas en rápida sucesión y debían identificar la imagen que estaba boca abajo. Mientras tanto, el algoritmo se entrenaba para reconocer los patrones de estímulos que recibe ese área del cerebro al ver diferentes imágenes. Con el tiempo, ha logrado reconocer esas imágenes con un 96% de efectividad y prácticamente al mismo tiempo que lo hace el cerebro.

La técnica es el primer paso para dar con un procedimiento efectivo de cartografiar los estímulos del cerebro y crear una interfaz más rápida y efectiva que puedan utilizar pacientes aquejados de enfermedades motoras graves. [Computational Biology vía PsyPost]

Sponsored

Imagen de portada: Kai Miller y Brian Donohue

***

Psst! también puedes seguirnos en Twitter y Facebook :)