Todav√≠a estamos intentando entender la terrible tragedia de Germanwings. Pero a√ļn as√≠, algunas personas est√°n sugiriendo que esta podr√≠a haberse evitado si una computadora hubiese estado volando el avi√≥n. Esa no es la soluci√≥n. Conversamos con un experto acerca el por qu√© un piloto de inteligencia artificial podr√≠a iniciar un nuevo grupo de riesgos y complicaciones para la aviaci√≥n.

Para abordar este problema, busqu√© la ayuda del Dr. Patrick Lin. El es el director del Grupo de √Čtica y Ciencia Emergente de la Universidad Estatal Polit√©cnica de California, y autor de libro "√Čtica de Robot: Las implicaciones sociales y √©ticas de la rob√≥tica". Como me lo se√Īal√≥, los pilotos de inteligencia artificial podr√≠an eventualmente tomar el control de la cabina sin la ayuda o participaci√≥n de ning√ļn humano, pero ese d√≠a est√° muy lejos.

Sacando a los humanos de la cabina

Como idea, los pilotos robots no son nada nuevo. Pero este reciente desastre para algunos es razón de pensar que en caso de emergencias como estas, el humano debería perder el control del avión, siendo relevado por un piloto de inteligencia artificial.

Advertisement

Cuando hablamos sobre la fiabilidad de un piloto humano, por lo general nos referimos a la fatiga y errores de usuario. Lo imprevisible que puede ser el estado psicológico de un piloto, por ejemplo, no se discute casi nunca. Sin embargo, el avión estrellado del pasado martes destacó este punto. Y es que parece que el co-piloto del avión, Andreas Lubitz, estaba ocultando su condición médica, que podría haber estado directa o indirectamente relacionada a su estado mental.

"Los pilotos pueden ser propensos a errores, porque los humanos son propensos a errores", Lin nos dijo. "Algunos accidentes de aviones ocurren porque hoy en día a los pilotos se les pide que se sienten y duren horas y horas mirando a una pantalla de computadora, y los humanos no estamos hechos para este tipo de labor. Los pilotos de hoy en día tampoco tienen suficientes oportunidades para entrenarse física o mentalmente para situaciones de emergencia, debido a que gran parte de volar ya ha sido automatizado.

Advertisement

De ahí nace la sugerencia de eliminar al eslabón débil en la aviación: el piloto. Un sistema de inteligencia artificial nunca se cansará, nunca se deprimirá ni cometerá errores.

Suena genial en un principio, pero como Lin dice, la transferencia absoluta del control de un avión de un piloto humano a un piloto automatizado es bastante complicada.

"Incluso si los pilotos de inteligencia artificial son m√°s seguros que los pilotos humanos, la √ļnica forma en la que estos pilotos de IA podr√≠an ser capaces de evitar un accidente como el de Germanwings o cualquier otro que haya sido ocasionado por un humano, es no solamente controlando el avi√≥n mientras vuela, sino tambi√©n durante el despegue, aterrizaje e incluso dejando fuera de la cabina a cualquier humano, para que no pueda presionar un bot√≥n de anulaci√≥n y tomar el control del avi√≥n."

Advertisement

Lin compara esto a la decisión de Google de eliminar el volante de dirección de sus vehículos automatizados de baja velocidad. Del mismo modo, si el objetivo es evitar que los humanos ocasionen desastres, las aerolíneas van a tener que prevenir que los humanos entren en contacto con el sistema de pilotaje de un avión, prohibiéndoles el acceso a la cabina. Y esa imagen es bastante inquietante.

Niveles de riesgo

Por otro lado, los niveles de riesgo de un avi√≥n controlado por un robot son completamente diferentes a los de un peque√Īo veh√≠culo que se mueve a lentas velocidades. Seg√ļn Lin:

"Lo que le funciona a Google no necesariamente tiene que servirle a, digamos, Lufthansa. La tecnolog√≠a va a fallar en alg√ļn punto, ya sea por un error de programaci√≥n en los millones de l√≠neas de c√≥digo que operan un veh√≠culo aut√≥nomo, un error de sensor, o un acontecimiento imprevisto; y tambi√©n importa, mucho, si la tecnolog√≠a falla en tierra firme o en el aire. Donde Google podr√≠a no necesitar un plan de respaldo para el pilotaje de sus coches, las aerol√≠neas si lo necesitan. Y esto significa tener al menos un humano en la cabina para emergencias."

Advertisement

Los accidentes a√©reos son relativamente extra√Īos, especialmente cuando tomas en cuenta el n√ļmero de vuelos de avi√≥n que se dan a cabo cada a√Īo. Las probabilidades de morir porque se estrelle un avi√≥n son extraordinariamente bajas, como para considerar el riesgo extra creado al eliminar a los humanos de la ecuaci√≥n de pilotaje de avi√≥n. Adem√°s de que cambiarse a pilotos rob√≥ticos no ahorrar√≠a casi nada de dinero a las aerol√≠neas, dado que la mano de obra es una fracci√≥n muy peque√Īa de los costos para las aerol√≠neas.

Advertisement

Accidentes de inteligencia artificial

"Tal vez alg√ļn d√≠a los pilotos de inteligencia artificial ser√°n lo suficientemente perfectos como para tomar el control de la cabina de un avi√≥n por completo, sin necesidad de un humano, pero ese d√≠a no llegar√° pronto. Ni siquiera podemos construir dispositivos mucho m√°s sencillos, como computadoras port√°tiles y smartphones, que no fallen constantemente en condiciones normales".

Advertisement

A lo que yo a√Īadir√≠a: los "aviones robot" tambi√©n podr√≠an llegar a ser hackeados. A menos que desarrollen un sistema completamente a prueba de fallas y de ser vulnerado, existe la probabilidad de que alguien podr√≠a irrumpir en √©l y asumir el control total del avi√≥n, para hacerlo estrellarse o secuestrarlo. Y esta perspectiva es bastante terror√≠fica.

Tanto los humanos como la tecnolog√≠a est√°n propensos a fallar, se√Īal√≥ Lin, "pero trabajando juntos hay una redundancia en el sistema que puede ayudar a compensar esos fallos".

Advertisement

***

Psst! también puedes seguirnos en Twitter, Facebook o Google+ :)