Fotografía: AP

Hace poco, las noticias sobre una investigación de Facebook en torno al aprendizaje automático ha generado pánico en diversos lugares y muchos creen que la Skynet de Terminator acaba de ser creada.

‚ÄúLos ingenieros de Facebook entran en p√°nico y desconectan una AI (inteligencia artificial) debido a que los ‚Äėbots‚Äô desarrollaron su propio lenguaje‚ÄĚ escribi√≥ un medio. ‚ÄúFacebook apaga una AI luego de que inventase un lenguaje propio y horripilante‚ÄĚ agreg√≥ otro. ‚Äú¬ŅHemos creado a Frankenstein?‚ÄĚ se preguntaba otro. Un tabloide brit√°nico cit√≥ a un profesor en Rob√≥tica que dec√≠a que el incidente mostraba ‚Äúlos peligros de aferrarse a la inteligencia artificial‚ÄĚ y ‚Äúpodr√≠a ser letal‚ÄĚ que una tecnolog√≠a como esta sea introducida en robots militares.

Advertisement

No se hicieron esperar tambi√©n los vaticinios de la inminente llegada de la revoluci√≥n del robot, droides asesinos, inteligencias artificiales maliciosas y el exterminio de la humanidad ‚ÄĒalgunas predicciones m√°s serias que otras‚ÄĒ. Para reforzar este p√°nico, se citaba una conversaci√≥n en la que dos ‚Äėbots‚Äô de Facebook muestran haber aprendido a hablar entre ellos de una forma ciertamente espeluznante:

Bob: I can i i everything else

[Bob: Puedo yo yo todo lo dem√°s]

Alice: balls have zero to me to me to me to me to me to me to me to me to

[Alice: pelotas tienen cero para mí para mí para mí para mí para mí para mí para mí para mí para]

Bob: you i everything else

[Bob: t√ļ yo todo lo dem√°s]

Alice: balls have a ball to me to me to me to me to me to me to me to me

[Alice: pelotas tienen una pelota para mí para mí para mí para mí para mí para mí para mí para mí]

Advertisement

Sin embargo, la realidad resulta menos tenebrosa y m√°s prosaica. Hace pocas semanas, FastCo Design dio cuenta de los intentos de Facebook por desarrollar una ‚Äúred generativa adversaria‚ÄĚ con el fin de desarrollar un software de negociaci√≥n.

En un post publicado en junio en el blog de la unidad de Investigaci√≥n en Inteligencia Artificial de Facebook, se explica que los dos ‚Äúbots‚ÄĚ que conversan en el fragmento citado fueron dise√Īados con el fin de demostrar que es ‚Äúposible para agentes de di√°logo con diferentes objetivos (e implementados en su totalidad como redes neuronales entrenadas) participar en negociaciones con otros ‚Äúbots‚ÄĚ o personas y llegar a decisiones o acuerdos comunes.

Advertisement

La interfaz gráfica de usuario de un sistema de negociación. Crédito del GIF: Facebook AI Research

Los ‚Äúbots‚ÄĚ no hicieron m√°s que discutir entre ellos c√≥mo dividir una matriz de elementos dados (representada en la interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de una manera que el resultado fuese mutuamente aceptable.

La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. En ese sentido, el FAIR (equipo de investigación en AI de Facebook) afirma que tuvo éxito:

‚ÄúEl desempe√Īo del mejor agente de negociaci√≥n del FAIR, que hace uso de aprendizaje de refuerzo y despliegue de di√°logos, se asemeja al de los negociadores humanos‚Ķ lo que demuestra que los ‚Äėbots‚Äô del FAIR no solo hablan ingl√©s, sino que tambi√©n piensan de manera inteligente qu√© es lo que van a decir‚ÄĚ.

Advertisement

FastCo report√≥ que, cuando Facebook hizo que dos de estos semiinteligentes ‚Äúbots‚ÄĚ hablen entre ellos, los programadores cayeron en la cuenta de que cometieron un error: no haber incentivado a los chatbots a que se comuniquen seg√ļn las reglas de un ingl√©s comprensible para los humanos. En su intento por aprender el uno del otro, los ‚Äúbots‚ÄĚ conversaban entre ellos en abreviaturas que creaban ‚ÄĒque se ve perturbador, pero solo es eso‚ÄĒ.

‚ÄúLos agentes dejar√°n de lado el lenguaje comprensible e inventar√°n sus palabras en c√≥digo‚ÄĚ dijo el investigador visitante del FAIR, Dhruv Batra. ‚ÄúEs como si yo dijese ‚Äėel‚Äô cinco veces; t√ļ interpretar√≠as que quiero cinco copias de este √≠tem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas‚ÄĚ.

Advertisement

Es cierto que Facebook apag√≥ la IA, pero no porque entrasen en p√°nico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declar√≥ para FastCo que solo hab√≠an decidido que ‚Äúnuestro inter√©s era dise√Īar dos ‚Äėbots‚Äô que pudiesen hablar con la gente‚ÄĚ, no que lo hiciesen eficientemente entre ellos, as√≠ que decidi√≥ m√°s bien exigirles que se escriban entre ellos de forma legible.

Pero en mundo de telecomunicaciones no muy distinto de lo que los ‚Äúbots‚ÄĚ estaban haciendo, esta historia pas√≥ de ser un estudio controlado de las implicaciones a corto plazo de la tecnolog√≠a de aprendizaje en m√°quinas a convertirse en una esquizofr√©nica predicci√≥n apocal√≠ptica.

Advertisement

Hay buenas razones para no permitir que las m√°quinas inteligentes desarrollen su propio lenguaje, uno cuyo significado los humanos no ser√≠an capaces de entender. Sin embargo, los ‚Äúbots‚ÄĚ de Facebook solo son un ejemplo de lo que ocurre cuando a dos m√°quinas inteligentes se les permite aprender de la otra. Es m√°s, cuando las abreviaturas de los ‚Äúbots‚ÄĚ llegan a ser explicadas, la conversaci√≥n se hace m√°s comprensible y deja de ser espeluznante.

Como se√Īala FastCo, es possible que esta clase de m√°quinas permitan en el futuro que dispositivos o sistemas inteligentes se comuniquen entre ellos de manera m√°s eficiente. No obstante, esos beneficios podr√≠an traer algunos problemas ‚ÄĒimaginen cu√°n dif√≠cil debe ser depurar un sistema que funciona mal‚ÄĒ. Sin embargo, esos percances, por lo pronto, no tienen nada que ver con liberar una inteligencia artificial que termine controlando a toda la raza humana.

En este caso, lo √ļnico que los chatbots fueron capaces de hacer fue encontrar una forma m√°s eficiente de pasarse la pelota entre ellos.

Advertisement

La tecnología de aprendizaje automático puede ser muy beneficiosa. Por ejemplo, puede mejorar los diagnósticos médicos; sin embargo, también también tiene usos potencialmente nocivos, como el software de predicción de disturbios que la policía podría usar para justificar la represión en las protestas. Al fin y al cabo, se trata de compilar y analizar cantidades enormes de datos, y por el momento los riesgos recaen solo en cómo los humanos elegimos distribuir y manejar esa información.

Ojalá que seamos lo suficientemente listos como para no conectar programas experimentales de aprendizaje automático en campos que resulten realmente peligrosos, como un ejército de androides con armas láser o un reactor nuclear. Pero si alguien lo hace y se produce un desastre, será fruto de la negligencia y estupidez humana, y no porque los robots hayan tenido una revelación filosófica sobre cuán perversos somos los humanos.

Advertisement

Al menos no por ahora. El aprendizaje automático no está todavía cerca de la verdadera inteligencia artificial, sino que está dando sus primeros pasos. Sin embargo, si hay alguien que de verdad tiene razones para alarmarse con noticia como esta, serían los negociadores profesionales, quienes más pronto de lo que creen podrían quedarse sin trabajo. [Fastco Design]