Han pasado casi tres meses desde que los empleados de Google se enteraron de la decisi√≥n de la compa√Ī√≠a de desarrollar inteligencia artificial para un controvertido programa piloto militar conocido como Proyecto Maven. Ya son una docena larga los empleados que han dimitido en protesta por ello.

Las razones de los empleados que renuncian van desde preocupaciones éticas particulares sobre el uso de inteligencia artificial con fines bélicos hasta preocupaciones más amplias sobre las decisiones políticas de Google y la erosión de la confianza del usuario que podría derivarse de estas acciones.

Advertisement

Muchos de los empleados han escrito informes sobre su decisi√≥n de abandonar la empresa, y sus historias se han recopilado en un documento interno, cuyo contenido han sido descritos por varias fuentes a Gizmodo. Varios de ellos explican que los ejecutivos de la compa√Ī√≠a se han vuelto menos transparentes con sus empleados al hablar de decisiones comerciales controvertida. Tambi√©n parecen menos interesados ‚Äč‚Äčen escuchar las objeciones de los trabajadores como lo hac√≠an antes.

El objetivo de Google en Maven es acelerar el an√°lisis de secuencias tomadas por drones clasificando autom√°ticamente im√°genes de objetos y gente. Google est√° ayudando al Departamento de Defensa a implementar el aprendizaje autom√°tico para clasificar las im√°genes recopiladas por los drones. Sin embargo, algunos empleados creen que los humanos, y no los algoritmos, deben ser responsables de ese trabajo sensible y potencialmente letal, y que Google no deber√≠a involucrarse en ning√ļn tipo de proyecto militar.

Advertisement

Illustration: Jim Cooke (Foto: Getty)

Hist√≥ricamente, Google ha promovido una cultura abierta que alienta a los empleados a cuestionar y debatir las decisiones de la compa√Ī√≠a, pero algunos empleados sienten que su liderazgo ya no est√° tan atento a esas preocupaciones.

‚ÄúDurante los √ļltimos meses, he estado cada vez m√°s decepcionado con la respuesta y la forma en que se atienden y escuchan las preocupaciones del personal‚ÄĚ, explica uno de los empleados que renunci√≥.

Advertisement

Existe un precedente de renuncia de empleados que se tradujo en un cambio de pol√≠tica: en 2015, empleados y usuarios impugnaron con √©xito la prohibici√≥n de Google sobre contenido sexualmente expl√≠cito en Blogger. Con todo, esta es la primera renuncia masiva conocida en Google en protesta contra una decisi√≥n comercial de la compa√Ī√≠a

Adem√°s de las renuncias, casi 4.000 empleados de Google han expresado su oposici√≥n al Proyecto Maven en una petici√≥n interna que pide cancelar el contrato de inmediato y establecer una cl√°usula en contra de futuros trabajos similares. La creciente presi√≥n de los empleados parece haber hecho poco para influir en la decisi√≥n de Google. La compa√Ī√≠a ha defendido su trabajo en Maven y se cree que es uno de los principales candidatos por otro importante contrato de computaci√≥n en nube para el Pent√°gono. Se trata de una Infraestructura Conjunta de Defensa Empresarial, conocida como JEDI que actualmente est√° en licitaci√≥n.

Advertisement

Illustration: Pixabay

Las petciones de los empleados para que Google finalice su contrato con el Pent√°gono tambi√©n se complican por el hecho de que Google afirma que solo est√° proporcionando software de c√≥digo abierto a Project Maven. Eso significa que los militares podr√≠an seguir usando la tecnolog√≠a, incluso si Google no aceptara pago ni ofreciera asistencia t√©cnica. A√ļn as√≠, los empleados que renuncian creen que el trabajo de Google en Maven contradice los principios de buenas intenciones de la compa√Ī√≠a.

‚ÄúNo es que Google sea esa peque√Īa empresa de aprendizaje m√°quina que est√° tratando de encontrar clientes en diferentes industrias‚ÄĚ, aclara uno de los empleados que renunciaron. ‚ÄúGoogle deber√≠a mantenerse al margen de estos proyectos por una simple cuesti√≥n de reputaci√≥n‚ÄĚ. Muchos empleados de Google se enteraron por primera vez de que la empresa estaba trabajando en Maven cuando la noticia del controvertido proyecto comenz√≥ a extenderse internamente a finales de febrero. En aquel momento, un portavoz de Google explic√≥ a Gizmodo que la compa√Ī√≠a estaba en proceso de redactar ‚Äúpol√≠ticas de salvaguardia‚ÄĚ en torno al uso del aprendizaje autom√°tico. Aquel documento de pol√≠tica a√ļn no se ha materializado.

Advertisement

Un empleado explic√≥ que se prometi√≥ a los empleados de Google una actualizaci√≥n sobre la pol√≠tica de √©tica en unas pocas semanas, pero que el progreso parece estar bloqueado. Las preocupaciones √©ticas ‚Äúdeber√≠an haberse abordado antes de entrar en este contrato‚ÄĚ, a√Īade el empleado. Google ha enfatizado que su inteligencia artificial no se usa para matar, pero su aplicaci√≥n¬†en el programa de drones del Pent√°gono a√ļn plantea problemas √©ticos y morales complejos para los trabajadores de tecnolog√≠a y para los acad√©micos que estudian el campo del aprendizaje m√°quina.

Adem√°s de la petici√≥n que circula en Google, Tech Workers Coalition lanz√≥ su propia petici√≥n en abril exigiendo que Google abandone su trabajo en Maven y que otras grandes compa√Ī√≠as tecnol√≥gicas, incluidas IBM y Amazon, se nieguen a trabajar con el Departamento de Defensa de EE.UU. ‚ÄúYa no podemos ignorar los sesgos da√Īinos de nuestra industria y nuestras tecnolog√≠as, las infracciones a gran escala de la confianza y la falta de garant√≠as √©ticas‚ÄĚ, dice la petici√≥n. ‚ÄúYa se trata de apuestas de vida o muerte‚ÄĚ.

Más de 90 expertos en inteligencia artificial, ética y ciencias de la computación publicaron hoy una carta abierta que insta a Google a finalizar su trabajo en Project Maven y apoyar un tratado internacional que prohíba sistemas autónomos de armas.

Advertisement

Peter Asaro y Lucy Suchman, dos de los autores de la carta, han testificado ante Naciones Unidas sobre las armas aut√≥nomas. Un tercer autor, Lilly Irani, es profesor de ciencias y ex empleado de Google. Las contribuciones de la compa√Ī√≠a al Proyecto Maven podr√≠an acelerar el desarrollo de armas completamente aut√≥nomas, explica Suchman a Gizmodo. La carta dice:

Aunque Google tiene su sede en Estados Unidos, tiene la obligaci√≥n de proteger su base de usuarios global, y ese deber supera su alineaci√≥n con el ej√©rcito de cualquier naci√≥n. Si la √©tica por parte de compa√Ī√≠as tecnol√≥gicas requiere considerar qui√©nes pueden beneficiarse de una tecnolog√≠a y qui√©n puede verse perjudicados, ning√ļn tema merece un reflejo m√°s serio -ninguna tecnolog√≠a tiene mayor importancia- que los algoritmos destinados a matar a distancia y sin responsabilidad p√ļblica.

Google se ha volcado en el trabajo militar sin someter la decisi√≥n al debate p√ļblico o a la deliberaci√≥n, ya sea a nivel nacional o internacional. Es cierto que Google regularmente decide sobre el futuro de la tecnolog√≠a sin que ello deba suponer un compromiso p√ļblico democr√°tico, pero su entrada en las tecnolog√≠as militares pone de manifiesto los problemas del control privado de la infraestructura de la informaci√≥n.

Advertisement

Los ejecutivos de Google han hecho esfuerzos para defender Project Maven ante los empleados. En una reuni√≥n, poco despu√©s de que el proyecto se hiciera p√ļblico, la CEO de Google Cloud Diane Greene habl√≥ en apoyo de Project Maven. M√°s recientemente, Greene y otros empleados han organizado varias sesiones para debatir sobre el proyecto. Esas sesiones contaron con oradores que apoyaron y se opusieron a Maven, y destacaron la dificultad de redactar pol√≠ticas sobre el uso √©tico del aprendizaje autom√°tico

Existen otras preocupaciones de reputaci√≥n que tienen en cuenta los empleados que han tomado la decisi√≥n de abandonar Google. Las recientes torpezas pol√≠ticas de la compa√Ī√≠a, como su patrocinio de la Conferencia de Acci√≥n Pol√≠tica Conservadora y su lucha por abordar las preocupaciones sobre diversidad interna, tambi√©n han jugado un papel.

Advertisement

‚ÄúEn alg√ļn momento, me di cuenta de que no pod√≠a recomendar a nadie que se uniera a Google, sabiendo lo que sab√≠a. Me di cuenta de que si no puedo recomendar que la gente se una, ¬Ņpor qu√© sigo aqu√≠?‚ÄĚ, dice un empleado de Google que dimiti√≥.

‚ÄúTrat√© de recordarme a m√≠ mismo que las decisiones de Google no son mis decisiones. No soy personalmente responsable de todo lo que hacen, pero me siento responsable cuando veo algo en lo que deber√≠a intervenir‚ÄĚ, agrega otro.

Advertisement

Un portavoz de Google dijo en abril lo siguiente sobre el Proyecto Maven:

Una parte importante de nuestra cultura es tener empleados que participen activamente en el trabajo que hacemos. Sabemos que hay muchas preguntas abiertas involucradas en el uso de nuevas tecnologías, por lo que estas conversaciones -con empleados y expertos externos- son muy importantes y beneficiosas.

La tecnolog√≠a de Maven se usa para marcar im√°genes para revisi√≥n por parte de humanos y est√° destinada a salvar vidas y evitar que la gente tenga que realizar un trabajo sumamente tedioso. Cualquier uso militar del aprendizaje m√°quina naturalmente plantea preocupaciones v√°lidas. A medida que avanzamos en nuestras pol√≠ticas en torno al desarrollo y uso de nuestras tecnolog√≠as de aprendizaje m√°quina participamos activamente en toda la compa√Ī√≠a y con expertos externos en un debate exhaustivo sobre este importante tema.

Advertisement

En Google no han respondido a√ļn a nuestra solicitud de comentarios sobre estas renuncias. Mientras tanto, los empleados quieren ver resultados, ya sea en forma de una nueva pol√≠tica √©tica, en forma de un contrato cancelado, o ambos.

‚ÄúLas acciones hablan m√°s que las palabras, y ese es un est√°ndar al que tambi√©n me adscribo‚ÄĚ, puntualiza uno de los empleados que renunci√≥. ‚ÄúNo estaba contento simplemente con expresar mis preocupaciones de manera interna. Ten√≠a que hacer algo, y lo m√°s coherente¬†era irme‚ÄĚ.