El mundo avanza a gran velocidad hacia una inevitable distopía impulsada por la inteligencia artificial en un futuro muy cercano, según Mo Gawdat, exdirector de negocios de la división de proyectos experimentales de Alphabet, conocida anteriormente como Google X.
“Tenemos que prepararnos para un mundo que será muy diferente”, dijo Gawdat en una entrevista para el pódcast Diary of a CEO, señalando que valores humanos fundamentales como la libertad, la conexión humana, la responsabilidad, la realidad y el poder están siendo profundamente alterados por la IA.
Y esa distopía no está lejana: ya empezamos a ver señales desde el año pasado y, según Gawdat, se intensificarán el próximo. El inicio de esta etapa oscura llegaría en 2027 y duraría entre 12 y 15 años.
El exejecutivo de Google no siempre pensó así. Fue la velocidad con la que se están desarrollando las tecnologías de IA lo que lo llevó a cambiar de opinión, convenciéndolo de que esta distopía a corto plazo es inevitable.
“Está completamente en nuestras manos cambiar eso, pero debo decir que no creo que la humanidad tenga ahora la conciencia necesaria para concentrarse en ello”, afirmó.
No obstante, Gawdat asegura que la IA no es necesariamente la causa principal de esta distopía, y menos en la forma en que la mayoría la imagina —como un riesgo existencial en el que la IA toma el control total—. Más bien, la considera un amplificador de problemas sociales ya existentes y de “nuestras estupideces como humanos”.
“No hay absolutamente nada malo con la IA”, dijo. “Hay mucho que está mal con el conjunto de valores de la humanidad en la era del auge de las máquinas.”
Apuntando a una utopía, pero obteniendo una distopía
La inteligencia artificial no fue creada para dar paso a una distopía; su misión inicial era más bien utópica. Al automatizar tareas repetitivas, la IA podría reducir la carga de trabajo de millones de personas en todo el mundo, devolviéndoles tiempo sin sacrificar productividad.
Sin embargo, en un mundo dominado por un valor por encima de todos —el capitalismo—, ese sueño se ha visto distorsionado por la búsqueda implacable de beneficios. Algunos expertos sostienen que la disrupción del mercado laboral por parte de la IA ya ha comenzado, transformando la forma en que entendemos el trabajo. En lugar de aliviar tareas, muchas empresas están utilizando la IA para maximizar la productividad despidiendo personal, reduciendo contrataciones o exigiendo más a los trabajadores actuales.
Según Gawdat, no es casualidad. Cree que toda tecnología amplifica las capacidades y valores humanos existentes, y el valor predominante de la humanidad hoy es el capitalismo.
Este desfase entre las intenciones iniciales y las consecuencias negativas no es nuevo. “¿Con qué frecuencia las redes sociales nos conectaron y con qué frecuencia nos hicieron más solitarios? ¿Con qué frecuencia los teléfonos móviles nos hicieron trabajar menos? Esa era la promesa, las primeras publicidades de Nokia, con gente en fiestas… ¿es esa tu experiencia con los teléfonos móviles?”, preguntó.
“El mal que el hombre puede hacer”
Otro aspecto que la IA intensificará fuera de control, según Gawdat, es “el mal que el hombre puede hacer”.
Los titulares del último año ofrecen múltiples ejemplos: desde pornografía deepfake generada por IA hasta su uso en armamento autónomo y aplicaciones militares para aumentar la letalidad. Esta semana, por ejemplo, el chatbot Grok de Elon Musk presentó una nueva función de generación de imágenes y videos, utilizada principalmente para crear representaciones sexualizadas de mujeres basadas en fantasías masculinas.
Las estafas potenciadas por IA, y en particular las estafas cripto con deepfakes —algo contra lo que el propio CEO de OpenAI, Sam Altman, había advertido—, se han disparado. Un informe de TRM Labs reveló que los fraudes con criptomonedas aumentaron un 456 % el último año gracias a esta tecnología. Expertos en armamento nuclear también advierten que la IA podría integrarse pronto en sistemas nucleares.
Además, la IA está perfeccionando métodos de vigilancia pública a gran escala. En un mundo con “una concentración masiva de poder”, como describe Gawdat, esto es especialmente preocupante. Ejemplo de ello es la infraestructura de vigilancia masiva en China. Y no es solo un problema extranjero: el gobierno de Estados Unidos ya utiliza IA para monitorear redes sociales de inmigrantes y viajeros que buscan entrar al país.
No todo es malo, pero hay trabajo por hacer
Pese a todo, la IA también impulsa cambios positivos significativos. Ha acelerado descubrimientos científicos y avances, especialmente en medicina e investigación farmacéutica.
Gawdat cree que un uso utópico de la IA es posible gracias a este tipo de desarrollos. Pero antes, la humanidad debe enfrentar sus riesgos y defectos.
“La visión más amplia es presionar a los gobiernos para que entiendan que hay un límite en el que la gente seguirá en silencio”, dijo, agregando que deberían regular el uso de la IA más que la IA en sí misma.
“No puedes diseñar un martillo para que clave clavos pero no pueda matar a nadie; pero sí puedes criminalizar el asesinato con un martillo”, explicó.
El martillo de la IA ya está en nuestras manos y ha llegado para quedarse. La única pregunta es si tendremos la voluntad de escribir las leyes que prohíban su mal uso.