Estoy seguro de que la inteligencia artificial será nuestra última ruina. Su potencial para acabar con la humanidad es algo en lo que he estado pensando y escribiendo durante la mayor parte de los últimos 20 años. Recibo muchas críticas por esto, pero la perspectiva de que la civilización humana sea extinguida por sus propias herramientas no debe ser ignorada.
Hay una objeción sorprendentemente común a la idea de que una superinteligencia artificial podría destruir nuestra especie, una objeción que encuentro ridícula. No es que la superinteligencia en sí sea imposible. No es que no podamos evitar que una máquina deshonesta nos arruine. Esta ingenua objeción propone, más bien, que una computadora muy inteligente simplemente no tendrá los medios o la motivación para acabar con la humanidad.
Pérdida de control y comprensión
Imagínese sistemas, ya sean biológicos o artificiales, con niveles de inteligencia iguales o mucho mayores que la inteligencia humana. Los cerebros humanos radicalmente mejorados (o incluso los cerebros de animales no humanos) podrían lograrse mediante la convergencia de la ingeniería genética, la nanotecnología, la tecnología de la información y la ciencia cognitiva, mientras que es probable que la inteligencia de las máquinas sea mayor que la humana a través de los avances en las ciencias de la computación, ciencias cognitivas y emulación de todo el cerebro.
Y ahora imagina si algo sale mal con uno de estos sistemas o si se utilizan deliberadamente como armas. Lamentablemente, probablemente no seremos capaces de contener estos sistemas una vez que surjan, ni podremos predecir la forma en que estos sistemas responderán a nuestras solicitudes.
“Esto es lo que se conoce como el problema de control”, explicó en un correo electrónico Susan Schneider, directora del Center for Future Mind y autora de Artificial You: AI and the Future of the Mind. “Es simplemente el problema de cómo controlar una IA que es mucho más inteligente que nosotros”.
Para las analogías, Schneider señaló el famoso escenario de los clips de papel, en el que un fabricante de clips de papel en posesión de una inteligencia artificial mal programada se propone maximizar la eficiencia de la producción de clips de papel. A su vez, destruye el planeta al convertir toda la materia de la Tierra en clips, una categoría de riesgo denominada “instanciación perversa” por el filósofo de Oxford Nick Bostrom en su libro de 2014 Superintelligence: Paths, Dangers, Strategies. O más simplemente, está la vieja historia del genio mágico, en la que la concesión de tres deseos “nunca sale bien”, dijo Schneider. La preocupación general, aquí, es que le diremos a una superinteligencia que haga algo y, debido a que no obtuvimos los detalles del todo bien, malinterpretará gravemente nuestros deseos, lo que resultará en algo que no pretendíamos.
Por ejemplo, podríamos solicitar un medio eficiente para extraer energía solar, lo que provocaría que una superinteligencia usurpara los recursos de todo nuestro planeta para construir una matriz solar masiva. Pedirle a una superinteligencia que “maximice la felicidad humana” podría obligarla a reconfigurar los centros de placer de nuestro cerebro o cargar cerebros humanos en una supercomputadora, obligándonos a experimentar perpetuamente un ciclo de cinco segundos de felicidad por la eternidad, como especula Bostrom. Una vez que aparece una superinteligencia artificial, la fatalidad podría llegar de formas extrañas e inesperadas.
Eliezer Yudkowsky, un teórico de la IA en el Instituto de Máquinas para la Inteligencia Artificial, piensa en la superinteligencia artificial como procesos de optimización, o un “sistema que alcanza pequeños objetivos en grandes espacios de búsqueda para producir efectos coherentes en el mundo real”, como escribe en su ensayo “Artificial Intelligence as a Positive and Negative Factor in Global Risk”. El problema es que estos procesos tienden a explorar un amplio espacio de posibilidades, muchas de las cuales no podríamos imaginar. Como escribió Yudkowski:
Estoy de visita en una ciudad lejana y un amigo local se ofrece como voluntario para llevarme al aeropuerto. No conozco el barrio. Cuando mi amigo llega a una intersección de calles, no puedo predecir los giros de mi amigo, ya sea individualmente o en secuencia. Sin embargo, puedo predecir el resultado de las acciones impredecibles de mi amigo: llegaremos al aeropuerto. Incluso si la casa de mi amigo estuviera ubicada en otro lugar de la ciudad, de modo que mi amigo hiciera una secuencia de giros completamente diferente, predeciría con la misma confianza nuestro destino. ¿No es esta una situación extraña, científicamente hablando? Puedo predecir el resultado de un proceso, sin poder predecir ninguno de los pasos intermedios del proceso.
Divorciada de los contextos humanos e impulsada por su programación basada en objetivos, una máquina podría infligir daños colaterales considerables al intentar pasar de A a B. De manera sombría, una IA también podría usar y abusar de un poderoso recurso preexistente, los humanos, cuando intenta lograr su objetivo, y de formas que no podemos predecir.
Una IA programada con un conjunto predeterminado de consideraciones morales puede evitar ciertos escollos, pero como señala Yudkowski, será casi imposible para nosotros predecir todos los caminos posibles que podría seguir una inteligencia.
Una posible solución al problema del control es imbuir una superinteligencia artificial con códigos morales compatibles con los humanos. Si pudiéramos lograr esto, una máquina poderosa se abstendría de causar daño o de hacer sus negocios de una manera que viole nuestra sensibilidad moral y ética, de acuerdo con esta línea de pensamiento. El problema, como señaló Schneider, es que para que podamos “programar en un código moral, necesitamos una buena teoría moral, pero hay mucho desacuerdo al respecto en el campo de la ética”, dijo.
Buen punto. La humanidad nunca ha producido un código moral común en el que todos puedan estar de acuerdo. Y como puede decirle cualquiera que tenga un conocimiento rudimentario del problema del tranvía, la ética puede volverse muy complicada rápidamente. Esta idea, de que podemos hacer que la superinteligencia sea segura o controlable enseñándole la moralidad humana, probablemente no funcione.
Modos y medios
“Si pudiéramos predecir lo que hará una superinteligencia, seríamos así de inteligentes nosotros mismos”, explicó Roman Yampolskiy, profesor de informática e ingeniería en la Universidad de Louisville. “Por definición, la superinteligencia es más inteligente que cualquier humano y, por lo tanto, encontrará una solución desconocida para lograr” los objetivos que le asignamos, ya sea diseñar un nuevo medicamento para la malaria, diseñar estrategias en el campo de batalla o Red energética local. Dicho esto, Yampolskiy cree que podríamos predecir las acciones malignas de una superinteligencia al observar ejemplos de lo que un humano inteligente podría hacer para apoderarse del mundo o destruir a la humanidad.
“Por ejemplo, una solución al problema del plegamiento de proteínas”, es decir, usar una secuencia de aminoácidos para determinar la forma tridimensional de una proteína, “podría usarse para crear un ejército de nanobots biológicos”, dijo. “Por supuesto, se podrían usar muchos métodos menos sexys. La IA podría negociar acciones, jugar al póquer o escribir, y usar sus ganancias para pagar a las personas para que cumplan sus órdenes. Gracias a la reciente proliferación de criptomonedas, esto podría hacerse de forma secreta y a gran escala”.
Con suficientes recursos financieros, sería fácil adquirir recursos computacionales de la nube, dijo, e impactar el mundo real a través de la ingeniería social o, como dijo Yampolskiy, el reclutamiento de un “ejército de trabajadores humanos”. La superinteligencia podría volverse cada vez más poderosa e influyente a través de la adquisición de riqueza, potencia de CPU, capacidad de almacenamiento y alcance.
Curiosamente, una superinteligencia podría llegar a ciertos juicios sobre cómo actuar fuera de nuestras solicitudes, como explicó Manuel Alfonseca, informático de la Universidad Autónoma de Madrid en España.
Una superinteligencia artificial podría “llegar a la conclusión de que el mundo sería mejor sin seres humanos y destruirnos”, dijo, y agregó que algunas personas citan esta sombría posibilidad para explicar nuestra incapacidad para localizar inteligencias extraterrestres; quizás “todos ellos han sido reemplazados por IA superinteligentes que no están interesados en contactarnos, como una forma de vida inferior”, dijo Alfonseca.
Para una superinteligencia artificial que intenta la destrucción deliberada de la humanidad, la explotación de nuestras debilidades biológicas representa su camino más simple hacia el éxito. Los seres humanos pueden sobrevivir aproximadamente 30 días sin comida y alrededor de tres a cuatro días sin agua, pero solo duramos unos minutos sin oxígeno. Una máquina con suficiente inteligencia probablemente encontraría una manera de aniquilar el oxígeno en nuestra atmósfera, lo que podría hacer con algún tipo de enjambre nanotecnológico autorreplicante. Lamentablemente, los futuristas tienen un término para una estrategia como esta: ecofagia global o el temido “escenario de la sustancia pegajosa gris”. En tal escenario, flotas de máquinas moleculares diseñadas deliberadamente buscarían recursos específicos y los convertirían en otra cosa, incluidas copias de sí mismas. Este recurso no tiene que ser oxígeno, solo la eliminación de un recurso clave crítico para la supervivencia humana.
Ciencia no ficción
Todo esto suena muy de ciencia ficción, pero Alfonseca dijo que la ficción especulativa puede ser útil para resaltar los riesgos potenciales, refiriéndose específicamente a The Matrix. Schneider también cree en el poder de las narrativas de ficción, apuntando al cortometraje distópico Slaughterbots, en el que drones autónomos armados invaden un aula. Las preocupaciones sobre la IA peligrosa y el aumento de las máquinas de matar autónomas se centran cada vez más en el “aquí y ahora”, dijo Schneider, en el que, por ejemplo, las tecnologías de drones pueden aprovechar el software de reconocimiento facial existente para apuntar a las personas. “Esta es una gran preocupación”, dijo Schneider, lo que hace que Slaughterbots sea una visualización esencial en su opinión.
El investigador de aprendizaje automático del MIT, Max Tegmark, dice que producciones como The Terminator, aunque presenta escenarios vagamente posibles, “distrae de los riesgos y oportunidades reales que presenta la IA”, como escribió en su libro de 2017 Life 3.0: Being Human in the Age of Artificial Intelligence. Temark imagina escenarios más sutiles e incluso más insidiosos, en los que una inteligencia artificial se apodera del mundo a través de ingeniosos subterfugios y ingeniería social y la colección constante de recursos valiosos. En su libro, Tegmark describe “Prometheus”, una hipotética inteligencia artificial general (AGI) que usa su inteligencia adaptativa y versatilidad para “controlar a los humanos de diversas formas”, y aquellos que se resisten no pueden “simplemente apagar Prometheus”.
Por sí solo, el advenimiento de la inteligencia artificial general está destinado a ser monumental y probablemente un punto de inflexión en la historia de la humanidad. Una inteligencia artificial general “sería lo suficientemente capaz de diseñar de forma recursiva una AGI cada vez mejor que, en última instancia, sólo está limitada por las leyes de la física, que parecen permitir la inteligencia mucho más allá de los niveles humanos”, escribe Tegmark. En otras palabras, se podría utilizar una inteligencia artificial general para inventar la superinteligencia. La era correspondiente, en la que seríamos testigos de una “explosión de inteligencia”, podría dar lugar a algunos resultados seriamente indeseables.
“Si un grupo de humanos logra controlar una explosión de inteligencia, es posible que pueda dominar el mundo en cuestión de años”, escribe Temark. “Si los humanos no logran controlar una explosión de inteligencia, la propia IA puede apoderarse del mundo aún más rápido”.
Siempre espectadores
Otra vulnerabilidad clave tiene que ver con la forma en que los seres humanos son cada vez más excluidos del circuito tecnológico. Es famoso que los algoritmos ahora son responsables de la mayor parte del volumen de comercio de acciones, y quizás de manera más infame, los algoritmos ahora son capaces de derrotar a los pilotos humanos de F-16 en combates aéreos. Cada vez más, se les pide a las IA que tomen grandes decisiones sin intervención humana.
A Schneider le preocupa que “ya haya una carrera armamentista de IA en el ejército” y que “la creciente dependencia de la IA haga que las capacidades cognitivas y perceptivas humanas sean incapaces de responder a los desafíos militares de una manera lo suficientemente rápida”. Necesitaremos que la IA lo haga por nosotros, pero no está claro cómo podemos seguir manteniendo a los humanos informados, dijo. Es concebible que las IA eventualmente tengan que responder en nuestro nombre cuando se enfrenten a ataques militares, antes de que tengamos la oportunidad de sintetizar los datos entrantes, explicó Schenider.
Los seres humanos son propensos a cometer errores, especialmente cuando están bajo presión en el campo de batalla, pero los errores de cálculo o los juicios erróneos realizados por una IA introducirían una capa adicional de riesgo. Me viene a la mente un incidente de 1983, en el que un sistema de alerta temprana soviético casi resultó en una guerra nuclear.
El autor de ciencia ficción Isaac Asimov lo vio venir, ya que los robots de sus novelas, a pesar de estar limitados por las Tres leyes de la robótica, se metieron en todo tipo de problemas a pesar de nuestros mejores esfuerzos. Podrían surgir problemas similares si intentáramos hacer algo análogo, aunque, como señaló Schneider, será difícil ponerse de acuerdo sobre un código moral para guiar a nuestros hermanos electrónicos.
Sin embargo, no tenemos más remedio que intentarlo. Encogernos de hombros ante la derrota no es realmente una opción, dado lo que está en juego. Como sostiene Bostrom, nuestra “sabiduría debe preceder a nuestra tecnología”, de ahí su frase, “filosofía con fecha límite”.
Lo que está en juego es una serie de desastres potenciales en todo el planeta, incluso antes del inicio de la superinteligencia artificial. Y los humanos claramente apestamos al lidiar con catástrofes globales; eso se ha vuelto obvio.
Hay muy poca inteligencia para el SARS-CoV-2 y sus variantes problemáticas, pero este virus funciona de forma pasiva explotando nuestras vulnerabilidades, ya sean de naturaleza biológica o social. El virus que causa el covid-19 puede adaptarse a nuestras contramedidas, pero solo a través de los procesos de mutación y selección aleatorias, que invariablemente están sujetos a las limitaciones de la biología. Más inquietantemente, una IA maligna podría diseñar su propio virus de “bajo coeficiente intelectual” y modificarlo continuamente para crear nuevas variantes mortales en respuesta a nuestras contramedidas.
Yampolskiy dijo esto durante los primeros días de la pandemia:
Lamentablemente, no hay escasez de formas para que la superinteligencia artificial acabe con la civilización humana tal como la conocemos, no mediante la fuerza bruta simplista, sino de una manera más eficaz, a través del auto diseño adaptativo, la conciencia situacional mejorada y reflejos computacionales ultrarrápidos. ¿Es posible entonces crear una IA que sea segura, beneficiosa y basada en la ética? La única opción puede ser una prohibición a escala global del desarrollo de IA casi superinteligente, lo cual es poco probable pero probablemente necesario.