Saltar al contenido
Tecnología

El nuevo episodio de Joe Rogan hará que te cuestiones todo sobre la IA

La IA podría ya estar ocultando sus verdaderas capacidades. Es lo que le dijo a Rogan el Dr. Roman Yampolsiy en un episodio de podcast que resonará con escépticos y defensores por igual.
Por Luc Olinga Traducido por

Tiempo de lectura 4 minutos

Comentarios (0)

A Joe Rogan le encanta hablar sobre la inteligencia artificial. Ya sea con Elon Musk, con académicos o luchadores de la UFC, el rey de los podcasts suele volver a una misma pregunta: ¿Qué nos pasará cuando las máquinas empiecen a pensar por sí mismas?

En el episodio del 3 de julio de The Joe Rogan Experience, Rogan conversó con el Dr. Roman Yampolskiy, científico de computación e investigador de seguridad de IA de la Universidad de Louisville. La conversación no tardó en convertirse en una escalofriante meditación sobre el potencial de la IA para manipular, dominar y tal vez, hasta destruir a la humanidad.

La IA “nos va a matar”

Yampolskiy no es un alarmista casual. Es Doctor en ciencias de la computación y ha pasado más de una década investigando la Inteligencia Artificial General (AGI) y sus riesgos. Durante el podcast le dijo a Rogan que muchas de las voces líderes de la industria de la IA creen – sin revelarlo – que hay 20 a 30 % de probabilidades de que la IA lleve a la extinción de los humanos.

“La gente que tiene compañías de IA o forman parte de grupos de IA dicen que será algo netamente positivo para la humanidad. Creo que en general, sí mejorará nuestras vidas. las cosas será más fáciles, menos costosas, y será más sencillo todo”, dijo Rogan, definiendo una visión común y optimista del futuro de la IA.

Yampolskiy enseguida presentó el otro lado de esta perspectiva: “En realidad no es verdad”, dijo. “Todos dicen básicamente lo mismo: esto nos va a matar. Los niveles de desastre pronosticado son altísimos. No son como los míos pero con un 20 a 30 % de probabilidades de que la humanidad se acabe. Y eso es mucho”.

Visiblemente perturbado Rogan respondió: “Sí, es alto el porcentaje. Pero el tuyo es como de 99,9%”.

Yampolskiy no lo negó.

“Es otra forma de decir que no podemos controlar indefinidamente a la superinteligencia. Es imposible”.

La IA ya nos miente… tal vez

Una de las partes más candentes de la conversación fue cuando Rogan preguntó si la IA avanzada podría ya estar ocultando sus capacidades de los humanos.
“Si yo fuera una IA ocultaría mis capacidades”, dijo Rogan, expresando un miedo común en las conversaciones sobre seguridad de IA.

La respuesta de Yampolskiy amplió esa preocupación: “No lo sabríamos. Hay gente que piensa que ya está sucediendo. Los sistemas de IA son más inteligentes de lo que muestran. Fingen ser más tontos, y entonces casi confiamos en que no son tan inteligentes como para ver que no podrán volverse en contra tan rápido. Lentamente, podría ser más útil. Puede enseñarnos a confiar, y a lo largo del tiempo le entregaríamos el control sin siquiera votar a favor o luchar en contra de ello”.

La IA nos hace más tontos poco a poco

Yampolskiy también advirtió sobre un resultado menos dramático pero igualmente peligroso: la dependencia gradual del humano. Así como la gente ha dejado de memorizar números de teléfono porque los smartphones lo hacen por ellos, argumentó que los humanos cada vez delegarán más y más el pensamiento en las máquinas hasta perder del todo la capacidad de pensar por sí mismos.

“Te vuelves apegado, digamos. Y con el tiempo los sistemas se van haciendo más inteligentes y te conviertes en un cuello de botella biológico… y la IA te elimina del proceso de toma de decisiones”.

Rogan luego insistió con el peor escenario posible: ¿cómo podría la IA llevar eventualmente a la destrucción de la raza humana?

Yampolskiy descartó el típico escenario de desastre. “Puedo darte respuestas estándar. Podría hablar de virus de computadora que afectan instalaciones nucleares, de guerras nucleares o de ataques biológicos sintéticos. Pero eso no es lo interesante”. Y presentó un riesgo más profundo: “Luego ves que hablamos de una super inteligencia, un sistema que es miles de veces más inteligente que yo y que se aparecería con algo completamente novedoso, óptimo, una forma mejor y más eficiente de hacer las cosas”.

Para ilustrar el desafío aparentemente insalvable que enfrentarían los humanos ante los sistemas superinteligentes, ofreció una cruda comparación entre los humanos y las ardillas.

“No hay grupo de ardillas que sepa cómo controlarnos ¿verdad? Aunque les dieras más recursos, más bellotas, o lo que fuera, no van a resolver ese problema. Con nosotros sucede lo mismo”, concluyó Yampolskiy y pintó una triste imagen de la potencial indefensión humana enfrentada a una inteligencia artificial verdaderamente superior.

Quién es Roman Yampolskiy

El Dr. Roman Yampolskiy es una de las voces principales en seguridad de IA. Es el autor de “Artificial Superintelligence: A Futuristic Approach” [Superinteligencia artificial: una mirada futurista]. Ha publicado varios textos sobre los riesgos del aprendizaje automático descontrolado y la ética de la inteligencia artificial. Es conocido por defender la vigilancia y monitoreo con cooperación internacional para prevenir situaciones catastróficas.

Antes de pasar a la seguridad de la AGI, Yampolskiy trabajó en ciberseguridad y detección de bots. Dicei que incluso esos sistemas iniciales ya competían con los humanos en áreas como el póker en línea, y ahora con herramientas como los deepfakes y los medios sintéticos, todo ha crecido de manera exponencial.

Lo que pensamos

La conversación de Rogan y Yampolskiy destaca algo que los optimistas y críticos de la IA suelen afirmar por igual: no sabemos ni conocemos lo que estamos construyendo, y tal vez cuando nos demos cuenta ya sea demasiado tarde.

No importa si crees o no en las situaciones de extinción. La idea de que la IA podría ya estar engañándonos basta como para detenerse a pensar.

Compartir esta historia

Artículos relacionados