Cuando pensamos en inteligencia artificial, solemos imaginar máquinas ultrarrápidas capaces de resolver cualquier problema. Sin embargo, un experimento reciente con un famoso videojuego de los 90 desafía esta idea. ¿Puede una IA desenvolverse en un entorno diseñado para niños? El resultado deja claro que aún estamos lejos de una inteligencia realmente autónoma.

Una misión simple que reveló grandes carencias
Entrenar una IA no consiste simplemente en enseñarle datos; implica guiarla para que aprenda a razonar. Aunque modelos como ChatGPT dominan tareas complejas de redacción, cálculo o búsqueda, todavía fallan al enfrentarse a problemas fuera de su zona de confort. Un ejemplo inesperado lo encontramos en un clásico de Nintendo: Pokémon Rojo.
Un grupo de investigadores decidió usar este videojuego como campo de pruebas para una IA llamada DreamerV3. El objetivo era alcanzar la tercera ciudad del juego, Ciudad Celeste. Mientras que un jugador humano puede lograrlo en una hora —o incluso media si sabe a dónde ir—, la IA tardó 50 horas. Sin ayuda ni conocimientos previos, tuvo que aprender desde cero mediante prueba y error.
Lo más revelador es que el reto no era ganar combates, sino simplemente desplazarse por el mundo del juego, entender menús, interactuar con personajes y tomar decisiones. La IA no reconocía mapas, ni sabía que un dibujo de puerta significaba “puedes entrar”. Cada acción implicó un descubrimiento.
¿Por qué un juego infantil fue tan difícil para una IA?
La clave está en la diferencia entre memoria y razonamiento. Un modelo de IA puede memorizar millones de partidas de ajedrez y calcular la jugada perfecta. Pero ante un entorno abierto, donde hay que explorar, identificar patrones visuales, elegir entre múltiples opciones y adaptarse sin instrucciones explícitas, sufre. Pokémon fue diseñado para que incluso niños sin experiencia pudieran avanzar con intuición, pero DreamerV3 necesitó cientos de intentos para descubrir cómo interactuar con el entorno.
Además, el juego implica tomar decisiones estratégicas: qué criaturas atrapar, qué ataques usar, cómo combinar tipos. Entender que un ataque poderoso puede fallar, o que ciertas habilidades son necesarias para avanzar, exige un razonamiento más profundo que la mera reproducción de datos.

El verdadero reto: pensar, no imitar
Este experimento refuerza la idea de que muchas IA funcionan como estudiantes que memorizan sin entender. En contextos como la conducción autónoma o la asistencia médica, esa diferencia puede ser crucial. Una IA no puede simplemente aprender de millones de errores: en el mundo real, a veces solo hay una oportunidad.
Si queremos modelos verdaderamente inteligentes, necesitamos que desarrollen intuición, no solo análisis. Pokémon, con su apariencia infantil, se convierte así en una prueba sorprendente para un futuro donde la IA debe ser mucho más que un buen imitador. ¿La mejor que habrá jamás? Solo si primero aprende a jugar como un ninguno.
Fuente: National Geographic.