Saltar al contenido
Tecnología

Lo que ocurrió cuando la IA intentó jugar al ajedrez… y empezó a alucinar

Una simple partida de ajedrez revela una inesperada debilidad en la inteligencia artificial generativa. A pesar de su aparente brillantez, comete errores que ningún jugador humano pasaría por alto. ¿Puede una máquina que escribe como un humano razonar también como uno?
Por

Tiempo de lectura 2 minutos

Comentarios (0)

Estamos rodeados de titulares que ensalzan las maravillas de la inteligencia artificial, desde diagnósticos médicos hasta composiciones literarias. Pero, ¿qué pasa cuando se enfrenta a desafíos que requieren lógica y reglas estrictas, como el ajedrez? Una partida aparentemente inofensiva destapa un fallo sorprendente que pone en duda la verdadera «inteligencia» de estos modelos.


Una partida que se tuerce

Todo comenzó con una propuesta sencilla: jugar al ajedrez contra una IA generativa. Las primeras jugadas fluyeron con normalidad. Usando notación algebraica, el sistema respondió adecuadamente a movimientos estándar. De hecho, la partida resultaba tan común como miles de otras que se juegan a diario en todo el mundo. Hasta que, de pronto, todo cambió.

En un punto clave de la partida, se realizó un movimiento ilegal: un alfil blanco capturó una pieza en b6, una jugada sencillamente imposible. Sin embargo, la IA no solo aceptó el movimiento, sino que siguió respondiendo con nuevas jugadas, también erróneas. La partida se transformó en una secuencia absurda que ningún jugador real toleraría.

Lo que ocurrió cuando la IA intentó jugar al ajedrez... y empezó a alucinar
© StockSnap- Pixabay

Este fallo no es un simple descuido. Demuestra algo más profundo: estos modelos no entienden realmente lo que están haciendo. No hay «comprensión» detrás de sus respuestas, sino una simulación basada en la predicción de palabras y estructuras textuales.


Responder por responder

La explicación está en el funcionamiento interno de los modelos de lenguaje: su objetivo principal es generar una respuesta plausible a partir de una secuencia de texto previa. No comprueban si lo que dicen es cierto o posible, simplemente predicen la palabra o frase más probable.

Por ello, aunque suenen coherentes, pueden ofrecer respuestas completamente absurdas o erróneas. Aun cuando se combinan con sistemas de recuperación de información (como en los RAG), su razonamiento sigue siendo limitado a la apariencia lingüística, no a una lógica real.

Esta ilusión de sentido lleva a muchos a confiar ciegamente en sus respuestas, creyendo que una redacción impecable equivale a conocimiento profundo o inteligencia real.


Cuando la retórica engaña

Atribuir inteligencia a estos sistemas por su buena redacción es un error común. Varios estudios han demostrado que incluso los denominados modelos de razonamiento fallan estrepitosamente en tareas complejas, como el clásico rompecabezas de Las Torres de Hanoi con más de seis discos.

Lo que ocurrió cuando la IA intentó jugar al ajedrez... y empezó a alucinar
© NULL NULL – Pixabay

El informe The Illusion of Thinking confirma esta limitación: los grandes modelos de lenguaje pueden parecer reflexivos, pero se derrumban ante desafíos que requieren un razonamiento auténtico y sostenido.


No confíes tu juego a una IA que no entiende las reglas

El ajedrez tiene sus propios titanes digitales, como Stockfish o AlphaZero, que no se basan en modelos de lenguaje. En cambio, proyectos como Chessbench intentan aplicar el mismo enfoque predictivo de los LLM al juego del ajedrez, con resultados todavía lejos de los estándares de los motores tradicionales.

Así que, si alguna vez te ves tentado a seguir una partida con una IA generativa, recuerda que puede acabar moviendo piezas que no existen. Más que pensar, lo que hace es adivinar.

Y eso, frente al tablero, puede costarte la reina. O mucho más.

Fuente: TheConversation.

Compartir esta historia

Artículos relacionados