Las promesas de la inteligencia artificial parecen no tener techo, pero en la práctica empiezan a surgir dudas sobre hasta dónde pueden llegar. Un reciente estudio de Apple pone en tela de juicio la fiabilidad de los modelos más avanzados cuando se enfrentan a desafíos de razonamiento profundo. El debate está servido y, con él, una posible guerra entre gigantes tecnológicos.
Una supuesta inteligencia que tropieza con lo complejo
El informe, publicado por Apple Research, pone el foco en los llamados large reasoning models (LRM), sistemas de IA diseñados para resolver tareas que requieren múltiples pasos lógicos. Al analizar su comportamiento ante acertijos cada vez más difíciles, los investigadores detectaron un patrón preocupante: cuanto mayor es la dificultad, peor es el rendimiento.

Según el estudio, los modelos no solo no mejoran con las pistas adecuadas, sino que a veces rinden peor que sistemas menos sofisticados. En lugar de esforzarse más, parecen “rendirse” ante los retos más arduos. Detrás de esta crítica, muchos ven también una jugada estratégica: Apple busca posicionarse frente a sus competidores —como OpenAI y Google— y marcar territorio en el desarrollo de IA.
El espejismo del pensamiento: ¿responden o simplemente imitan?
Apple sostiene que el razonamiento aparente de estas IAs es solo una simulación elegante: no piensan, asocian. Pueden seguir patrones conocidos, pero no aplicar reglas cuando se requiere lógica formal. El caso de la Torre de Hanoi lo ilustra: aunque se les da la solución paso a paso, los modelos optan por rutas incorrectas, hasta que simplemente abandonan.
Estos fallos recuerdan sesgos cognitivos humanos, como la ilusión de validez: tomar decisiones erróneas con excesiva confianza solo porque algo “parece correcto”. El problema, entonces, no estaría solo en los datos de entrenamiento, sino en cómo están diseñados estos sistemas para “aprender”.
¿Cómo evitar que colapsen al pensar?

El estudio identifica tres causas clave del fracaso:
-
El uso excesivo de patrones ya aprendidos.
-
Una lógica rígida que impide adaptarse.
-
La tendencia a priorizar respuestas rápidas en lugar de correctas.
Todo esto lleva a sistemas que funcionan bien en contextos familiares, pero se estrellan frente a lo desconocido. Algunos expertos proponen revisar las arquitecturas neuronales o introducir lógica simbólica, mientras otros insisten en enseñar reglas explícitas desde el inicio.
¿Una advertencia para el futuro de la IA?
Más allá del estudio, el debate se intensifica: si estas IAs no pueden enfrentarse a problemas complejos, ¿qué pasará en áreas críticas donde el error no es una opción? La metáfora del colapso no es trivial: no se trata solo de fallar, sino de desistir. Un límite inesperado en una carrera que parecía no tener fin.
Quizás ha llegado el momento de dejar de aplaudir patrones bien aprendidos y empezar a construir verdaderos sistemas capaces de razonar con rigor, como lo hacen los humanos en la ciencia o las matemáticas.
Fuente: Meteored.