Saltar al contenido
Tecnología

¿Entiende la IA como los humanos? MIT y Harvard crean una métrica que lo pone a prueba

Puede responder con fluidez, pero… ¿entiende realmente la inteligencia artificial cómo funciona el mundo? Investigadores del MIT y Harvard han creado una métrica que revela si los modelos de lenguaje construyen un “mapa mental” de la realidad o si solo imitan patrones.
Por

Tiempo de lectura 2 minutos

Comentarios (0)

Los asistentes virtuales y chatbots son cada vez más convincentes. Hablan, responden y hasta parecen razonar. Pero tarde o temprano se equivocan en algo básico, y nos preguntamos: ¿entienden de verdad o solo repiten lo aprendido? Una nueva investigación del MIT y Harvard busca responderlo con una métrica que mide si la IA comprende el mundo como los humanos o si su “inteligencia” es solo aparente.

Comprender no es lo mismo que repetir

Para un humano, entender implica captar causas y consecuencias. Si vemos el cielo encapotado, sabemos que puede llover porque entendemos el proceso meteorológico detrás. Las IA, en cambio, suelen limitarse a predecir el resultado correcto sin comprender las reglas del juego.

¿Entiende la IA como los humanos? MIT y Harvard crean una métrica que lo pone a prueba
© FreePik

El estudio probó a los modelos de lenguaje con un mapa virtual de calles, como si fueran taxistas. Cuando todo iba bien, su precisión era casi perfecta. Pero al bloquear apenas un 1% de las calles, la exactitud cayó en picado, de 100% a un 67%. La conclusión: la IA no entiende la ciudad, solo memoriza rutas.

Una métrica para separar loros de pensadores

El avance de MIT y Harvard consiste en evaluar si los modelos construyen un “modelo del mundo” interno, capaz de adaptarse a cambios inesperados. Es como diferenciar entre un loro que repite frases y un amigo que puede explicarte por qué algo ocurre.

Esta métrica permitirá diseñar sistemas más confiables y flexibles, capaces de reaccionar en ámbitos críticos como la medicina o la conducción autónoma, donde no basta con predecir: es vital comprender.

¿Entiende la IA como los humanos? MIT y Harvard crean una métrica que lo pone a prueba
© Pavel Danilyuk – Pexels

Hacia una IA más humana (y más segura)

Los investigadores subrayan que los modelos actuales brillan en fluidez, pero no en comprensión profunda. Identificar esa limitación es un paso clave para entrenar IA que “piensen” más como nosotros: captando causas, no solo efectos.

Este nuevo marco no significa que la IA ya entienda como un humano, pero sí abre un camino para medir y mejorar su inteligencia. Un camino hacia máquinas que no solo imiten, sino que realmente comprendan, haciendo su uso más seguro y útil en el futuro.

Fuente: Meteored.

Compartir esta historia

Artículos relacionados