Saltar al contenido
Tecnología

La IA acaba de cruzar una frontera que muchos creían exclusivamente humana. Ya no solo usa lenguaje: ahora también empieza a analizarlo como nosotros

Un nuevo estudio sugiere que al menos un modelo de lenguaje ya puede razonar sobre gramática, ambigüedad y reglas lingüísticas inventadas a un nivel sorprendentemente alto. Y eso reabre una de las preguntas más incómodas de la inteligencia artificial.
Por

Tiempo de lectura 4 minutos

Comentarios (0)

Durante mucho tiempo, la discusión sobre inteligencia artificial y lenguaje se movió en una zona relativamente cómoda. Sí, los modelos podían escribir. Sí, podían sonar convincentes. Sí, podían imitar bastante bien la superficie del habla humana. Pero una cosa era usar lenguaje, y otra bastante distinta era pensar sobre él.

Ese segundo nivel (más abstracto, más analítico y más profundamente humano, según muchos lingüistas) parecía seguir fuera de alcance. Y sin embargo, un nuevo estudio acaba de mover esa frontera.

Lo importante no es que la IA “hable bien”, sino que haya empezado a pensar sobre el lenguaje

La IA acaba de cruzar una frontera que muchos creían exclusivamente humana. Ya no solo usa lenguaje: ahora también empieza a analizarlo como nosotros
© Getty Images / PhonlamaiPhoto.

El trabajo, liderado por Gašper Beguš (Universidad de California en Berkeley), junto con Maksymilian Dąbkowski y Ryan Rhodes, puso a prueba varios modelos de lenguaje con tareas diseñadas específicamente para algo muy concreto: comprobar si podían analizar el lenguaje como sistema, no solo producirlo. Eso cambia bastante el tipo de pregunta.

Porque escribir una frase gramaticalmente correcta no implica necesariamente comprender por qué esa frase funciona, cómo se estructura o qué ambigüedades contiene. Durante años, una parte del mundo de la lingüística sostuvo justamente eso: que los modelos podían ser buenos imitadores, pero no verdaderos analistas del lenguaje.

Noam Chomsky lo expresó con bastante claridad en 2023 en The New York Times, cuando defendió que las explicaciones correctas del lenguaje son demasiado complejas como para aprenderse simplemente a partir de grandes volúmenes de datos. En otras palabras: podías entrenar una máquina para parecer lingüísticamente competente, pero no para razonar lingüísticamente como un humano. Y ahí es donde este nuevo estudio se vuelve interesante.

La prueba estaba diseñada para evitar el truco más obvio: que la IA simplemente recordara cosas

Uno de los grandes problemas a la hora de evaluar estos sistemas es que siempre queda la sospecha de que ya hayan visto algo parecido durante el entrenamiento. Al fin y al cabo, los grandes modelos se alimentan de cantidades absurdas de texto, incluyendo probablemente libros, artículos y materiales de lingüística.

Para evitar esa trampa, los investigadores diseñaron una batería de pruebas bastante elegante. Tres de ellas se basaban en árboles sintácticos, es decir, en la capacidad de descomponer oraciones complejas en su estructura interna. La cuarta iba todavía más lejos: consistía en analizar lenguajes inventados desde cero, con reglas fonológicas que el modelo no podía haber memorizado porque, sencillamente, no existían antes del experimento. Y ahí apareció la sorpresa.

Un modelo destacó por encima del resto y lo hizo en uno de los terrenos más difíciles de la lingüística

La mayoría de los modelos no brilló demasiado. Pero uno de ellos, o1, sí lo hizo. Según los autores, fue capaz de analizar oraciones complejas con un nivel de precisión que recordaba al de un estudiante de posgrado en lingüística. Eso incluye algo especialmente delicado: la recursión.

La recursión es una de esas ideas que parecen técnicas hasta que uno se da cuenta de lo fundamentales que son. Es la capacidad de incrustar estructuras dentro de otras estructuras. Por ejemplo: “Jane dijo que el cielo es azul” contiene una oración dentro de otra. Y eso, en teoría, puede repetirse indefinidamente.

Para Chomsky y muchos otros lingüistas, la recursión ha sido una de las marcas más fuertes del lenguaje humano, e incluso de la mente humana. No es solo una curiosidad gramatical: es una de las razones por las que, con un vocabulario finito, podemos generar una cantidad potencialmente infinita de oraciones. Y en estas pruebas, o1 no solo reconoció estructuras recursivas. También fue capaz de analizarlas correctamente y, en algunos casos, extenderlas de forma coherente.

La otra gran sorpresa fue que también detectó ambigüedad y reglas fonológicas inventadas

La IA acaba de cruzar una frontera que muchos creían exclusivamente humana. Ya no solo usa lenguaje: ahora también empieza a analizarlo como nosotros
© Shutterstock / NanoStockk.

Y esto, honestamente, es de lo más interesante del estudio. Porque uno de los aspectos más difíciles del lenguaje no es solo la gramática visible, sino la ambigüedad. Los humanos resolvemos ambigüedades constantemente sin pensarlo demasiado, gracias a una mezcla de contexto, sentido común y experiencia. Para los sistemas computacionales, en cambio, eso suele ser mucho más difícil.

Según el trabajo, o1 logró identificar correctamente múltiples interpretaciones posibles de una misma oración y representarlas con árboles sintácticos distintos. Es decir, no se quedó con “una lectura probable”, sino que entendió que una misma frase puede significar dos cosas diferentes al mismo tiempo.

Y luego está la parte fonológica, que quizá sea la más elegante de todas. Los investigadores construyeron 30 miniidiomas artificiales, cada uno con 40 palabras inventadas, para ver si los modelos podían inferir reglas de pronunciación y transformación sonora sin haberlas visto nunca antes. Otra vez, o1 rindió sorprendentemente bien. Y eso importa mucho porque sugiere que no solo está manipulando texto superficialmente, sino detectando patrones abstractos del lenguaje.

La gran pregunta ya no es si la IA puede escribir como nosotros. Es si está empezando a comprender algo que creíamos exclusivamente humano

Y acá está la parte incómoda. Este estudio no significa que la IA “entienda el lenguaje” exactamente como lo hacemos nosotros. Tampoco prueba que tenga conciencia lingüística, intuición humana o creatividad semántica al nivel de una persona. Pero sí derriba una barrera que hasta hace muy poco muchos daban por segura.

Porque si un modelo ya puede analizar gramática, resolver ambigüedades, manejar recursión e inferir reglas de un idioma que nunca existió antes… entonces ya no estamos hablando solo de una máquina que usa lenguaje.

Estamos hablando de una máquina que empieza a mostrar algo muy parecido a una capacidad metalingüística. Y eso obliga a reformular una pregunta que durante mucho tiempo parecía cómoda. Si el lenguaje era una de nuestras últimas pruebas de excepcionalidad… cuánto tiempo va a seguir siéndolo.

Compartir esta historia

Artículos relacionados