Ha habido muchas hablar sobre AGI Últimamente, la inteligencia general artificial, el tan codiciado objetivo de desarrollo de la IA que todas las empresas de Silicon Valley actualmente están compitiendo por alcanzar. AGI se refiere a un punto hipotético en el futuro en el que los algoritmos de IA podrán realizar la mayoría de los trabajos que los humanos realizan actualmente. teoría de eventos, el surgimiento de AGI producirá cambios fundamentales en la sociedad—potencialmente marcando el comienzo de un mundo “post-trabajo”, donde los humanos pueden sentarse y disfrutar todo el día mientras los robots hacen la mayor parte del trabajo pesado. levantamiento. Si crees en los titulares, las recientes intriga palaciega Es posible que se haya inspirado parcialmente en un gran avance en AGI: el el llamado programa “Q”—cuyas fuentes cercanas a la startup afirman que fue responsable de la dramática lucha por el poder.
Pero, según una investigación reciente de Yann LeCun, el principal científico en inteligencia artificial de Meta, la inteligencia artificial no será de uso general en el corto plazo. De hecho, en un documento publicado recientemente papelLeCun sostiene que la IA sigue siendo mucho más tonta que los humanos en los aspectos más importantes.
Ese documento, del que fueron coautores varios otros científicos (incluidos investigadores de otras empresas emergentes de IA, como Hugging Face y AutoGPT), analiza cómo el razonamiento de propósito general de la IA se compara con el del ser humano promedio. Para medir esto, el equipo de investigación elaboró su propio serie de preguntas que, como lo describe el estudio, serían “conceptualmente simples para los humanos pero desafiantes para la mayoría de las IA avanzadas”. fueron administrados a una muestra de humanos y también entregados a un equipado con complementos versión de GPT-4, el último modelo de lenguaje grande de OpenAI. La nueva investigación, que aún tiene que ser revisada por pares , probó la IA programas sobre cómo responderían a “preguntas del mundo real que requieren un conjunto de habilidades fundamentales tales como razonamiento, manejo multimodal, navegación web y, en general, dominio del uso de herramientas”.
Las preguntas formuladas por los investigadores requirieron que el LLM tomara una serie de pasos para obtener información con el fin de responder. Por ejemplo, en En una pregunta, se le pidió al LLM que visitara un sitio web específico y respondiera una pregunta específica sobre la información de ese sitio; en otras, el programa habría tenido que hacer una búsqueda web general de información asociada con una persona en una foto.
¿El resultado final? A los LLM no les fue muy bien.
De hecho, los resultados de la investigación muestran que los modelos de lenguajes grandes generalmente fueron superados por los humanos cuando se trataba de estos problemas más complicados del mundo real. escenarios. El informe señala:
A pesar de tener éxito en tareas que son difíciles para los humanos, los LLM más capaces obtienen malos resultados en GAIA. Incluso si están equipados con herramientas, GPT4 no supera una tasa de éxito del 30 % para la más fácil de nuestras tareas y del 0 % para la más difícil. Mientras tanto, La tasa de éxito promedio de los encuestados humanos es del 92%.
“Suponemos que el advenimiento de la Inteligencia General Artificial (AGI, por sus siglas en inglés) depende de la capacidad de un sistema para exhibir una robustez similar a la del ser humano promedio. sobre tales preguntas», concluye el estudio reciente.
LeCun se ha distanciado de otros científicos de IA, algunos de los cuales han hablado sin aliento sobre la posibilidad de que se desarrolle AGI en el corto plazo. En tuits recientes, el metacientífico fue muy crítico con las capacidades tecnológicas actuales de la industria, argumentando que la IA no estaba ni cerca de las capacidades humanas.
“He argumentado, al menos desde 2016, que los sistemas de IA necesitan tener modelos internos del mundo que les permitan predecir las consecuencias de sus acciones y, por lo tanto, permitirles razonar y planificar. Los LLM autorregresivos actuales no tienen esta capacidad, ni algo cercano a ello y, por lo tanto, no estamos ni cerca de alcanzar la inteligencia a nivel humano”, dijo LeCun. en un tuit reciente. “De hecho, su completa falta de comprensión del mundo físico y su falta de habilidades de planificación los coloca muy por debajo de la inteligencia del nivel felino, no importa el nivel humano”.