Hay más negocios y compañías que adoptan la IA, pero elegir el modelo suele ser una decisión importante. Aunque los modelos de código abierto parecen menos costosos al principio, un nuevo estudio advierte que el ahorro puede evaporarse pronto debido a la energía extra que requieren.
De hecho los modelos de IA de código abierto utilizan muchos más recursos de computación que sus rivales de código cerrado para una misma tarea, según un trabajo publicado el jueves por Nous Research.
Los investigadores probaron decenas de modelos de IA, incluyendo sistemas cerrados de Google y OpenAI, además de modelos de código abierto de DeepSeek y Magistral. Midieron el esfuerzo de computación que requería cada uno para completar las mismas tareas, en tres categorías: preguntas de conocimiento común, problemas matemáticos, y enigmas de la lógica.
Utilizaron la cantidad de tokens (unidades básicas de texto) que usaba cada modelo para resolver y responder las preguntas en cuanto al consumo de recursos.
“Los modelos de código abierto usan 1,5-4x más tokens que los cerrados, y hasta 10x para preguntas de conocimiento común, lo que hace que sean más caros por pregunta a pesar del costo más bajo por token”, escribieron los autores del trabajo.
La importancia de la eficiencia en tokens
En la IS, un token es una unidad de texto que puede ser una palabra, parte de una palabra, o incluso signos de puntuación que usan los modelos para entender el lenguaje. Los modelos procesan y generan el texto de a un token a la vez, por lo que si usan más tokens, requieren de más potencia de computación y más tiempo.
Como la mayoría de los modelos de código cerrado no revelan su proceso de razonamiento o cadena de pensamiento, los investigadores midieron la eficiencia contando los tokens utilizados. Como los modelos se facturan por cantidad de tokens total utilizada en el proceso de razonamiento y entrega de la respuesta, los tokens sirven como muestra del esfuerzo necesario para producir una respuesta.
Es una consideración importante para las compañías que utilicen IA, por varias razones.
“Primero, aunque los modelos de código abierto sean menos costosos, la ventaja en el costo podría anularse si requieren más tokens para razonar sobre un problema determinado”, indican los investigadores. “En segundo lugar, a mayor cantidad de tokens, más tarda la generación de respuesta, y mayor es la latencia”.
Los modelos cerrados ganan
El estudio halló que los modelos abiertos utilizan siempre más tokens que los modelos cerrados para una misma tarea, en ocasiones el triple, para preguntas de conocimiento común. La brecha se achica a menos del doble para problemas de matemáticas y lógica.
“Los modelos cerrados (OpenAI, Grok-4) optimizan la cantidad de tokens usando menos para recortar costos, mientras los abiertos (DeepSeek, Qwen) usan más tokens, tal vez para razonar mejor”, escriben los autores del trabajo.
Entre los modelos abiertos el más eficiente fue llama-3.3-emotron-super-49b-v1, y los más ineficientes fueron los modelos Magistral.
Los modelos de OpenAI se destacaron. Tanto el 04-mini como los nuevos modelos abiertos gpt-oss demostraron una impactante deficiencia en el uso de tokens, en especial en problemas matemáticos.
Los investigadores señalaron que los modelos gpt-oss de OpenAI, con su cadena concisa, podrían servir como parámetro para mejorar la eficiencia en tokens de otros modelos abiertos.