Modelos de IA de Código Abierto: Costos a Largo Plazo Elevados por Ineficiencia de Tokens

Gizmodo

A medida que las empresas integran cada vez más la inteligencia artificial en sus operaciones, surge una decisión crítica: si adoptar modelos de IA de código abierto o propietarios. Si bien las opciones de código abierto a menudo parecen más económicas a primera vista, un estudio reciente de Nous Research sugiere que estos ahorros iniciales pueden erosionarse rápidamente debido a su mayor demanda de potencia de cálculo. Los hallazgos, publicados esta semana, indican que los modelos de IA de código abierto suelen consumir significativamente más recursos computacionales que sus rivales de código cerrado al realizar tareas idénticas.

Para cuantificar este consumo de recursos, los investigadores de Nous Research probaron rigurosamente docenas de modelos de IA, incluidos sistemas cerrados de gigantes de la industria como Google y OpenAI, junto con alternativas de código abierto de desarrolladores como DeepSeek y Magistral. Midieron meticulosamente el esfuerzo computacional que cada modelo requería para completar una variedad de tareas, categorizadas en preguntas de conocimiento simple, problemas matemáticos y acertijos de lógica. La métrica principal para esta medición fue el número de “tokens” que cada modelo utilizó para procesar y generar respuestas.

En el ámbito de la inteligencia artificial, un token representa la unidad más pequeña de texto o datos que un modelo procesa; podría ser una palabra, un fragmento de una palabra o incluso un signo de puntuación. Los modelos de IA comprenden y generan lenguaje procesando estos tokens secuencialmente. En consecuencia, un mayor recuento de tokens para una tarea determinada se traduce directamente en un aumento de la potencia de cálculo y tiempos de procesamiento más largos. El estudio destacó una disparidad sorprendente: “Los modelos de peso abierto usan entre 1.5 y 4 veces más tokens que los cerrados, y hasta 10 veces para preguntas de conocimiento simple, lo que los hace a veces más caros por consulta a pesar de los costos más bajos por token”, señalaron los autores.

Esta brecha de eficiencia tiene implicaciones significativas para las empresas que implementan IA. Primero, aunque los costos directos de alojamiento para los modelos de peso abierto podrían ser más bajos, esta ventaja puede anularse rápidamente si los modelos exigen sustancialmente más tokens para analizar y resolver un problema. Segundo, un recuento elevado de tokens conduce directamente a tiempos de generación prolongados y una mayor latencia, lo que puede ser perjudicial para aplicaciones que requieren respuestas rápidas. Dado que la mayoría de los modelos de código cerrado no revelan sus procesos de razonamiento internos o su “cadena de pensamiento”, los investigadores se basaron en el total de tokens de salida, que incluyen tanto el procesamiento interno del modelo como su respuesta final, como un proxy confiable para el esfuerzo computacional expendido.

La investigación demostró inequívocamente que los modelos de código abierto requerían consistentemente más tokens que sus contrapartes cerradas para las mismas tareas. Para preguntas de conocimiento simple, los modelos abiertos a veces usaban tres veces más tokens. Si bien esta brecha se redujo para problemas matemáticos y lógicos más complejos, los modelos abiertos aún consumían casi el doble de tokens. El estudio postuló que los modelos cerrados, como los de OpenAI y Grok-4, parecen estar optimizados para la eficiencia de tokens, probablemente para minimizar los costos operativos. En contraste, los modelos abiertos como DeepSeek y Qwen, aunque consumen más tokens, pueden hacerlo para facilitar procesos de razonamiento más robustos.

Entre los modelos de código abierto evaluados, llama-3.3-nemotron-super-49b-v1 emergió como el más eficiente en tokens, mientras que los modelos Magistral resultaron ser los menos eficientes. Las ofertas de OpenAI, particularmente su o4-mini y los modelos gpt-oss de peso abierto más nuevos, mostraron una notable eficiencia de tokens, especialmente al abordar problemas matemáticos. Los investigadores señalaron específicamente los modelos gpt-oss de OpenAI, con sus concisas cadenas de razonamiento internas, como un posible punto de referencia para mejorar la eficiencia de tokens en el panorama más amplio de los modelos de IA de código abierto.

En última instancia, el estudio subraya una consideración crucial para las empresas: el costo real de un modelo de IA se extiende mucho más allá de sus tarifas iniciales de licencia o implementación. Los gastos operativos a largo plazo, fuertemente influenciados por el consumo de recursos computacionales, pueden convertir rápidamente una opción de código abierto aparentemente más barata en un esfuerzo más costoso con el tiempo.