Open-Source-KI-Modelle: Höhere Langzeitkosten durch Token-Ineffizienz

Gizmodo

Da Unternehmen zunehmend künstliche Intelligenz in ihre Abläufe integrieren, stellt sich eine kritische Frage: Soll man Open-Source- oder proprietäre KI-Modelle einsetzen? Während Open-Source-Optionen auf den ersten Blick wirtschaftlicher erscheinen, deutet eine aktuelle Studie von Nous Research darauf hin, dass diese anfänglichen Einsparungen aufgrund ihres höheren Bedarfs an Rechenleistung schnell zunichte gemacht werden können. Die diese Woche veröffentlichten Ergebnisse zeigen, dass Open-Source-KI-Modelle bei identischen Aufgaben typischerweise deutlich mehr Rechenressourcen verbrauchen als ihre Closed-Source-Konkurrenten.

Um diesen Ressourcenverbrauch zu quantifizieren, testeten Forscher von Nous Research rigoros Dutzende von KI-Modellen, darunter geschlossene Systeme von Branchenriesen wie Google und OpenAI, sowie Open-Source-Alternativen von Entwicklern wie DeepSeek und Magistral. Sie maßen akribisch den Rechenaufwand, den jedes Modell benötigte, um eine Reihe von Aufgaben zu erledigen, die in einfache Wissensfragen, mathematische Probleme und Logikrätsel kategorisiert wurden. Die primäre Metrik für diese Messung war die Anzahl der „Tokens“, die jedes Modell zum Verarbeiten und Generieren von Antworten verwendete.

Im Bereich der künstlichen Intelligenz stellt ein Token die kleinste Text- oder Dateneinheit dar, die ein Modell verarbeitet – es könnte ein Wort, ein Wortfragment oder sogar ein Satzzeichen sein. KI-Modelle verstehen und generieren Sprache, indem sie diese Tokens sequenziell verarbeiten. Folglich führt eine höhere Token-Anzahl für eine gegebene Aufgabe direkt zu einem erhöhten Rechenaufwand und längeren Verarbeitungszeiten. Die Studie hob eine frappierende Diskrepanz hervor: „Open-Weight-Modelle verwenden 1,5- bis 4-mal mehr Tokens als geschlossene – und bis zu 10-mal mehr bei einfachen Wissensfragen – was sie trotz niedrigerer Pro-Token-Kosten manchmal pro Abfrage teurer macht“, stellten die Autoren fest.

Diese Effizienzlücke hat erhebliche Auswirkungen für Unternehmen, die KI einsetzen. Erstens könnten die direkten Hosting-Kosten für Open-Weight-Modelle zwar niedriger sein, dieser Vorteil kann jedoch schnell zunichte gemacht werden, wenn die Modelle wesentlich mehr Tokens zur Analyse und Lösung eines Problems benötigen. Zweitens führt eine erhöhte Token-Anzahl direkt zu längeren Generierungszeiten und erhöhter Latenz, was für Anwendungen, die schnelle Antworten erfordern, nachteilig sein kann. Da die meisten Closed-Source-Modelle ihre internen Denkprozesse oder „Gedankenkette“ nicht offenlegen, verließen sich die Forscher auf die gesamten Ausgabe-Tokens – die sowohl die interne Verarbeitung des Modells als auch seine endgültige Antwort umfassen – als zuverlässigen Indikator für den aufgewendeten Rechenaufwand.

Die Forschung zeigte eindeutig, dass Open-Source-Modelle für die gleichen Aufgaben durchweg mehr Tokens benötigten als ihre geschlossenen Gegenstücke. Bei einfachen Wissensfragen verwendeten Open-Modelle manchmal dreimal so viele Tokens. Während sich diese Lücke bei komplexeren mathematischen und logischen Problemen verringerte, verbrauchten Open-Modelle immer noch fast doppelt so viele Tokens. Die Studie ging davon aus, dass geschlossene Modelle, wie die von OpenAI und Grok-4, auf Token-Effizienz optimiert zu sein scheinen, wahrscheinlich um Betriebskosten zu minimieren. Im Gegensatz dazu verbrauchen Open-Modelle wie DeepSeek und Qwen zwar mehr Tokens, tun dies aber möglicherweise, um robustere Denkprozesse zu ermöglichen.

Unter den bewerteten Open-Source-Modellen erwies sich llama-3.3-nemotron-super-49b-v1 als das Token-effizienteste, während Magistral-Modelle am wenigsten effizient waren. Die Angebote von OpenAI, insbesondere ihr o4-mini und die neueren Open-Weight-gpt-oss-Modelle, zeigten eine bemerkenswerte Token-Effizienz, insbesondere bei der Bewältigung mathematischer Probleme. Die Forscher wiesen speziell auf OpenAIs gpt-oss-Modelle mit ihren prägnanten internen Argumentationsketten als potenziellen Maßstab zur Verbesserung der Token-Effizienz in der breiteren Landschaft der Open-Source-KI-Modelle hin.

Letztendlich unterstreicht die Studie einen entscheidenden Aspekt für Unternehmen: Die wahren Kosten eines KI-Modells gehen weit über die anfänglichen Lizenz- oder Bereitstellungsgebühren hinaus. Die langfristigen Betriebskosten, die stark vom Verbrauch von Rechenressourcen beeinflusst werden, können eine scheinbar günstigere Open-Source-Option im Laufe der Zeit schnell zu einem kostspieligeren Unterfangen machen.