Google enthüllt Gemma 3 270M: Winzige KI für On-Device-Leistung
Seit Jahren befinden sich die größten Akteure der Technologiebranche in einem Wettrüsten, bei dem immer größere künstliche Intelligenzmodelle entwickelt werden, die enorme Rechenressourcen erfordern und typischerweise als Cloud-Dienste bereitgestellt werden. Doch ein neuer Trend zeichnet sich ab: die Suche nach kompakter, effizienter KI. Google hat kürzlich eine winzige Version seines offenen Gemma-Modells vorgestellt, die speziell für die Ausführung auf lokalen Geräten konzipiert wurde. Diese neue Iteration, genannt Gemma 3 270M, verspricht trotz ihres außergewöhnlich kleinen Fußabdrucks bemerkenswerte Leistung und einfache Abstimmbarkeit.
Anfang dieses Jahres führte Google seine ersten offenen Gemma 3-Modelle ein, deren Parameterzahlen von 1 Milliarde bis 27 Milliarden reichten. Im Bereich der generativen KI stellen Parameter die gelernten Variablen dar, die bestimmen, wie ein Modell Eingaben verarbeitet, um Ausgaben zu generieren. Im Allgemeinen korreliert eine höhere Parameteranzahl mit verbesserter Leistung. Gemma 3 270M bricht jedoch dieses Muster mit nur 270 Millionen Parametern, wodurch es nahtlos auf Alltagsgeräten wie Smartphones oder sogar direkt in einem Webbrowser betrieben werden kann.
Das lokale Ausführen eines KI-Modells bietet erhebliche Vorteile, insbesondere verbesserte Privatsphäre und reduzierte Latenz. Die Gemma 3 270M wurde mit diesen spezifischen Anwendungsfällen im Hinterkopf entwickelt. Bei Tests auf einem Pixel 9 Pro zeigte dieses neue Gemma-Modell eine beeindruckende Fähigkeit, 25 gleichzeitige Konversationen auf dem Tensor G4-Chip des Geräts zu verarbeiten, während es nur 0,75 Prozent des Akkus verbrauchte. Dies macht es mit großem Abstand zum effizientesten Gemma-Modell, das bisher veröffentlicht wurde.
Obwohl Entwickler ihre Erwartungen hinsichtlich der Leistung im Vergleich zu Modellen mit Milliarden von Parametern dämpfen sollten, besitzt Gemma 3 270M dennoch einen beträchtlichen Nutzen. Google nutzte den IFEval-Benchmark, einen Standardtest zur Bewertung der Anweisungsfolgefähigkeiten eines Modells, um seine überraschende Leistungsfähigkeit zu demonstrieren. Gemma 3 270M erreichte bei diesem Test einen Wert von 51,2 Prozent und übertraf damit mehrere andere leichte Modelle, die eine größere Anzahl von Parametern besitzen. Vorhersehbar bleibt es hinter größeren Modellen wie Llama 3.2 zurück, die über eine Milliarde Parameter aufweisen, aber seine Leistungslücke ist bemerkenswert kleiner, als seine Bruchzahl an Parametern vermuten lässt.
Google behauptet, dass Gemma 3 270M direkt nach dem Auspacken hervorragend Anweisungen befolgt, erwartet jedoch, dass Entwickler das Modell für ihre einzigartigen Anwendungen feinabstimmen werden. Die bescheidene Parameteranzahl erleichtert einen schnellen und kostengünstigen Feinabstimmungsprozess. Google sieht den Einsatz des neuen Gemma für Aufgaben wie Textklassifizierung und Datenanalyse vor, die es schnell erledigen kann, ohne hohe Rechenressourcen zu beanspruchen.
Google bezeichnet seine Gemma-Modelle als „offen“, ein Begriff, der zwar nicht gleichbedeutend mit „Open Source“ ist, aber viele praktische Ähnlichkeiten aufweist. Entwickler können das neue Gemma kostenlos herunterladen, und seine Modellgewichte sind leicht verfügbar. Entscheidend ist, dass es keine separate kommerzielle Lizenzvereinbarung gibt, die Entwicklern die Möglichkeit gibt, Derivate von Gemma 3 270M in ihren eigenen Tools zu modifizieren, zu veröffentlichen und bereitzustellen. Alle Benutzer von Gemma-Modellen sind jedoch an spezifische Nutzungsbedingungen gebunden, die das Trainieren der Modelle zur Erzeugung schädlicher Ausgaben oder die vorsätzliche Verletzung von Datenschutzbestimmungen verbieten. Entwickler sind auch verpflichtet, vorgenommene Änderungen detailliert zu beschreiben und eine Kopie der Nutzungsbedingungen für alle abgeleiteten Versionen bereitzustellen, die Googles benutzerdefinierte Lizenz erben.
Gemma 3 270M ist jetzt auf Plattformen wie Hugging Face und Kaggle zugänglich, sowohl in vorab trainierten als auch in instruktionsgetunten Versionen. Es kann auch innerhalb von Google Vertex AI getestet werden. Um die Fähigkeiten des Modells weiter zu demonstrieren, hat Google einen vollständig browserbasierten Story-Generator hervorgehoben, der auf Transformer.js basiert und eine greifbare Demonstration bietet, selbst für diejenigen, die nicht direkt an der Entwicklung leichter Modelle beteiligt sind.