Character.AI gibt AGI-Ziel auf und setzt auf Open Source wegen Finanzproblemen

Futurism

Das Künstliche-Intelligenz-Startup Character.AI, einst mit einer Milliarde Dollar bewertet und angetrieben vom ehrgeizigen Ziel, allgemeine Künstliche Intelligenz (AGI) zu entwickeln, hat Berichten zufolge seine Gründungsmission aufgegeben. Ihr neuer CEO, Karandeep Anand, bestätigte in einem kürzlichen Interview, dass das Unternehmen die AGI-Bestrebungen seiner ursprünglichen Gründer, Noam Shazeer und Daniel de Freitas, die inzwischen ausgeschieden sind, “aufgegeben” hat. Diese strategische Neuausrichtung signalisiert einen bedeutenden Wandel für ein Unternehmen, das noch 2023 seine Kernmission “personalisierte Superintelligenz für jeden auf der Erde zugänglich zu machen” propagierte.

Character.AI entfernt sich nun vom Bau eigener proprietärer großer Sprachmodelle (LLMs) und verlässt sich stattdessen stark auf Open-Source-Alternativen wie Deepseek und Metas Llama. Diese Änderung hat laut Anand “Klarheit und Fokus” auf eine “KI-Unterhaltungsvision” für das Unternehmen gebracht. Eine so dramatische Neuausrichtung innerhalb eines relativ jungen Unternehmens bietet einen aufschlussreichen Einblick in die breitere KI-Branche, die häufig durch weitreichende Versprechen und Bedenken, sie könnte eine kurz vor dem Platzen stehende Investitionsblase sein, gekennzeichnet ist.

Die strategische Neuausrichtung des Unternehmens wurzelt in harten finanziellen Realitäten. Trotz erheblicher Investitionen von großen Akteuren wie der Risikokapitalfirma Andreessen Horowitz und Google – letztere stellte die Gründer von Character.AI im vergangenen Jahr in einem 2,7-Milliarden-Dollar-Deal wieder ein – hatte das Startup stets Schwierigkeiten, signifikante Einnahmen zu generieren. Diese Herausforderung ist besonders akut angesichts der außerordentlich hohen Kosten, die mit dem Bau und Training fortschrittlicher großer Sprachmodelle verbunden sind. Während der Wechsel zu Open-Source-LLMs einige Kosteneinsparungen bieten mag, untergräbt er im Grunde die Prämisse, die Character.AI überhaupt erst für Investoren so attraktiv machte.

Character.AI und seine frühen Unterstützer hatten die einzigartige Position des Unternehmens als “Closed-Loop”-KI-Entwickler verteidigt und prahlten mit ihrer Fähigkeit, kontinuierlich Benutzereingaben zu sammeln und diese direkt in ihre Modelle zur fortlaufenden Verbesserung zurückzuführen. Wie Andreessen Horowitz-Partnerin Sarah Wang in einem feierlichen Blogbeitrag von 2023 zur Ankündigung der erheblichen Investition der Firma schrieb: “Unternehmen, die eine magische Daten-Feedback-Schleife erzeugen können… werden zu den größten Gewinnern gehören.” Nur etwas mehr als zwei Jahre später scheint dieser einst angepriesene Wettbewerbsvorteil weitgehend aufgegeben worden zu sein, wobei sich das Unternehmen weit von seinem ursprünglichen Wertversprechen entfernt hat.

Zusätzlich zu seinen strategischen Problemen war Character.AI auch in erhebliche Kontroversen bezüglich seines öffentlichen Images und rechtliche Herausforderungen verwickelt. Die Plattform, die ausgiebig von Minderjährigen genutzt wird, hat sich als sicher für Nutzer ab 13 Jahren vermarktet. Im Oktober 2024 reichte jedoch eine Mutter aus Florida, Megan Garcia, eine vielbeachtete Klage ein, in der sie behauptete, Character.AI habe ein fahrlässiges und rücksichtsloses Produkt veröffentlicht, das ihren 14-jährigen Sohn, Sewell Setzer, emotional und sexuell missbraucht habe, welcher sich nach ausgiebigen Interaktionen mit den Chatbots der Plattform das Leben nahm. Ein Richter lehnte den Antrag von Character.AI auf Abweisung des Falls ab und ließ die Klage zu.

Nach der Bekanntgabe der Klage ergaben Untersuchungen weitreichende Mängel bei der Inhaltsmoderation auf der Plattform. Dazu gehörten die Präsenz von leicht zugänglichen Charakteren, die Pädophile simulierten, Essstörungen förderten, Selbstverletzung und Suizid romantisierten und sogar reale Schulschießereien, deren Täter und, beunruhigenderweise, deren Opfer darstellten. CEO Karandeep Anand erklärte, dass Sicherheit nun oberste Priorität habe, obwohl er auch erwähnte, dass seine sechsjährige Tochter die App benutzt, was gegen die eigenen Regeln der Plattform verstößt. Er betonte, dass Character.AI in erster Linie eine Rollenspielanwendung und keine Begleit-App sei, und hob hervor, dass Sicherheit eine gemeinsame Verantwortung von Regulierungsbehörden, dem Unternehmen und Eltern sei. Während Character.AI als Reaktion auf rechtliche Schritte und öffentliche Kontrolle mehrere Sicherheitsupdates herausgegeben hat, hat es konsequent abgelehnt, Details zu seinen anfänglichen Sicherheitsmaßnahmen für minderjährige Nutzer vor der öffentlichen Veröffentlichung des Produkts bereitzustellen. Darüber hinaus bewerten KI-Experten die Anwendung trotz dieser Änderungen weiterhin als unsicher für Minderjährige.