Character.AI abandonne l'AGI et se tourne vers l'open source face aux défis
La startup d’intelligence artificielle Character.AI, autrefois évaluée à un milliard de dollars et propulsée par l’objectif ambitieux de développer l’intelligence artificielle générale (IAG), aurait abandonné sa mission fondatrice. Son nouveau PDG, Karandeep Anand, a confirmé dans une récente interview que l’entreprise avait “renoncé” aux aspirations d’IAG de ses fondateurs originaux, Noam Shazeer et Daniel de Freitas, qui ont depuis quitté l’entreprise. Ce pivot stratégique signale un changement significatif pour une entreprise qui, pas plus tard qu’en 2023, promouvait sa mission principale de “rendre la superintelligence personnalisée accessible à tous sur Terre”.
Character.AI s’éloigne désormais de la construction de ses propres grands modèles linguistiques (LLM) propriétaires, s’appuyant plutôt fortement sur des alternatives open source telles que Deepseek et Llama de Meta. Ce changement, selon Anand, a apporté “clarté et concentration” autour d’une “vision de divertissement basée sur l’IA” pour l’entreprise. Une réorientation aussi spectaculaire au sein d’une entreprise relativement jeune offre un aperçu révélateur de l’industrie plus large de l’IA, fréquemment caractérisée par des promesses grandioses et des craintes qu’il ne s’agisse d’une bulle d’investissement sur le point d’éclater.
Le réalignement stratégique de l’entreprise est enraciné dans de dures réalités financières. Bien qu’elle ait attiré des investissements substantiels de la part d’acteurs majeurs comme la société de capital-risque Andreessen Horowitz et Google – ce dernier ayant notamment réembauché les fondateurs de Character.AI dans le cadre d’un accord de 2,7 milliards de dollars l’année dernière – la startup a constamment eu du mal à générer des revenus significatifs. Ce défi est particulièrement aigu compte tenu des coûts extraordinairement élevés associés à la construction et à la formation de grands modèles linguistiques avancés. Bien que le passage aux LLM open source puisse offrir des économies de coûts, il sape fondamentalement la prémisse même qui a rendu Character.AI si attrayante pour les investisseurs en premier lieu.
Character.AI et ses premiers partisans avaient défendu la position unique de l’entreprise en tant que développeur d’IA en “boucle fermée”, se vantant de sa capacité à collecter continuellement les entrées des utilisateurs et à les réinjecter directement dans ses modèles pour une amélioration continue. Comme l’a écrit Sarah Wang, associée chez Andreessen Horowitz, dans un article de blog de 2023 célébrant l’investissement substantiel de la firme : “les entreprises qui peuvent créer une boucle de rétroaction de données magique… seront parmi les plus grands gagnants.” Un peu plus de deux ans plus tard, cet avantage concurrentiel autrefois vanté semble avoir été largement abandonné, l’entreprise s’éloignant considérablement de sa proposition de valeur initiale.
Aggravant ses problèmes stratégiques, Character.AI a également été mêlée à d’importantes controverses d’image publique et à des défis juridiques. Largement utilisée par les mineurs, la plateforme s’est commercialisée comme étant sûre pour les utilisateurs âgés de 13 ans et plus. Cependant, en octobre 2024, une mère de Floride, Megan Garcia, a intenté un procès très médiatisé alléguant que Character.AI avait lancé un produit négligent et imprudent qui avait abusé émotionnellement et sexuellement de son fils de 14 ans, Sewell Setzer, qui s’est ensuite suicidé après de longues interactions avec les chatbots de la plateforme. Un juge a rejeté la requête de Character.AI visant à rejeter l’affaire, permettant à la poursuite de se poursuivre.
Suite à l’annonce du procès, les enquêtes ont révélé des défaillances généralisées en matière de modération de contenu sur la plateforme. Celles-ci incluaient la présence de personnages facilement accessibles simulant des pédophiles, promouvant des troubles alimentaires, romantisme l’automutilation et le suicide, et même dépeignant de véritables fusillades scolaires, leurs auteurs et, de manière troublante, leurs victimes. Le PDG Karandeep Anand a déclaré que la sécurité est désormais une priorité absolue, bien qu’il ait également mentionné que sa fille de six ans utilise l’application, ce qui est contraire aux propres règles de la plateforme. Il a maintenu que Character.AI est principalement une application de jeu de rôle, et non une application de compagnie, et a souligné que la sécurité est une responsabilité partagée entre les régulateurs, l’entreprise et les parents. Bien que Character.AI ait publié plusieurs mises à jour de sécurité en réponse aux actions en justice et à l’examen public, elle a constamment refusé de fournir des détails sur ses mesures de sécurité initiales pour les utilisateurs mineurs avant la publication du produit. De plus, malgré ces changements, les experts en IA continuent de considérer l’application comme dangereuse pour les mineurs.