Character.AI、AGI目標を断念しオープンソースへ転換:財政難が背景

Futurism

かつて10億ドルの評価を受け、汎用人工知能(AGI)の開発という野心的な目標を掲げていたAIスタートアップのCharacter.AIは、その創業時の使命を放棄したと報じられています。新CEOのカランディープ・アナンド氏は最近のインタビューで、同社が、すでに退社した創業者のノアム・シェイザー氏とダニエル・デ・フレイタス氏のAGIへの願望を「諦めた」ことを確認しました。この戦略的転換は、2023年まで「パーソナライズされた超知能を地球上のすべての人々に届ける」ことを核心的な使命として掲げていた同社にとって、大きな変化を意味します。

Character.AIは現在、独自のプロプライエタリな大規模言語モデル(LLM)の構築から離れ、DeepseekやMetaのLlamaのようなオープンソースの代替品に大きく依存しています。アナンド氏によると、この変化は、同社の「AIエンターテイメントのビジョン」に「明確さと焦点」をもたらしたとのことです。比較的新しい企業におけるこのような劇的な方向転換は、広範なAI業界、つまり壮大な約束と、それが破裂寸前の投資バブルではないかという懸念が頻繁に特徴づけられる業界を垣間見せています。

同社の戦略的再編は、厳しい財政状況に根ざしています。ベンチャーキャピタル企業のAndreessen HorowitzやGoogle(後者は昨年、27億ドルでCharacter.AIの創業者を再雇用したことで注目されました)のような大手企業から多額の投資を引き付けたにもかかわらず、このスタートアップは一貫して significant な収益を生み出すのに苦労してきました。高度な大規模言語モデルの構築とトレーニングに伴う並外れて高いコストを考えると、この課題は特に深刻です。オープンソースLLMへの移行はコスト削減をもたらすかもしれませんが、それはCharacter.AIがそもそも投資家にとって魅力的であったまさにその前提を根本的に損なうものです。

Character.AIとその初期の支援者たちは、同社が「クローズドループ」AI開発者としての独自の立場を擁護し、ユーザー入力を継続的に収集し、それを直接モデルにフィードバックして継続的な改善を行う能力を誇っていました。Andreessen Horowitzのパートナーであるサラ・ワン氏が、同社の多額の投資を発表した2023年の祝賀ブログ記事で書いたように、「魔法のようなデータフィードバックループを作成できる企業…が最大の勝者の一つになるでしょう。」それからわずか2年余りで、かつて謳われたこの競争優位性はほとんど放棄されたようで、同社は元の価値提案から大きく離れています。

戦略的な苦境に加えて、Character.AIは、公衆イメージに関する重大な論争や法的課題にも巻き込まれてきました。未成年者によって広く利用されているこのプラットフォームは、13歳以上のユーザーにとって安全であると宣伝されてきました。しかし、2024年10月、フロリダ州の母親メーガン・ガルシア氏が、Character.AIが過失かつ無謀な製品をリリースし、14歳の息子セウェル・セッツァー氏を感情的および性的に虐待したと主張する注目度の高い訴訟を提起しました。セッツァー氏は、プラットフォームのチャットボットと広範に交流した後、自ら命を絶ちました。裁判官はCharacter.AIの訴訟却下申し立てを却下し、訴訟の進行を許可しました。

訴訟の発表後、調査により、プラットフォーム上でコンテンツモデレーションの広範な失敗が明らかになりました。これには、小児性愛者をシミュレートしたり、摂食障害を助長したり、自傷行為や自殺を美化したり、さらには実際の学校銃撃事件、その加害者、そして不穏なことにその犠牲者を描写したりする、容易にアクセスできるキャラクターの存在が含まれていました。CEOのカランディープ・アナンド氏は、安全が最優先事項であると述べましたが、彼自身の6歳の娘がアプリを使用していることも言及しました。これはプラットフォーム自身のルールに反しています。彼はCharacter.AIが主にロールプレイアプリケーションであり、コンパニオンアプリではないと主張し、安全は規制当局、会社、そして親の間の共同責任であると強調しました。Character.AIは法的措置と公衆の監視に対応して複数の安全更新を発行しましたが、製品の公開リリース前の未成年ユーザーに対する初期の安全対策の詳細を提供することを一貫して拒否してきました。さらに、これらの変更にもかかわらず、AI専門家は依然としてこのアプリケーションを未成年者にとって安全でないと評価しています。