オープンソースLLM:AI開発の未来は分散型へ

Kdnuggets

大規模言語モデル(LLM)の将来の軌道は、もはや少数の企業研究ラボによって決定される可能性は低いように見えます。代わりに、何千もの世界中の人々が、役員会の承認という制約なしに、オープンに反復し、技術的な境界を押し広げることで、この状況を形作っています。オープンソース運動は、Deepseekのようなモデルがその実力を示すように、すでにプロプライエタリなモデルに匹敵し、一部の領域ではそれを上回る能力を実証しています。モデルの重みの漏洩や趣味のプロジェクトというわずかな流れから始まったものが、Hugging Face、Mistral、EleutherAIのような組織が分散化が混乱ではなく加速を促進することを証明するにつれて、強力な潮流へと変わりました。私たちは、オープンネスが力となる時代に入りつつあり、プロプライエタリ開発の伝統的な壁は崩壊し始め、閉鎖的なエンティティは急速に侵食される立場を守ることを余儀なくされる可能性があります。

数兆ドル規模の企業のマーケティングの物語を超えて深く掘り下げると、説得力のある代替の物語が見えてきます。LLaMA 2、Mistral 7B、Mixtralなどのオープンソースモデルは、一貫して性能の期待を超えており、はるかに多くのパラメータと計算リソースを要求するクローズドモデルに対して、しばしばその能力を上回るパフォーマンスを発揮しています。この変化は、オープンソースのイノベーションがもはや受動的な力ではなく、能動的な力であることを示しています。この優位性の根本的な理由は構造にあります。プロプライエタリなLLMは、厳格な企業リスク管理、法的複雑性、そして進歩を遅らせる完璧主義の文化によってしばしば妨げられます。対照的に、オープンソースプロジェクトは迅速な反復とデプロイを優先し、改善のために喜んで壊して再構築します。彼らは、グローバルコミュニティの集合知を活用し、いかなる内部チームも大規模に再現できない方法で実験と検証をクラウドソーシングします。リリースから数時間以内に、単一のオンラインフォーラムスレッドがバグを発見し、巧妙なプロンプト技術を明らかにし、脆弱性を露呈させることができます。この貢献者 — 独自のデータでモデルを微調整する開発者、包括的な評価スイートを構築する研究者、推論実行時間を最適化するエンジニア — のダイナミックなエコシステムは、自己持続的な進歩の原動力を生み出します。本質的に、クローズドAIは本質的に受動的ですが、オープンAIは生きている、進化する存在なのです。

批評家はしばしば、オープンソースLLM開発を、誤用のリスクに満ちた規制されていないフロンティアとして描写します。しかし、この視点は重要な点を見落としています。オープンネスは説明責任を否定するものではなく、それを可能にするものです。透明性は厳格な精査を促進し、「フォーク」(プロジェクトの修正版)の作成は専門化を可能にします。安全ガードレールは、イノベーターと警戒心の強い監視役の両方として機能するコミュニティによって、公然とテスト、議論、洗練されることができます。これは、バイアス監査が内部で行われ、安全手法が秘密にされ、重要な詳細が「責任あるAI」という名目で編集されるクローズド企業からの不透明なモデルリリースとは対照的です。オープンソースの世界は、おそらく整頓されていないように見えるかもしれませんが、はるかに民主的でアクセスしやすいものです。それは、言語、ひいては思考に対する制御が、少数のシリコンバレーの幹部の手に集中されるべきではないことを認識しています。さらに、オープンLLMは、スタートアップ、低リソース国の研究者、教育者、アーティストなど、そうでなければ排除されるであろう組織に力を与えます。アクセス可能なモデルの重みと少しの創造性があれば、個人はコード生成やワークフローの自動化からKubernetesクラスターの強化に至るまで、ライセンス料やAPI制限なしに、カスタムアシスタント、チューター、アナリスト、またはコパイロットを構築できるようになりました。これは根本的なパラダイムシフトを表しています。

オープンLLMに対する最も根強い議論の一つは、安全性、特にアライメント、ハルシネーション、および潜在的な誤用に関する懸念に集中しています。しかし、現実には、これらの問題はクローズドモデルにも同様に、あるいはそれ以上に影響を与えています。コードをファイアウォールの背後にロックしても、誤用を防ぐことはできません。それは理解を妨げるだけです。オープンモデルは、アライメント技術における真の、分散型実験を促進します。コミュニティ主導の「レッドチーム」(脆弱性のストレステスト)、クラウドソーシングによる人間からのフィードバックによる強化学習(RLHF)、分散型解釈可能性研究はすでに盛んです。オープンソースは、より多様な視点とより多くの目を問題に引きつけ、広く適用可能なソリューションを発見する可能性を高めます。さらに、オープンな開発は、カスタマイズされたアライメントを可能にします。異なるコミュニティや言語グループは、安全性の好みが異なり、米国の企業が提供する「ワンサイズフィットオール」の「ガーディアンAI」は、グローバルに展開された場合、必然的に不十分になります。透明性があり、文化的なニュアンスを考慮したローカライズされたアライメントにはアクセスが必要です。そして、アクセスはオープンネスから始まります。

オープンソースモデルへの勢いは、純粋にイデオロギー的なものではありません。それは経済的なインセンティブによってますます推進されています。オープンLLMを採用する企業は、モデルを企業秘密として守る企業を上回り始めています。これは主に、エコシステムが独占企業を一貫して凌駕するからです。他者が容易に構築できるモデルは、すぐに事実上の標準となり、AIの分野では、デフォルトであることが最も重要です。この傾向は、PyTorch、TensorFlow、Hugging FaceのTransformersライブラリの成功を反映しており、これらすべてはオープンソースの精神により、AIで広く採用されるツールとなりました。私たちは今、基盤モデルでも同じダイナミクスを目の当たりにしています。開発者は、制限的なAPIや利用規約よりも、直接アクセスと変更可能性を優先します。さらに、基盤モデルを開発するコストは大幅に減少しました。アクセス可能なオープンウェイトチェックポイント、合成データブートストラップ、最適化された推論パイプラインにより、中規模企業でさえ独自のLLMをトレーニングまたは微調整できるようになりました。かつてビッグAIを保護していた経済的な堀は急速に縮小しており、彼らはそれを強く認識しています。

多くのテック大手は依然として、ブランド認知度、計算能力、資本だけでAIにおける優位性を確保できると信じています。Metaは、Llama 3のようなモデルをオープンソース化し続けるというコミットメントにより、注目すべき例外として際立っています。しかし、真の価値は上流にシフトしています。焦点はもはや「誰が最大のモデルを構築するか」ではなく、「誰が最も利用しやすいモデルを構築するか」に移っています。柔軟性、速度、アクセシビリティが新たな戦場となり、オープンソースはあらゆる面で一貫して勝利を収めています。オープンコミュニティが言語モデルのイノベーションを実装する驚くべき速度を考えてみてください。FlashAttention、LoRA、QLoRA、およびMixture of Experts(MoE)ルーティングは、数週間、あるいは数日以内に採用され、再実装されます。プロプライエタリなラボは、数十のオープンソースフォークがすでに消費者向けハードウェアで動作しているにもかかわらず、論文を公開するのに苦労することがよくあります。この俊敏性は単に印象的であるだけでなく、大規模においては無敵です。プロプライエタリなアプローチは、ユーザーが「魔法」を望むと仮定することが多いのに対し、オープンなアプローチはユーザーに主体性を与えます。開発者、研究者、企業がLLMのユースケースで成熟するにつれて、彼らは理解し、形作り、独立してデプロイできるモデルにますます傾倒しています。もしビッグAIが方向転換に失敗するなら、それは知性の欠如ではなく、彼らが耳を傾けることを妨げた過剰な傲慢さによるものでしょう。