Apple、AI搭載Siriで複数アプリ音声コマンドをテスト中
報道によると、Appleは音声アシスタントSiriを、ユーザーの音声だけで複雑な複数アプリケーションコマンドを実行できる、はるかに強力で直感的なツールへと変革するために、大きな進歩を遂げています。ブルームバーグを引用した最近の報告書で詳しく述べられているこの野心的な刷新は、Siriを単純なクエリ応答者から、ユーザーのデジタルライフの中心的なコマンドハブへと移行させることを目指しています。
この進歩の核心にあるのは、大幅に更新されたApp Intentsフレームワークです。これは、アプリケーションがその主要な機能をシステムに公開することを可能にするAppleの開発者ツールです。この強化により、Siriは基本的なアプリの起動や単一アクションのコマンドに限定されなくなります。その代わりに、ユーザーはさまざまなアプリケーション間で複雑な多段階タスクをシームレスに実行できるようになります。Siriに「ビーチでの写真を見つけて、色を強調するように編集し、最高のものをジョンに送って」と指示し、一切タップすることなく、その一連の動作が実行されるのを想像してみてください。
写真管理にとどまらず、改良されたSiriは、幅広い日常のデジタルインタラクションを処理することが構想されています。ユーザーは、ソーシャルメディアプラットフォームにコメントを投稿したり、異なるサービスに楽々ログインしたり、さらにはショッピングアプリを閲覧して商品をカートに追加するといったオンライン取引も、すべて音声コマンドを通じて完了できるようになります。この開発は極めて重要な瞬間を画し、Appleデバイスとのより流動的でハンズフリー、そして邪魔にならないインタラクションを約束します。
Appleは2024年のWorldwide Developers Conference(WWDC)で高度でインテリジェントなSiriのデモを披露しましたが、これらの次世代機能の本格的な展開は遅延に直面しています。情報筋によると、Siriの基盤となるインフラストラクチャの広範なオーバーホールと同時期に、2026年春にリリースされる可能性が示唆されています。Appleは現在、この機能の広範な社内テストを実施しており、自社アプリケーションだけでなく、Uber、Amazon、YouTube、Facebook、WhatsApp、Threads、Temuといった人気のあるサードパーティアプリの一部でもテストを行っています。
しかし、この高度な音声制御への道は課題がないわけではありません。厳格なセキュリティと正確性に関する懸念から、銀行、金融、健康アプリケーションのような非常に機密性の高いカテゴリでは、Siriの機能が制限されたり、リリース時にはこの複数アプリ制御から完全に除外されたりする可能性があります。遅延自体は、Siriの10年前のアーキテクチャを生成AIに対応させる複雑さ、特にリスクの高いシナリオにおいて絶対的な信頼性を確保する必要性に部分的に起因しています。
この戦略的転換は、Appleの2025年におけるより広範な人工知能戦略を強調するものです。この戦略では、「Apple Intelligence」フレームワークと「Private Cloud Compute」を通じて、デバイス上でのインテリジェンス、エコシステム統合、およびユーザーの信頼を優先しています。同社の「音声優先」のインタラクティブエコシステムへの移行は、計画されているスマートディスプレイや卓上ロボットを含む将来のハードウェア革新にとっても重要と見なされており、これらはどちらも自然な音声ベースのインタラクションに大きく依存するでしょう。Appleが競争の激しいAI分野を進む中で、Siriの機能をさらに強化し、AIロードマップを加速させるため、Perplexity AIやOpenAIなどの外部AIプロバイダーとの戦略的買収や提携も模索していると報じられています。