苹果AI Siri测试:多应用语音指令变革交互
据报道,苹果公司正在其语音助手Siri的转型上取得重大进展,旨在将其打造成为一个更强大、更直观的工具,能够仅通过用户语音执行复杂的、跨应用程序的命令。彭博社援引的最新报告详细介绍了这项雄心勃勃的改革,其目标是将Siri从一个简单的查询应答器转变为用户数字生活的中央指挥中心。
这项进步的核心是大幅更新的App Intents框架,这是苹果的开发者工具,允许应用程序将其核心功能暴露给系统。这项增强意味着Siri将不再局限于基本的应用程序启动或单一操作命令。相反,它将使用户能够无缝地跨各种应用程序执行复杂的、多步骤的任务。想象一下,指示Siri“找到我在海滩上的照片,编辑它们以增强色彩,然后将最好的一张发送给约翰”,然后看着它在不进行任何点击的情况下执行整个序列。
除了照片管理,改进后的Siri还被设想能够处理广泛的日常数字交互。用户可以通过语音命令在社交媒体平台上发布评论,轻松登录不同的服务,甚至完成在线交易,例如浏览购物应用并将商品添加到购物车。这一发展标志着一个关键时刻,预示着与苹果设备的交互将更加流畅、解放双手且更少干扰。
尽管苹果在2024年的全球开发者大会(WWDC)上展示了先进的智能Siri演示,但这些下一代功能的全面推出却面临延迟。消息人士现在指出,可能会在2026年春季发布,与Siri底层基础设施的更广泛改革同步进行。苹果目前正在对其内部应用程序以及包括优步、亚马逊、YouTube、Facebook、WhatsApp、Threads和Temu在内的一些热门第三方应用程序进行广泛的内部测试。
然而,通往这种高级语音控制的道路并非没有挑战。由于严格的安全和准确性问题,银行、金融和健康应用程序等高度敏感的类别在发布时可能会受到Siri功能的限制,甚至完全排除在多应用控制之外。延迟本身部分归因于将Siri十年之久的基础架构改造以适应生成式AI的复杂性,以及确保绝对可靠性的必要性,尤其是在高风险场景中。
这一战略转变凸显了苹果2025年更广泛的人工智能战略,该战略通过其“Apple Intelligence”框架和“Private Cloud Compute”优先考虑设备端智能、生态系统集成和用户信任。该公司向“语音优先”交互生态系统的迈进也被视为未来硬件创新的关键,包括计划中的智能显示器和桌面机器人,这两者都将严重依赖自然、基于语音的交互。随着苹果在竞争激烈的人工智能领域中航行,据报道,它还在探索与外部人工智能提供商(如Perplexity AI和OpenAI)进行战略收购和合作,以进一步增强Siri的能力并加速其AI路线图。