Claude Sonnet 4 上下文窗口跃升百万,AI理解力再攀高峰

Decoder

Anthropic 大幅扩展了其 Claude Sonnet 4 人工智能模型的“上下文窗口”,使其能够单次处理前所未有的一百万个 token。这项重大升级目前已通过 Anthropic API 和 Amazon Bedrock 提供,并将很快通过 Google Cloud Vertex AI 提供,相较于之前的容量提升了五倍。从实际应用角度来看,一百万个 token 可以等同于一个完整的庞大代码库、大量研究论文集合,或数本综合性书籍,使 AI 能够对其获得的信息保持更广泛的理解。

这项增强功能主要面向处理海量数据集的开发者和组织。它支持高级用例,例如分析广泛的源代码库、总结海量的文本,或从大型文档集中提取见解,而无需将其分解成更小、零散的片段。一次性连贯处理如此大量信息的能力有望简化复杂的分析任务,并通过提供更全面的数据视图来提高 AI 生成输出的质量。一百万 token 的上下文窗口目前处于公开测试阶段,可供拥有 Tier 4 或自定义 API 限制的客户访问,表明其初步重点是高容量企业用户。

虽然扩展的上下文窗口提供了显著优势,但它也伴随着修订后的定价结构,旨在反映增加的计算需求。对于超过 200,000 个 token 的输入请求,Anthropic 将费率设定为每百万 token 6 美元,是标准收费的两倍。同样,输出 token 现在每百万 token 将花费 22.50 美元,高于之前的 15 美元。这种分级定价模式凸显了处理如此大量数据的溢价性质。

为了帮助减轻这些增加的成本,Anthropic 建议开发者利用特定的优化技术。“提示缓存”涉及存储和重用常见查询,可以减少冗余处理。更重要的是,“批处理”——同时提交多个请求——有可能将费用降低高达 50%。这些策略对于希望最大限度地利用更大上下文窗口同时有效管理运营支出的开发者至关重要。

Anthropic 的这一举动凸显了 AI 开发者之间在突破大型语言模型能力边界方面的持续竞争。扩展上下文窗口是创建更复杂、更自主的 AI 系统的关键一步,超越了简单的对话代理,成为能够对高度复杂和海量数据进行深入、全面分析的工具。它预示着 AI 能够消化并推理整个知识体系而不仅仅是孤立片段的未来,这可能改变各行业处理信息和解决复杂问题的方式。