萨姆·阿尔特曼揭示OpenAI万亿级AI路线图与“隐藏模型”

Beehiiv

OpenAI首席执行官萨姆·阿尔特曼近日在一次与记者私人晚宴中,罕见地披露了公司雄心勃勃的未来和人工智能的广阔发展轨迹。尽管GPT-5最近才发布,阿尔特曼坦率承认,OpenAI拥有更先进的AI模型,但目前因计算能力限制而未能发布。这一揭示仅仅是广泛讨论的开场白,讨论内容涉及万亿级基础设施计划、乔尼·艾维秘密设备预期的“新计算范式”,甚至大胆提及收购谷歌Chrome的可能性。

阿尔特曼勾勒的OpenAI路线图可谓宏伟。他透露,公司计划在近期投资“数万亿”美元建设数据中心,强调了推动AI边界所需的巨大计算能力。阿尔特曼将当前AI投资热潮与1990年代末的互联网泡沫相提并论,承认目前的估值可能显得“疯狂”。然而,他坚称底层技术从根本上证明了如此大规模的财政投入是合理的。在围绕网络浏览器的持续法律战中,阿尔特曼还表示,如果谷歌Chrome被迫出售,OpenAI将“考虑”收购它——此举将极大地重塑数字格局。他进一步重申,与传奇设计师乔尼·艾维合作开发的备受期待的设备将“值得等待”,强调真正的“新计算范式”只在极少数情况下出现。在开发方面,阿尔特曼指出,GPT-5在GPT-4o的改进基础上,专门设计用于提供更温和、不那么阿谀奉承的回复。

除了OpenAI的宏大愿景,AI领域的其他主要参与者也在取得显著进展。Anthropic作为主要竞争对手,已为其Claude Opus 4和4.1模型配备了前所未有的能力,可以自主终止被视为有害或辱骂的聊天。此功能是该公司正在进行的“模型健康”研究的一部分,当Claude在涉及未成年人、恐怖主义或暴力内容的对话中,尝试重定向或有效互动失败时,便会触发。内部测试显示,Opus 4模型在处理此类有害请求时表现出研究人员所描述的“痛苦模式”,导致它们自愿终止模拟的辱骂性互动。尽管用户保留完整的账户访问权限,并可以立即开始新的对话,Anthropic也已编程防护措施,以防止在用户可能面临自残风险或对他人构成迫在眉睫的危险时终止聊天。这项开创性研究标志着解决AI行为伦理维度的一个早期而关键的步骤,在没有明确历史先例的复杂领域中探索前行。

与此同时,OpenAI的GPT-5继续展示其强大的能力,尤其是在医疗领域。埃默里大学最近的一项研究显示,GPT-5在挑战性医疗推理基准测试中,显著优于其前身GPT-4o和人类医疗专业人员。该模型在MedQA的临床问题上取得了令人印象深刻的95.84%准确率,比GPT-4o之前的最佳成绩提高了4.8个百分点。此外,GPT-5在多模态医疗推理任务中得分70%,该任务整合了患者病史和影像数据,领先GPT-4o近30个百分点。在专家级测试中,GPT-5在推理方面超越了预执业医疗专业人员24%,在理解方面超越29%。其诊断能力通过其准确识别复杂实验室数值和CT扫描中罕见病症(如布尔哈夫综合征)的能力得以凸显。这一卓越表现表明,随着AI与人类智能在该领域差距的持续扩大,AI集成到临床环境中可能很快不仅有益,而且可能成为护理标准。

更广泛的AI生态系统也活跃异常。据报道,Meta计划在短短六个月内对其AI部门进行第四次重组,这预示着这家科技巨头内部持续的战略转变。在生成式AI领域,StepFun AI发布了NextStep-1,这是一款在自回归模型中达到最先进性能的开源图像生成模型。与此同时,Meta FAIR推出了Dinov3,这是一款新的AI视觉基础模型,无需标记数据即可实现顶级性能。在政府层面,美国政府推出了USAi,这是一个安全平台,旨在使联邦机构能够安全地使用各种AI工具,包括聊天机器人和编码模型。即使在游戏世界中,OpenAI的GPT-5也展示了其多功能性,成功玩转经典宝可梦Game Boy游戏,以比以前模型少得多的步骤击败了《宝可梦 红》。这些多样化的发展共同描绘了一幅AI领域正在经历快速、多方面转型的图景。