微型AI模型HRM推理速度百倍超越ChatGPT,颠覆“越大越好”理念

Techrepublic

由新加坡智浦智能(Sapient Intelligence)开发的新型人工智能模型,正在挑战当前AI发展中“越大越好”的普遍理念。这款名为“层级推理模型”(Hierarchical Reasoning Model, HRM)的创新模型,从人脑结构中汲取灵感,以卓越的效率解决复杂的推理问题。

与许多依赖“浅层”架构和循序渐进的思维链(Chain-of-Thought, CoT)提示的当代大型语言模型不同,HRM采用了层级结构。研究人员指出,如果CoT方法中任何一个步骤出错,都可能导致整体失败。相比之下,HRM通过两个独特且相互连接的模块来模拟大脑的工作方式:一个负责慢速、战略性思考的高层“规划者”(类似于规划国际象棋走法),以及一个执行快速计算的低层“工作者”(如即时面部识别)。这种设计使HRM能够一次性深入处理复杂问题,并能从有限的示例中学习推理,而无需在海量数据集上进行大量预训练。

尽管其参数量仅为2700万,HRM已在各项基准测试中展现出卓越的推理能力。在常被视为AI智商测试的ARC-AGI基准上,HRM取得了40.3%的分数,显著优于OpenAI的o3-mini-high(34.5%)和Claude 3.7(21.2%)。该模型在专业任务上的表现更为突出:它成功解决了55%的Sudoku-Extreme数独谜题,并在74.5%的30x30迷宫中找到了最优路径,而Claude 3.7和o3-mini-high在这两项任务上的得分均为0%。为了更直观地理解HRM的效率,初代GPT-1模型拥有1.17亿参数,是HRM的四倍多。HRM的开发者之一王冠(Guan Wang)强调了其精益设计,指出它只需两小时GPU时间即可训练至解决专业级数独。

HRM成功的意义重大。它表明架构创新可以带来AI领域的显著进步,并可能减少对大规模计算资源的依赖。这有望降低AI部署成本,使先进模型能在单个GPU上高效运行,并大幅缩短训练时间,从数月缩短到数小时。此外,HRM的设计预示着无需昂贵计算基础设施即可提升推理能力。该模型的代码也是开源的,促进了更广泛的访问和进一步开发。

尽管一些怀疑论者认为HRM目前的技能可能过于专业化,但其早期表现为AI研究指明了一个充满希望的方向。这种受大脑启发的AI方法是探索替代性AI架构的广泛趋势之一,其中包括Sakana的连续思维机器、1比特LLM(bitnets)和谷歌正在积极试验的扩散模型。这些新兴架构虽然尚处于早期阶段,但预示着未来先进AI将不再局限于大型数据中心,而是可以在本地机器上高效运行,从而实现强大人工智能的民主化。