2030年实现AGI?计算极限呼唤新AI算法

Thesequence

通用人工智能(AGI)——开发出能够在广泛任务中具备人类般认知能力的机器——的追求,仍然是AI研究中一个核心但备受争议的目标。驱动大部分讨论的基本问题围绕着实现这种复杂智能的最佳途径:它是仅仅通过扩展现有计算能力和模型规模的自然结果而出现,还是将需要全新的算法突破?一个引人注目但有争议的观点提出了一个中间立场:当前指数级计算扩展的轨迹可能确实会在2030年前导致AGI的实现,但这条道路随后将遇到重大瓶颈,迫使转向新的算法范式。

多年来,人工智能进步最显著的驱动力一直是计算能力和神经网络规模的持续扩展。现代的成功,例如GPT-4等先进的大型语言模型,其令人印象深刻的能力很大程度上归功于其庞大的参数数量和投入训练的巨大计算资源。该领域的许多领先专家认为,如果这种计算能力的指数级增长以当前速度持续下去,AGI的实现最早可能在2030年发生。然而,这种乐观前景正日益受到对纯粹规模扩展最终极限的严重担忧的制约。

随着我们接近2030年代,仅仅通过增加计算力来解决问题所带来的挑战,预计将导致收益迅速递减。这些新出现的限制大致分为三个关键类别:不断升级的能源消耗、日益增长的财务成本以及硬件固有的基本物理限制。训练日益大型模型所需的能源消耗已经令人震惊,引发了对环境可持续性和现有电网满足未来需求能力的质疑。在财务方面,开发和训练下一代AI模型的成本预计将达到天文数字,这可能将此类高级研究限制在少数资金充足的实体。此外,计算的物理特性本身就构成了巨大的障碍;随着晶体管缩小和密度增加,散热和量子效应等问题可能减缓甚至停止摩尔定律的历史步伐。

这些多方面的挑战表明,超越某个点后,仅仅增加计算的蛮力将不再是AI持续进步的可行策略。因此,一旦当前的规模扩展趋势在2030年代达到其实际极限,焦点将被迫发生巨大转变的论点获得了支持。维持向更强大、更高效AI系统迈进的进展,将关键地依赖于重大的架构创新和深刻的算法突破。这需要对AI模型如何学习和处理信息进行根本性重新评估,转向更高效的、可能受生物学启发的方法,以更少的计算开销实现更高的智能。因此,通向AGI的道路可能最初由规模扩展铺就,但其最终完成很可能需要范式转变,转向更智能而非仅仅更大的AI。