双层AI:AGI部署的“金鹅”战略
人工智能的飞速发展正将人类带向一些人所称的超级智能或通用人工智能(AGI)的疆界。埃隆·马斯克等有远见的人士曾谈到AI发现新物理学和产生开创性发明的潜力。随着AI能力的扩展,其对用户、市场和政府的影响是深远的。虽然目前的AI模型通常会带有安全机制公开发布——主要是为了防止版权侵犯或政治干扰等问题——但通用人工智能(AGI)的即将到来正在改变开发者的战略考量。
一旦AI超越其作为自动化和增强工具的角色,变得不仅能取代单个任务,还能取代整个团队、部门乃至公司,并能自主改进,其发布策略就变得至关重要。在这种情况下,将这些高度先进的模型广泛地开放给市场可能会在经济上适得其反。让竞争对手接触到最复杂的AI系统,将有损那些在其开发上投入巨资的公司。
这种不断变化的局面引入了一些人所称的“金鹅时代”。这个比喻表明,一种能够产生巨大、持续价值的资产,就像一只会下金蛋的鹅,会被保留和利用,而不是出售。领先的AI公司正越来越多地采纳这种观点。预计最强大的AI模型将保持专有,在内部部署以加速创新、优化运营,甚至孵化全新的业务。只有“助理级”或较低层级的AI模型,尽管仍能提高生产力,预计会公开发布,因为它们不会与真正的AGI能力相媲美。
这种战略转变在其他行业已经显而易见。例如,特斯拉自动驾驶汽车的商业模式就说明了这一原则:虽然销售汽车会带来固定利润,但将该车辆作为机器人出租车车队的一部分进行运营,几年内产生的回报可能远超初始销售价格。运营高价值资产而非仅仅出售它的经济优势是不可否认的,同样的逻辑现在正应用于先进的AI。
在这种经济转型中,政府机构正在引入监管框架。例如,欧盟最近的《人工智能法案》规定,通用人工智能模型的提供者必须使用标准化模板提交其训练数据的公开摘要。虽然这被视为透明度和问责制的措施,但批评者认为这一举措可能代表着官僚过度干预。
据报道,这份详细的模板长达十三页,要求对训练数据集进行广泛披露,包括对任何受保护或机密内容的说明。该法规的反对者提出了几点担忧。首先,对AI开发者的行政负担巨大,有人质疑监管机构有效审查和核实数千份如此复杂的提交文件的可行性。批评者认为,这些要求可能会给公司带来巨大的合规成本,而披露的信息可能只是未经审查地堆积起来。
其次,一个主要担忧是强制暴露专有数据。公司投入大量资源来编译和整理训练数据集,这些数据集通常体现了战略洞察和竞争优势。在通用人工智能(AGI)日益成为关键差异化因素的环境中,强制向监管机构披露这些数据,并因此可能暴露给竞争对手,被一些人视为适得其反。
第三,监管机构准确评估这些技术提交的真实性或完整性的能力受到质疑。验证数据来源和内容需要深厚的技术专业知识、大量资源和持续的执行力,批评者认为这些可能不足,从而可能将该过程简化为仅仅的“勾选框练习”,损害其预期的可信度。
批评者认为,这些监管努力忽视了正在出现的经济现实。最强大的AI模型不太可能公开发布,由于强烈的经济隐私激励。虽然法规旨在通过透明度和可解释性进行控制,但推动将顶级AI作为战略资产的市场力量正在被证明更具影响力。
因此,双层AI格局被广泛预测将成为常态。第一层,包括内部和私有运营的超智能系统,将是前所未有的价值创造的主要引擎。第二层,由公开可用但功能较弱的AI工具组成,将协助用户和小型实体适应新的技术范式。这种分叉不仅仅是一种可能性;对许多人来说,它似乎是一个不可避免的结果,根植于一个基本的经济原则:有价值的资产,就像会下金蛋的鹅,是用来运营的,而不是出售的。