Google 发布 Gemma 3 270M:设备端微型AI,性能卓越

Arstechnica

多年来,科技行业的巨头们一直深陷军备竞赛,不断开发更大的人工智能模型,这些模型需要庞大的计算资源,通常以云服务的形式提供。然而,一种新趋势正在浮现:追求紧凑高效的AI。谷歌最近推出了其开放式Gemma模型的微型版本,专为在本地设备上运行而设计。这个新版本被命名为Gemma 3 270M,尽管其占用空间极小,却承诺提供卓越的性能和易于调优的特性。

今年早些时候,谷歌推出了最初的Gemma 3开放模型,其参数规模从10亿到270亿不等。在生成式AI领域,参数代表着模型处理输入以生成输出所依赖的学习变量。通常,参数数量越高,性能越好。然而,Gemma 3 270M打破了这一模式,它仅有2.7亿个参数,却能无缝地在智能手机等日常设备上,甚至直接在网络浏览器中运行。

在本地运行AI模型具有显著优势,最突出的是增强的隐私性和降低的延迟。Gemma 3 270M正是针对这些特定用例而设计的。在Pixel 9 Pro上的测试显示,这款新的Gemma模型在设备Tensor G4芯片上能够同时处理25个并发对话,而电池消耗仅为0.75%。这使其成为迄今为止发布的最节能的Gemma模型,效率远超其他版本。

尽管开发者应理性看待其与数十亿参数模型相比的性能,但Gemma 3 270M仍具有相当大的实用价值。谷歌利用IFEval基准测试(一种评估模型指令遵循能力的标准测试)来展示其惊人的实力。Gemma 3 270M在该测试中取得了51.2%的得分,表现优于其他一些参数数量更多的轻量级模型。可预见的是,它不及Llama 3.2这样拥有超过十亿参数的大型模型,但其性能差距却远小于其参数比例所暗示的。

谷歌声称Gemma 3 270M开箱即用,在遵循指令方面表现出色,但它也期待开发者能针对其独特应用对模型进行微调。其适中的参数数量有助于实现快速且经济高效的微调过程。谷歌设想新的Gemma模型将用于文本分类和数据分析等任务,它能迅速完成这些任务,而无需大量计算资源。

谷歌将其Gemma模型标记为“开放”,这个术语虽然不完全等同于“开源”,但共享许多实际相似之处。开发者可以免费下载新的Gemma模型,其模型权重也随时可用。至关重要的是,没有单独的商业许可协议,这使得开发者能够修改、发布并在自己的工具中部署Gemma 3 270M的衍生版本。然而,所有Gemma模型用户都必须遵守特定的使用条款,这些条款禁止训练模型生成有害输出或故意违反隐私法规。开发者还有义务详细说明所做的任何修改,并为所有衍生版本提供一份使用条款副本,这些衍生版本将继承谷歌的自定义许可。

Gemma 3 270M现已在Hugging Face和Kaggle等平台上线,提供预训练和指令调优版本。它也可以在谷歌的Vertex AI中进行测试。为了进一步展示该模型的功能,谷歌还重点介绍了一个完全基于浏览器的故事生成器,该生成器基于Transformer.js构建,即使对于不直接参与轻量级模型开发的人员,也能提供直观的演示。