谷歌的Gemma 3 270M:能在烤面包机上运行的袖珍AI模型

Siliconangle

谷歌有限责任公司的人工智能研究部门Google DeepMind,发布了其迄今为止最紧凑的AI模型之一:Gemma 3 270M。这款新模型仅拥有2.7亿个参数,这与最强大的前沿大型语言模型通常包含的数十亿个参数形成鲜明对比,后者的参数是决定其行为的内部设置。

Gemma 3 270M 的设计选择着重于精简和效率,使其能够直接在智能手机等低功耗设备上运行,甚至无需互联网连接。尽管体积小巧,谷歌仍声称 Gemma 3 270M 能够高效处理一系列狭窄而复杂的领域特定任务,这主要得益于开发者可以快速对其进行微调,以满足其精确需求。为了强调其易用性,Google DeepMind 的员工 AI 开发者关系工程师 Omar Sanseviero 在 X 上幽默地表示,该模型小到可以在“你的烤面包机里”或树莓派等紧凑型硬件上运行。

Google DeepMind 团队在一篇博客文章中进一步阐述,Gemma 3 270M 的架构将 1.7 亿“嵌入参数”与 1 亿“Transformer 块参数”相结合。这种配置使其能够处理甚至罕见和特定的语言单元,使其成为一个强大的基础模型,可以有效地针对特定任务和语言进行专门化。其设计确保在指令遵循任务中表现出色,同时又足够小巧,便于在计算资源有限的设备上快速微调和部署。该模型的架构借鉴了更大的 Gemma 3 系列,后者旨在单个图形处理单元上运行,并附带全面的资源,包括微调方案、文档以及针对 Hugging Face、JAX 和 UnSlot 等流行开发工具的部署指南。

Gemma 3 270M 的初步基准测试结果令人鼓舞。该模型的一个指令微调版本在 IFEval 基准测试中获得了 51.2% 的分数,该测试评估 AI 模型准确遵循指令的能力。这一表现显著超越了同等大小的紧凑型模型,例如 Qwen 2.5 0.5B Instruct 和 SmolLM2 135M Instruct,谷歌指出它甚至接近一些参数达数十亿的更小型模型的能力。然而,紧凑型 AI 模型的竞争格局异常激烈。初创公司 Liquid AI Inc. 迅速反驳了谷歌的说法,指出其在仅仅一个月前发布的 LFM2-350M 模型在同一基准测试中获得了更高的 65.12% 分数,尽管其参数量仅略多。

尽管如此,谷歌强调 Gemma 3 270M 的主要优势在于其能源效率。在 Pixel 9 Pro 智能手机上对该模型的 INT4 量化版本进行的内部测试显示出卓越的电量节省:25 次对话仅消耗了设备 0.75% 的电量。这使得 Gemma 3 270M 成为旨在将 AI 直接部署到设备上的开发者的理想选择,对于数据隐私和离线功能至关重要的应用程序来说,这是一项关键能力。

谷歌强调,AI 开发者应根据具体任务而非仅仅模型大小来选择工具,以提升应用程序性能。对于创意写作、合规性检查、实体提取、查询路由、情感分析和结构化文本生成等任务,Gemma 3 270M 可以进行微调,以比大型、数十亿参数的语言模型显著更高的成本效益提供有效结果。一段引人注目的演示视频展示了一位开发者构建了一款由 Gemma 3 270M 驱动的睡前故事生成器应用。该应用能够在网络浏览器中离线运行,根据家长提示生成原创儿童故事,综合角色、场景、主题、情节转折和所需故事长度等多种输入,快速生成连贯的叙事。这展示了端侧 AI 的快速进步,为无需互联网连接即可运行的新颖应用打开了大门。Gemma 3 270M 现已通过 Hugging Face、Docker、Kaggle、Ollama 和 LM Studio 等平台向开发者开放,提供预训练和指令微调版本供下载。