谷歌Gemma 3 270M:口袋里的AI,手机端智能新突破

Nyheter

在设备端人工智能领域取得重大飞跃,谷歌推出了Gemma 3 270M,这是其迄今为止最紧凑的人工智能模型,专为直接在智能手机和其他边缘设备上运行而设计。这款微型“动力源”是更广泛的Gemma 3系列的一部分,标志着谷歌在普及和高效化复杂人工智能能力方面的战略转变,不再仅仅依赖庞大的云基础设施。

Gemma 3 270M仅有2.7亿个参数,其大小仅为传统大型语言模型的一小部分,但它有望为日常应用提供实质性效用。它被设计为直接在智能手机上运行,占用约0.5 GB的运行内存,对于具备其能力的人工智能模型而言,这是一个非常小的占用空间。这种效率也延伸到电池消耗;在Pixel 9 Pro上的内部测试表明,INT4量化模型在进行25次对话时仅消耗了设备0.75%的电池电量,使其成为谷歌迄今为止最节能的Gemma模型。能源效率上的这一突破对于在移动设备上的广泛采用至关重要,因为电池续航和散热性能至关重要。

在设备本地运行人工智能模型(通常称为“端侧AI”)带来了诸多好处。其中最重要的是增强用户隐私,因为敏感数据可以直接在智能手机上处理,而无需发送到外部云服务器。这种本地处理也意味着显著降低了延迟,提供即时响应,即使没有互联网连接也能启用AI功能。此外,它还有助于大幅削减开发者和企业的推理成本,消除了对持续、昂贵的基于云的计算的需求。谷歌还强调了环境优势,指出由于减少了对数据中心的依赖,碳排放也随之降低。

Gemma 3 270M并非旨在成为像其大型模型那样通用的对话式AI,而是一个高度专业化的工具,用于特定任务。它在指令遵循和文本结构化方面表现出色,使其成为微调应用程序的理想基础。开发者可以利用其紧凑的架构实现广泛的功能,包括情感分析、实体提取、查询路由、将非结构化文本转换为结构化数据,甚至创意写作。它在IFEval基准测试中表现出色,该基准评估模型遵循可验证指令的能力,为同等规模的模型设定了新标准。除了智能手机,该模型还可以为物联网(IoT)设备提供AI支持,例如医疗可穿戴设备和自主物联网系统,甚至可以直接在网络浏览器中或在树莓派等小型低功耗计算机上运行。一个示例应用展示了其在“睡前故事生成器”应用中的潜力,可以在设备上创建个性化、上下文丰富的叙事。

Gemma 3 270M的发布是小型语言模型(SLM)更广泛行业趋势的一部分,微软、Mistral AI和Hugging Face等公司也在大力投资高效AI解决方案。谷歌将此模型视为其“Gemma宇宙”的关键组成部分,该战略融合了开放和专有AI技术。Gemma 3 270M在允许商业使用、修改和分发的宽松许可下提供,有望实现AI开发的民主化,赋能更广泛的开发者构建创新的端侧AI应用程序。