Google DeepMind 4 月 6 日正式发布 Gemma 4,这是 Gemma 系列开放权重模型的第四代,共推出四个版本,授权改採 Apache 2.0,并新增对多模态输入、agent 工作流程的原生支持。
四种规格:从行动装置到服务器全覆盖
31B 稠密模型在 Arena AI 文字排行榜的开源模型中排名第三;26B 混合专家模型排名第六。Google 表示,这两款大型模型在 Arena AI 基准测试中,相较参数量多达 20 倍的其他模型仍有优势。
核心能力:多模态、音讯、140 种语言
四个版本均原生支持影片与图片多模态输入,涵盖 OCR 与图表理解。边缘版本(E2B、E4B)额外支持音讯输入,可用于语音辨识场景。
所有模型均支持函数调用(function calling)、结构化 JSON 输出,以及用于建构 agent 工作流程的原生系统指令。训练语料涵盖超过 140 种语言。
授权从自订改为 Apache 2.0,商业使用更友善
过去 Gemma 系列使用的自订授权对修改与再发布有所限制,Gemma 4 改採业界标准的 Apache 2.0 授权,允许商业使用、修改与再发布,无需与 Google 另行签署协议。Google 表示,此举使 Gemma 4 更适合企业与开发者应用。
四款模型现已全面开放使用。Google 目前尚未公布边缘模型整合至 Android 或消费者硬件产品的时间表。
这篇文章 Google 推出 Gemma 4:四种规格、Apache 2.0 授权、从手机到服务器全覆盖 最早出现于 链新闻 ABMedia。