
谷歌今日正式发布Gemma 4系列开源大模型,号称迄今为止该公司最智能的开源模型,专为高级推理与智能体工作流打造。本次共推出四种规格:高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿混合专家模型(MoE)以及310亿稠密模型(31B)。全系产品超越简单对话场景,可处理复杂逻辑与自主智能体任务。其中31B模型在行业标准Arena AI文本榜单中位列全球开源模型第三名,26B模型位居第六,甚至超越了自身规模20倍的模型性能。这种全新的“单位参数智能水平”意味着开发者只需更少的硬件开销,即可获得前沿级AI能力。
在端侧设备上,E2B与E4B模型重新定义了本地部署价值,侧重多模态能力与低延迟处理。Gemma 4全系支持高级推理,具备多步规划与深度逻辑能力,在数学和指令执行等基准测试中提升显著。同时原生支持函数调用、结构化JSON输出与系统指令,可构建对接各类工具与API的自主智能体。代码生成方面,能实现高质量离线代码生成,将工作站变为本地化AI编程助手。视觉与音频上,全系原生支持视频、图像处理,兼容可变分辨率,在OCR、图表理解等任务表现出色;E2B与E4B额外搭载原生音频输入能力。上下文窗口方面,端侧模型达128K,大模型最高支持256K,可一次性处理代码库或长文档。此外,模型基于超过140种语言原生训练,便于开发全球包容性应用。
对于研究者与开发者,26B与31B模型针对通用硬件优化,非量化bfloat16权重可适配单张英伟达H100 GPU,量化版本甚至能在消费级GPU上运行。26B混合专家模型仅激活38亿参数,实现极快令牌生成;31B稠密模型则最大化原始性能。E2B与E4B从底层设计追求算力与内存效率,与谷歌Pixel团队、高通、联发科等合作,可在手机、树莓派等端侧设备离线运行。安卓开发者现已可在AICore开发者预览版中搭建智能体流程,实现与Gemini Nano 4的向前兼容。
原创文章,作者:Google,如若转载,请注明出处:https://www.kejixun.co/article/749214.html