
谷歌近日对其Gemini系列大型语言模型进行了重要更新,重点推出了Gemini2.5Flash和Flash Lite两款新版本,在速度和效率方面实现了显著提升。这一改进是在大版本发布之间的持续优化,展现了谷歌在AI领域不断创新的决心。
根据第三方分析机构Artificial Analysis的评估,Gemini2.5Flash Lite已成为其网站上”最快的专有模型”,输出速度达到每秒887个token,比上一版本提升了40%。虽然与K2Think开源模型(每秒2000个token)相比仍有差距,但这一速度在专有模型中已属领先水平。同时,Gemini2.5Flash在多步骤任务处理能力上表现突出,在SWE-Bench Verified基准测试中的得分提高到了54%。
这两款新模型在输出质量和成本效率上都有明显改进。Flash Lite版本通过减少50%的输出token,显著降低了高通量应用的部署成本。谷歌还为开发者提供了新别名,便于整合最新版本的模型,进一步提升了开发体验。
除了语言模型的更新,谷歌还增强了Gemini Live实时音频模型的功能。新版本提高了函数调用的可靠性和自然对话处理能力,使开发者能够构建响应更迅速的语音助手。用户现在可以通过预览版直接体验更新后的Gemini Live模型。
原创文章,作者:Google,如若转载,请注明出处:https://www.kejixun.co/article/735103.html