
开源大模型赛道再迎重磅选手。3月18日,Mistral AI宣布正式开源其Small系列最新力作Mistral Small4,并同步加入英伟达新成立的Nemotron联盟,成为创始成员之一。这款模型被官方定义为“三位一体”的多功能模型,整合了此前Mistral家族的三大旗舰能力:Magistral的卓越逻辑推理、Pixtral的原生多模态处理(支持图像输入)以及Devstral的专业智能体编码能力。这意味着开发者无需再根据场景切换不同模型,一个模型即可应对从快速指令到复杂推理、从视觉分析到代码生成的全方位需求。
在技术规格上,Mistral Small4采用了精密的128专家混合(MoE)架构。虽然总参数量达到1190亿,但通过优化,每个Token仅激活4个专家(约60亿活动参数),在保证高性能的同时显著降低算力开销。256k的超长上下文窗口,使其在处理长文档分析和复杂对话时游刃有余。更值得关注的是,该模型引入了“可配置推理强度”功能,用户可在低延迟快速响应与深度推理输出之间自由切换。实测数据显示,在延迟优化模式下,端到端完成时间减少40%;在吞吐量优化模式下,每秒请求数相比前代产品提升3倍。
从代码补全到视觉分析,Mistral Small4的开源为全球开发者提供了一个更灵活高效的“全能底座”。当顶尖推理能力与原生多模态合二为一,开源社区的创新天花板或将被再次拉高。
原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.co/article/747807.html