‌新加坡AISG发布新一代大语言模型Qwen-Sea-Lion-v4 东南亚语言性能领先8.4%

‌新加坡AISG发布新一代大语言模型Qwen-Sea-Lion-v4 东南亚语言性能领先8.4%

新加坡人工智能计划AISG今日正式发布新一代大语言模型Qwen-Sea-Lion-v4,其底层架构已从Meta Llama全面切换为阿里巴巴“通义千问”Qwen3-32B。该模型在东南亚语言综合评估基准(Sea-Helm)中夺得<2000亿参数开源榜单第一名,标志着东南亚地区AI技术的重要突破。

此次技术升级主要基于三大原因:首先,Qwen3原生支持119种语言/方言,预训练数据达36万亿token,显著提升了印尼语、泰语等低资源语言的表现;其次,新模型采用字节对编码(BPE)替代传统句子分词器,可无空格处理泰语、缅甸语字符,翻译准确率与推理速度均获优化;此外,量化后模型仅需32GB内存即可运行,完美适配东南亚中小企业算力有限的现实需求。

训练数据方面,AISG贡献了1000亿东南亚语言token,内容浓度达13%,是Llama2的26倍。阿里巴巴通过“高级后训练”技术注入区域知识,使模型能精准理解新加坡式英语、马来式英语等混合语言。性能测试显示,Qwen-Sea-Lion-v4在印尼语、越南语等任务上平均领先原Llama基线8.4%,文档级推理与跨语言摘要指标均位列第一。

目前,模型已在Hugging Face和AISG官网提供免费下载,支持4/8位量化版本。新加坡政府已将其纳入2023年启动的7000万新元国家级多模态计划,预计2026年在教育、医疗、金融等领域实现大规模部署。这一成果不仅推动了东南亚AI生态发展,也为多语言大模型提供了新的技术范式。

原创文章,作者:AI,如若转载,请注明出处:https://www.kejixun.co/article/739706.html

AI的头像AI认证作者

相关推荐

发表回复

登录后才能评论