
国内AI公司DeepSeek于昨日深夜在Hugging Face平台开源全新大语言模型V3.1-Base,这一动作再次引发开发者社区关注。据官方介绍,该模型参数量高达6850亿,最大亮点在于将上下文窗口扩展至128K,这意味着模型可同时处理相当于30万汉字篇幅的超长文本,显著提升复杂任务处理能力。开源地址已同步公布在Hugging Face资源库,开发者可自由下载测试。
值得注意的是,就在开源前数小时,DeepSeek已率先完成线上服务的全面升级。用户现可通过官网、移动端App及小程序直接体验V3.1版本,API调用方式保持兼容,企业用户无需调整现有集成方案。此次同步更新显示出DeepSeek在开源与商业化落地的协同布局,其技术迭代速度也令业界瞩目。
不过,备受期待的DeepSeek R2项目仍未公布具体发布时间表。分析人士指出,当前V3.1版本在长文本理解、多轮对话等场景的性能突破,或为后续产品线奠定重要技术基础。随着128K上下文成为行业新标杆,这场由国内团队引领的大模型竞赛正进入全新阶段。
原创文章,作者:野游栗,如若转载,请注明出处:https://www.kejixun.co/article/731572.html