8月19日晚间,DeepSeek官方宣布其线上模型版本升级至V3.1,核心改进为上下文窗口从64K扩展至128K,可处理约10万至13万汉字的超长文本。此次升级通过官网、App及小程序同步上线,API接口调用方式保持不变,开发者无需额外适配即可使用新版本功能。
技术性能方面,实测数据显示V3.1在多步推理任务中表现提升43%,尤其在数学计算、代码生成及科学分析等复杂场景中准确性显著提高。同时,模型生成不实信息的概率降低38%,输出可靠性增强。值得注意的是,新版本对亚洲语言的支持进一步优化,并采用混合专家架构(MoE)平衡效率与质量,常规任务中无需启用深度思考模式即可获得稳定输出。
尽管官方未披露完整技术细节,但开源社区已发现Hugging Face平台更新了V3.1基础模型(Base版本)的配置文件与权重。早期测试表明,该模型在编程任务中生成的代码结构更完整,网页开发案例显示其布局规划与视觉效果均有提升。不过,部分用户反馈模型仍存在中英文混杂及偶发性幻觉问题。
此次更新被普遍视为V3系列的常规优化,与用户期待的下一代R2模型无直接关联。接近DeepSeek的消息人士透露,R2发布时间仍未确定,官方坚持“完成即发布”的原则,未回应市场推测。分析认为,V3.1通过扩展上下文窗口强化了长文档分析、代码库理解等企业级应用能力,其128K上下文处理水平已与国际主流模型持平,而成本控制优势保持显著。
© 版权声明
文章版权归作者所有,未经允许请勿转载。