当前位置:商业频道首页 > 财讯 > 正文

迈向智能体时代的第一步!DeepSeek V3.1发布,上下文扩展至128K,影响有多大?

国产大模型公司深度求索旗下DeepSeek低调上新,多领域能力提升。

8月21日下午,DeepSeek正式发布DeepSeek-V3.1,称其为“迈向Agent(智能体)时代的第一步”。8月20日晚间,DeepSeek低调上线DeepSeek V3.1,此次升级推出的新功能引发广泛关注,V3.1已在HuggingFace趋势榜排名第三。

据介绍,V3.1包含三大主要变化。首先,V3.1采用混合推理架构,一个模型同时支持思考模式与非思考模式;其次,V3.1具有更高的思考效率,相比DeepSeek-R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案;另外,V3.1具有更强的Agent能力,通过Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升。

在技术架构层面,V3.1继承了DeepSeekV3系列的关键技术,包括MLA、MoE等,参数量与V3版本相同。

DeepSeekV3.1最引人注目的升级之一是将上下文窗口从原有的64k扩展至128k,意味着其可以处理更长篇幅的文档和代码,并在回答内容上进一步增加信息,提供更多细节,语气更为活泼。

从官方APP和网页端的显示来看,DeepSeek去掉了“深度思考(R1)”中的“R1”标识。同时,与V3-base相比,DeepSeekV3.1新增了四个特殊Token。虽然目前DeepSeek官方尚未发布任何关于这一改动的消息,有推测认为,这可能暗示着推理模型R系列与非推理模型V系列的融合,以此实现GPU资源复用。

同时,V3.1在编程任务中表现突出。根据社区使用Aider测试数据,V3.1在AiderPolyglot多语言编程测试中,拿下了71.6%的高分,超越了Claude4Opus和DeepSeekR1等模型。在SVGBench基准测试中,其实力仅次于GPT-4.1-mini,远超DeepSeekR1。

DeepSeek方面表示,V3.1在多项搜索评测指标上也取得了较大提升。在需要多步推理的复杂搜索测试(browsecomp)与多学科专家级难题测试(HLE)上,DeepSeek-V3.1 性能已大幅领先 R1-0528。

热点推送

本周关注

MORE