
突袭!国内股票配资资讯
ChatGPT 发布三周年,DeepSeek 嚯一下发出两个模型:
DeepSeek-V3.2
DeepSeek-V3.2-Speciale
前者聚焦平衡实用,适用于日常问答、通用 Agent 任务、真实应用场景下的工具调用。
推理达 GPT-5 水平,略低于 Gemini-3.0-Pro。
后者主打极致推理,推理基准性能媲美 Gemini-3.0-Pro。
还一把斩获 IMO 2025、CMO 2025、ICPC World Finals 2025、IOI 2025 金牌。
划重点,ICPC 达到人类选手第二、IOI 人类选手第十名水平。

具体来说,DeepSeek-V3.2 侧重于平衡推理能力与输出长度,降低计算开销。
DeepSeek 官微推文中写道," DeepSeek-V3.2 模型在 Agent 评测中达到了当前开源模型的最高水平"。
该模型其他情况如下:
推理能力比肩 GPT-5;
相比 Kimi-K2-Thinking 大幅缩短输出长度,减少用户等待时间;
DeepSeek 旗下首个"思考融入工具调用" 的模型,支持思考 / 非思考双模式工具调用;
基于 1800+ 环境、85000+ 复杂指令的大规模 Agent 训练数据,泛化能力强。
下图展示的是 DeepSeek-V3.2 与其他模型在各类 Agent 工具调用评测集上的得分
——特别强调,DeepSeek-V3.2 并没有针对这些测试集的工具做特殊训练。

DeepSeek-V3.2-Speciale 是 DeepSeek-V3.2 的长思考增强版,融合了 DeepSeek-Math-V2 的定理证明能力。
在指令跟随、数学证明、逻辑验证方面,DeepSeek-V3.2-Speciale 能力出众,推荐用来完成高度复杂数学推理、编程竞赛、学术研究类任务。
特别注明!这个版本目前没有针对日常对话与写作做专项优化。
而且仅供研究使用,不支持工具调用。
在高度复杂任务上,Speciale 模型大幅优于标准版本,但消耗的 Tokens 也显著更多,成本更高。

目前,DeepSeek 的 App 和 Web 端,都已经更新为正式版 DeepSeek-V3.2;Speciale 版本目前仅供临时 API 使用。
模型发布同时,技术报告也已经挂出来了。
论文里透露的技术细节相当硬核:
新的稀疏注意力机制 DSA 大幅降低计算复杂度,强化学习训练的计算量超过预训练的 10%,还有全新的大规模 Agent 任务合成管线……
具体情况,我们详细来看。
提出 DSA 高效稀疏注意力机制,长文本不再是负担
DeepSeek-V3.2 最大的架构创新是引入了 DSA(DeepSeek Sparse Attention)机制。
传统的注意力机制在处理长序列时计算复杂度是 O ( L ² ) ,严重制约了模型的部署效率和后续训练的可扩展性。
DSA 让计算复杂度降低到 O ( L · k ) ,k 远小于 L。
与此同时,DSA 让模型在长上下文任务中显著加速推理,且无明显性能损失。
支持 FP8 精度,适配 MLA(Multi-Query Attention)架构,训练友好。

怎么做到的?
DSA 主要包含两个组件,一个叫 lightning indexer(闪电索引器),另一个叫 fine-grained token selection(细粒度 token 选择)机制。
闪电索引器负责快速计算查询 token 和历史 token 之间的相关性分数,然后只选择 top-k 个最相关的 token 进行注意力计算。
团队特意选用了 ReLU 激活函数来提升吞吐量。
DeepSeek-V3.1-Terminus 开始继续训练时,团队采用了两阶段策略。
第一阶段是 Dense Warm-up,保持密集注意力,只训练 lightning indexer,让它学会对齐主注意力的分布。
这个阶段只用了 1000 步,处理了 21 亿个 tokens。
第二阶段才引入稀疏机制,每个查询 token 选择 2048 个键值对,训练了 15000 步,总共处理了 9437 亿个 tokens。
实测效果相当给力——
在 128k 长度的序列上,DeepSeek-V3.2 的推理成本比 V3.1-Terminus 降低了好几倍。
H800 集群上的测试显示,当序列长度达到 128K 时,预填充阶段每百万 token 的成本从 0.7 美元降到了 0.2 美元左右,解码阶段从 2.4 美元降到了 0.8 美元。

后训练算力超过预训练的 10%
值得注意的是,DeepSeek 团队这次在强化学习上下了血本。
论文里明确提到,RL 训练的计算预算已经超过了预训练成本的 10%,这在开源模型里相当罕见。

DeepSeek 在技术报告中提到,开源模型在 post-training 阶段的计算资源投入不足,限制了其在困难任务上的性能。
为此,团队开发了稳定、可扩展的 RL 协议,使训练后阶段的计算预算超过了预训练成本的 10%,从而解锁了模型的先进能力。
展开讲讲——
为了稳定地扩展 RL 计算规模,团队在 GRPO(Group Relative Policy Optimization)算法基础上做了好几项改进。
首先是无偏 KL 估计,修正了原始的 K3 估计器,消除了系统性误差。
原来的估计器在某些情况下会给出无界的梯度权重,导致训练不稳定。
其次是离线序列掩码策略。
在实际训练中,为了提高效率通常会生成大批量的 rollout 数据,然后分成多个 mini-batch 进行梯度更新。这种做法本身就引入了 off-policy 行为。
团队通过计算数据采样策略和当前策略之间的 KL 散度,把那些偏离太远的负样本序列给 mask 掉,避免它们干扰训练。
团队还特别针对 MoE 模型设计了 Keep Routing 操作。
推理框架和训练框架的实现差异可能导致同样的输入激活不同的专家,这会造成参数空间的突变。通过保存推理时的路由路径并在训练时强制使用相同路径,确保了参数优化的一致性。
在具体训练上,团队采用了专家蒸馏的策略。
先为每个任务训练专门的模型,包括数学、编程、通用逻辑推理、通用 Agent 任务、Agent 编程和 Agent 搜索这 6 个领域,每个领域都支持思考和非思考两种模式。
然后用这些专家模型生成特定领域的数据来训练最终模型。

Agent 能力的突破
此外,此次新模型在 Agent 任务上的突破也让人眼前一亮。
这次团队找到了让模型同时具备推理和工具使用能力的方法。

在思考上下文管理方面,团队发现 DeepSeek-R1 那种每次开启新对话就丢弃推理内容的策略,实在是太——浪费 token 了。
于是设计了新的管理机制:
只有在引入新的用户消息时才丢弃历史推理内容,如果只是添加工具相关消息,推理内容会被保留。即使推理痕迹被删除,工具调用历史和结果也会保留在上下文中。
冷启动阶段,DeepSeek-V3.2 团队采用了巧妙的 prompt 设计。
团队通过精心设计的系统提示,让模型学会在推理过程中自然地插入工具调用。
比如在处理编程竞赛题目时,系统会明确要求模型先思考再给出答案,并用特殊标签标记推理路径。
最硬核的是团队开发了一个自动环境合成 pipeline,生成了 1827 个任务导向的环境和 85000 个复杂提示。
以旅行规划为例,模型需要在满足各种约束条件下规划三天的行程,包括不重复城市、根据酒店价格调整餐厅和景点预算等复杂逻辑。


虽然在巨大的组合空间中找到满足所有约束的方案很困难,但验证给定方案是否满足约束相对简单,这种"难解易验"的特性非常适合 RL 训练。
在代码 Agent 方面,团队从 GitHub 挖掘了数百万个 issue-PR 对,经过严格筛选和自动环境构建,成功搭建了数万个可执行的软件问题解决环境,涵盖 Python、Java、JavaScript 等多种语言。
搜索 Agent 则采用多 Agentpipeline 生成训练数据,先从大规模网络语料中采样长尾实体,再通过问题构建、答案生成和验证等步骤产生高质量数据。
评测结果显示,DeepSeek-V3.2 在 SWE-Verified 上达到 73.1% 的解决率,在 Terminal Bench 2.0 上准确率 46.4%,都大幅超越了现有开源模型。
在 MCP-Universe 和 Tool-Decathlon 等工具使用基准测试上,DeepSeek-V3.2 也展现出了接近闭源模型的性能。
这些提升,证明了模型能够将推理策略泛化到训练时未见过的 Agent 场景。

One More Thing
技术报告最后,研究人员坦诚地指出了一些局限性。
由于总训练 FLOPs 较少,DeepSeek-V3.2 的世界知识广度仍落后于领先的闭源模型。
Token 效率也是个挑战。通常情况下,本次上新的两个模型需要生成更长的轨迹,才能达到 Gemini-3.0-Pro 的输出质量。
但团队发话了,这些都是未来版本的改进方向。
不过——
DeepSeek 啊 DeepSeek,我们心心念念的 R2,什么时候给抬上来啊!!!!
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 不到 2 周,量子位 MEET2026 智能未来大会就要来了!
张亚勤、孙茂松等 AI 行业重磅嘉宾,以及百度、高通、亚马逊等头部 AI 企业已确认出席,RockAI、太初元碁、自变量、小宿科技等业内新秀也将参与分享,还有更多嘉宾即将揭晓 � � 了解详情
� � 12 月 10 日
� � 北京金茂万丽酒店
,期待与你共论 AI 行业破局之道
� � 点亮星标 � �
科技前沿进展每日见国内股票配资资讯
嘉正网提示:文章来自网络,不代表本站观点。