2 12 月, 2025

DeepSeek发布新模型,挑战谷歌,承认开源与闭源差距

deepseek-

12月1日晚,DeepSeek发布了两款新模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。这两款模型在推理能力上全球领先,标志着DeepSeek在人工智能领域的又一次重大突破。

DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用智能体任务。9月底,DeepSeek发布了实验版V3.2-Exp,此次是正式版更新。在公开推理测试中,V3.2达到了GPT-5的水平,仅略低于谷歌的Gemini3 Pro。

DeepSeek-V3.2-Speciale:探索模型能力的边界

DeepSeek-V3.2-Speciale是此次发布的重点,其目标是“将开源模型的推理能力推向极致,探索模型能力的边界”。Speciale是V3.2的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,具备出色的指令跟随、严谨的数学证明与逻辑验证能力。

据DeepSeek公布的数据,Speciale在多个推理基准测试中超越了谷歌最先进的Gemini3 Pro。在美国数学邀请赛、哈佛MIT数学竞赛、国际奥林匹克数学竞赛等测试中,V3.2-Speciale都超过了Gemini3 Pro,但在编程、理工科博士生测试中略逊于谷歌。

Speciale模型斩获了IMO(国际数学奥林匹克)、ICPC World Finals(国际大学生程序设计竞赛全球总决赛)及IOI(国际信息学奥林匹克)金牌。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平。

技术报告揭示的局限性与未来计划

尽管取得了这些成就,DeepSeek在技术报告中承认,与Gemini3 Pro等前沿闭源模型相比,DeepSeek模型仍存在一定的局限性。首先,V3.2的世界知识广度仍落后于领先的专有模型;其次,在令牌效率方面,V3.2通常需要更多的令牌才能达到像Gemini3 Pro这样的模型输出质量。此外,在解决复杂任务方面也不如前沿模型。

DeepSeek计划通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的智能密度以提高效率,进一步改进基础模型和训练后方案。

开源与闭源模型的差距与挑战

值得一提的是,在技术报告中,DeepSeek还谈到当前开源与闭源模型的差距在拉大。DeepSeek表示,推理模型的发布是大模型发展的关键转折点,推动了整体性能的大幅跃升。然而,过去几个月中出现了明显的分化:尽管开源圈持续取得进步,但闭源专有模型如海外谷歌、OpenAI、Anthropic的性能增长速度却显著更快。

“闭源模型与开源模型之间的性能差距并未缩小,反而日益扩大,专有系统在复杂任务中展现出越来越强的优势。”

DeepSeek认为,开源模型在架构层面对标准注意力机制的过度依赖严重制约了长序列处理的效率;在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了模型在高难度任务上的表现;在AI智能体领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署效果。

创新与未来展望

为了突破这些限制,DeepSeek在9月底发布实验版V3.2-Exp时,提出了稀疏注意力机制(DSA),希望大幅降低计算复杂度。经过两个月的实验后,DeepSeek确认了稀疏注意力机制的有效性,并表示,在不牺牲长上下文性能的前提下,团队解决了关键的计算复杂性问题。

此次发布的两款模型均引入了这一机制。据DeepSeek,除了在多个推理基准测试中,V3.2的性能大幅提升外,在智能体场景中,V3.2也成为一种具有成本效益的替代方案,缩小了开源模型与前沿专有模型之间的性能差距,成本也显著降低。

目前,DeepSeek的官方网页端、App和API均已更新为正式版DeepSeek-V3.2,但增强的Speciale版本目前仅以临时API服务形式开放,供社区评测与研究。

在海外社媒上,有网友认为,DeepSeek此次发布是了不起的成就,“匹配GPT-5和Gemini3 Pro的开源模型出现了,差距正式消除。”DeepSeek不断证明,严谨的工程设计可以超越单纯的参数规模。但如同DeepSeek所述的那样,我们仍需正视开源与闭源在整体性能上的差距,不断突破开源的边界。

推荐阅读  Grove Collaborative承諾測量和抵消AI碳排放影響