AI

DeepSeek V3.2冲击中国AI市场,性能价格双优利好多方

PConline 2025-12-19 14:45:28
AI快讯
由华为云驱动

近日,开源大模型DeepSeek推出V3.2版本,掀起中国AI市场第二波“DeepSeek冲击”。12月1日发布并开源,主打日常应用与极致推理。它通过算法创新实现效率质变,定价大幅降低,还适配国产硬件。这一版本为中国AI生态带来新变化,降低成本、带动需求,真正竞争或才开始。

近日,开源大模型DeepSeek推出V3.2版本,标志着中国AI市场迎来第二波“DeepSeek冲击”。这意味着国内用户能用适中的成本,获得接近前沿水平的开源推理能力,利好中国AI生态的大多数利益相关者,如云运营商、AI芯片制造商、AI服务器制造商、AI智能体平台和SaaS开发商等。

摩根大通分析师在报告中表示,DeepSeek将模型API降价30%-70%,同时长上下文推理可能节省6-10倍的工作量。受益者众多,包括云运营商阿里巴巴、腾讯、百度,以及芯片制造商中微公司、北方华创、华勤技术和浪潮信息等。

12月1日,DeepSeek发布V3.2系列两款模型并开源。V3.2主打日常应用,推理能力达GPT - 5水平,首次实现思考模式与工具调用融合;V3.2 - Speciale专注极致推理,在IMO、CMO、ICPC、IOI四项国际竞赛中斩获金牌。

从性能与架构来看,DeepSeek V3.2并非单纯堆砌参数,而是通过算法层面的创新实现了效率的质变。该模型延续了V3.1的混合专家(MoE)架构主体,但引入了DeepSeek稀疏注意力机制(DSA)。作为9月29日首次发布的实验性V3.2 - Exp模型的后续产品,V3.2模型通过持续训练引入DSA机制,这是唯一的架构变动,减少了长上下文计算,同时保持了在公开基准测试中的水准。

  • 架构突破上,DSA机制通过闪电索引器选择关键键值条目,将长上下文情境下的计算复杂度从平方级(O(L2))直接降维至准线性级(O(L·k))。
  • 性能数据方面,在128ktokens的长文本环境下,V3.2的推理速度较前代提升2 - 3倍,GPU内存占用减少30 - 40%,且模型性能不仅没有退步,反而保持了极高水准。
  • 智能体定位上,V3.2被明确定位为“为Agent构建的推理优先模型”,它实现了“思考 + 工具调用”的深度交错,模型可以在单一轨迹中结合思维链与工具调用(API、搜索、代码执行)。高端版本的Speciale版本在奥林匹克级数学竞赛和竞争性编程中表现优异,其推理基准已媲美Gemini3.0Pro和GPT - 5级系统。

在定价方面,DeepSeek V3.2的发布再次确立了其“价格屠夫”的地位。DSA架构带来的效率提升直接转化为了API的结构性降价。具体来说,V3.2 Reasoning的每百万tokens输入价格降至0.28美元,输出价格降至0.42美元。相比2025年9月发布的V3.1 Reasoning(输入0.42/输出1.34美元),输出成本暴跌69%,输入成本降低33%。相比2025年1月的R1模型,价格优势更加呈指数级扩大。

据摩根大通分析,根据第三方基准,部分长上下文推理工作负载的实际成本降低了6 - 10倍。这种定价策略迫使市场重新定义“前沿级”能力的成本基准,对所有竞争对手造成巨大的下行定价压力。在ArtificialAnalysis的智能指数与价格对比中,DeepSeek V3.2处于“高智能、极低价格”的绝对优势象限。

从生态重构角度看,DeepSeek V3.2标志着中国AI模型从单纯依赖英伟达CUDA生态,转向对国产硬件的主动适配。V3.2 - Exp是首批在发布首日(Day - 0)即针对非CUDA生态进行优化的前沿模型,支持包括华为的CANN堆栈和Ascend(昇腾)硬件、寒武纪的vLLM - MLU以及海光的DTK。

这向市场发出了强烈的信号,即GPT - 5级别的开源模型可以在国产加速器上高效运行,这将由下至上降低中国AI买家的执行风险,直接带动对国产AI芯片和服务器的增量需求。预计V3.2模型将在未来几个季度进一步提升生成式AI在中国的普及率。

对于开发者和创业团队而言,之前做长文档理解、代码审查、复杂决策这类Agent应用,最大成本往往卡在长上下文和多轮推理。现在成本大幅降低,很多过去算不过来的生意模型变得可行,再加上国产硬件适配更完善,不少公司在选模型和选卡时的顾虑也会减少。

综合来看,DeepSeek V3.2不仅拉开了与海外头部模型在价格上的差距,还为“前沿能力应该配什么样的成本结构、跑在什么样的硬件上”给出了中国式答案,真正的竞争或许才刚刚开始。

点击展开全文
打开APP,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

相关产品
取消