点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

21世纪经济报道记者 彭新
重塑定价格局,DeepSeek再度登场。
4月26日,DeepSeek发布API价格调整公告,全系API输入缓存命中价格降至首发价的十分之一,其中,Pro模型在2026年5月5日前还可叠加2.5折限时优惠。
DeepSeek官方API定价页显示,本次降价覆盖V4系列全模型,核心调整集中在输入缓存命中场景。调价后,DeepSeek-V4-Flash每百万Tokens(词元)输入缓存命中价格为0.02元,DeepSeek-V4-Pro为0.025元。
面向企业级用户的DeepSeek-V4-Pro降价幅度更大,原价1元/百万Tokens的缓存输入降至0.1元,2026年5月5日前叠加2.5折限时特惠,实际仅0.025元/百万Tokens,缓存未命中输入从12元降至3元,缓存未命中输出从24元降至6元。
此轮降价意味着,处理相同百万Token的长文本或复杂智能体任务时,DeepSeek相关模型的成本被拉至极低的程度,对开发者而言,将可以以极低成本对DeepSeek V4进行评估测试。
有开发者认为,DeepSeek V4在工程层面进行了多项技术创新,效率较前代成倍提升——在百万级调用场景下,单Token推理算力消耗已降至V3.2的27%,KV cache(键值缓存,大模型推理过程中占用显存的主要部分之一)的显存占用仅为原来的10%。在此基础上,DeepSeek降价合情合理。
![]()
价格攻势冲刺专业客户
作为开源模型,DeepSeek历来以“低价+开源”策略吸引开发者生态,并在性能上接近于领先的闭源模型,成为专业客户的性价比选择。
DeepSeek-V4按大小分为Pro和Flash两个版本,其中V4-Pro总参数为1.6万亿,激活参数490亿,是迄今为止参数量最大的开源权重模型,定位高性能任务;V4-Flash总参数2840亿,激活参数130亿,主打低成本和高吞吐,能够提供更加快捷、经济的API服务。两款模型均采用MoE架构,也就是“混合专家模型”。
DeepSeek坦言,在Agentic Coding(智能体编程)评测中,DeepSeek-V4代码交付质量接近Claude Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距;此外,DeepSeek-V4在世界知识测评中仅次于Gemini-Pro-3.1,但超过同期其他开源模型,在数学、STEM、竞赛型代码的测评中则比肩世界顶级闭源模型。
从价格上来看,V4-Flash走的是普惠路线,输入缓存命中0.02元/百万Tokens、未命中1元/百万Tokens、输出2元/百万Tokens的报价,对应中小开发者与轻量应用调用场景。V4-Pro更具性价比,其原价输出24元/百万Tokens的水平本就高于V4-Flash,但限时折扣后输出仅6元/百万Tokens,与上一代V3.2系列价格相当,却对应着1.6万亿参数的旗舰模型能力,极具性价比。
另一方面,DeepSeek也在积极适配国产算力,DeepSeek在定价说明中提到,受限于高端算力,目前Pro版服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调。这意味着,DeepSeek定价将有进一步下探空间。
实际上,DeepSeek正在积极适配国产算力,将V4的早期访问权限优先开放给国内芯片厂商,而非英伟达、AMD等海外厂商,这被业内视为DeepSeek模型适配策略的关键转向。
根据华为公开信息,昇腾超节点全系列产品已全面适配DeepSeek V4,可实现V4-Pro约20毫秒、V4-Flash约10毫秒的低时延推理。基于昇腾950超节点,V4-Pro在8K输入场景下单卡Decode吞吐约4700 TPS;V4-Flash在同等输入场景下单卡Decode吞吐约1600 TPS。基于昇腾A3 64卡超节点的大EP(专家并行)部署模式下,V4-Flash在8K输入、1K输出场景下基于vLLM推理引擎可实现2000 TPS以上的单卡Decode吞吐。
摩尔线程披露,其携手上海AI实验室DeepLink团队,率先在AI训推一体智算卡MTT S5000上完成了核心算子Day-0适配。目前算子通过率已超80%,实现了模型发布与国产算力适配的同步落地。
竞争日趋激烈
此次降价正值全球大模型厂商竞相以更低价格、更高效率争夺开发者和企业客户之际。随着企业级用户从早期试点转向规模化部署,推理和调用成本已取代单纯模型能力,成为大模型厂商间竞争的重要因素。业内预计,DeepSeek此轮调价将进一步压低同行报价。
花旗在其最新研报指出,DeepSeek V4-Pro在核心AI性能指标上已与顶尖闭源模型Claude Sonnet 4.6表现持平,同时定价却远低于GPT-5.5。花旗认为,这一现象凸显当前AI大模型赛道中开源模型与闭源领先模型日益加剧的两极分化趋势。得益于极具成本竞争力的底层架构,开源模型在代码生成、智能体工作流及长文本等应用场景中,与闭源巨头的差距正在缩小。
在国产模型阵营内部,DeepSeek V4-Pro的限时折扣价亦明显低于多数同档位产品。按输出端价格计算,DeepSeek V4-Pro折扣价为0.87美元/百万Tokens;智谱GLM-5.1、月之暗面Kimi K2.6的输出端报价分别为4.4美元/百万Tokens和4.0美元/百万Tokens,约为其5倍和4.6倍。
根据在全球最大的API聚合平台OpenRouter当前报价,阿里Qwen3.6 Plus输出端约为1.95美元/百万Tokens;MiniMax官方价格显示,MiniMax M2.7输出端为1.2美元/百万Tokens。轻量档位中,阶跃星辰Step 3.5 Flash按OpenRouter报价为0.10美元输入/百万Tokens、0.30美元输出/百万Tokens,输出端与DeepSeek-V4-Flash的0.28美元/百万Tokens较为接近。
记者看到,OpenRouter上,DeepSeek V4系列模型的调用开始大幅增长,4月26日,DeepSeek V4-Flash的调用量为814亿Tokens,DeepSeek V4 Pro的调用量为96亿Tokens,带动DeepSeek在OpenRouter平台的总调用量创近期新高。
目前,DeepSeek已经引发资本市场对其竞争对手的重新定价。4月27日,两大模型厂商股价重挫,MiniMax股价报收750.00港元/股,跌3.54%;智谱股价报收914.5港元/股,跌2.19%。
此外,DeepSeek近期传出融资消息。有市场消息称,腾讯和阿里正在接触DeepSeek融资事宜,公司估值或超过200亿美元,但具体融资额及估值可能随谈判持续调整。
