• 点击右上角微信好友

    朋友圈

    请使用浏览器分享功能进行分享

    正在阅读:DeepSeek击穿大模型底价,百万Tokens低至2分钱
    首页>时政频道>要闻>正文

    DeepSeek击穿大模型底价,百万Tokens低至2分钱

    来源:{getone name="zzc/xinwenwang"/}2026-04-28 04:17:09

    21世纪经济报道记者 彭新

    重塑定价格局,DeepSeek再度登场。

    4月26日,DeepSeek发布API价格调整公告,全系API输入缓存命中价格降至首发价的十分之一,其中,Pro模型在2026年5月5日前还可叠加2.5折限时优惠。

    DeepSeek官方API定价页显示,本次降价覆盖V4系列全模型,核心调整集中在输入缓存命中场景。调价后,DeepSeek-V4-Flash每百万Tokens(词元)输入缓存命中价格为0.02元,DeepSeek-V4-Pro为0.025元。

    面向企业级用户的DeepSeek-V4-Pro降价幅度更大,原价1元/百万Tokens的缓存输入降至0.1元,2026年5月5日前叠加2.5折限时特惠,实际仅0.025元/百万Tokens,缓存未命中输入从12元降至3元,缓存未命中输出从24元降至6元。

    此轮降价意味着,处理相同百万Token的长文本或复杂智能体任务时,DeepSeek相关模型的成本被拉至极低的程度,对开发者而言,将可以以极低成本对DeepSeek V4进行评估测试。

    有开发者认为,DeepSeek V4在工程层面进行了多项技术创新,效率较前代成倍提升——在百万级调用场景下,单Token推理算力消耗已降至V3.2的27%,KV cache(键值缓存,大模型推理过程中占用显存的主要部分之一)的显存占用仅为原来的10%。在此基础上,DeepSeek降价合情合理。

    价格攻势冲刺专业客户

    作为开源模型,DeepSeek历来以“低价+开源”策略吸引开发者生态,并在性能上接近于领先的闭源模型,成为专业客户的性价比选择。

    DeepSeek-V4按大小分为Pro和Flash两个版本,其中V4-Pro总参数为1.6万亿,激活参数490亿,是迄今为止参数量最大的开源权重模型,定位高性能任务;V4-Flash总参数2840亿,激活参数130亿,主打低成本和高吞吐,能够提供更加快捷、经济的API服务。两款模型均采用MoE架构,也就是“混合专家模型”。

    DeepSeek坦言,在Agentic Coding(智能体编程)评测中,DeepSeek-V4代码交付质量接近Claude Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距;此外,DeepSeek-V4在世界知识测评中仅次于Gemini-Pro-3.1,但超过同期其他开源模型,在数学、STEM、竞赛型代码的测评中则比肩世界顶级闭源模型。

    从价格上来看,V4-Flash走的是普惠路线,输入缓存命中0.02元/百万Tokens、未命中1元/百万Tokens、输出2元/百万Tokens的报价,对应中小开发者与轻量应用调用场景。V4-Pro更具性价比,其原价输出24元/百万Tokens的水平本就高于V4-Flash,但限时折扣后输出仅6元/百万Tokens,与上一代V3.2系列价格相当,却对应着1.6万亿参数的旗舰模型能力,极具性价比。

    另一方面,DeepSeek也在积极适配国产算力,DeepSeek在定价说明中提到,受限于高端算力,目前Pro版服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro价格会大幅下调。这意味着,DeepSeek定价将有进一步下探空间。

    实际上,DeepSeek正在积极适配国产算力,将V4的早期访问权限优先开放给国内芯片厂商,而非英伟达、AMD等海外厂商,这被业内视为DeepSeek模型适配策略的关键转向。

    根据华为公开信息,昇腾超节点全系列产品已全面适配DeepSeek V4,可实现V4-Pro约20毫秒、V4-Flash约10毫秒的低时延推理。基于昇腾950超节点,V4-Pro在8K输入场景下单卡Decode吞吐约4700 TPS;V4-Flash在同等输入场景下单卡Decode吞吐约1600 TPS。基于昇腾A3 64卡超节点的大EP(专家并行)部署模式下,V4-Flash在8K输入、1K输出场景下基于vLLM推理引擎可实现2000 TPS以上的单卡Decode吞吐。

    摩尔线程披露,其携手上海AI实验室DeepLink团队,率先在AI训推一体智算卡MTT S5000上完成了核心算子Day-0适配。目前算子通过率已超80%,实现了模型发布与国产算力适配的同步落地。

    竞争日趋激烈

    此次降价正值全球大模型厂商竞相以更低价格、更高效率争夺开发者和企业客户之际。随着企业级用户从早期试点转向规模化部署,推理和调用成本已取代单纯模型能力,成为大模型厂商间竞争的重要因素。业内预计,DeepSeek此轮调价将进一步压低同行报价。

    花旗在其最新研报指出,DeepSeek V4-Pro在核心AI性能指标上已与顶尖闭源模型Claude Sonnet 4.6表现持平,同时定价却远低于GPT-5.5。花旗认为,这一现象凸显当前AI大模型赛道中开源模型与闭源领先模型日益加剧的两极分化趋势。得益于极具成本竞争力的底层架构,开源模型在代码生成、智能体工作流及长文本等应用场景中,与闭源巨头的差距正在缩小。

    在国产模型阵营内部,DeepSeek V4-Pro的限时折扣价亦明显低于多数同档位产品。按输出端价格计算,DeepSeek V4-Pro折扣价为0.87美元/百万Tokens;智谱GLM-5.1、月之暗面Kimi K2.6的输出端报价分别为4.4美元/百万Tokens和4.0美元/百万Tokens,约为其5倍和4.6倍。

    根据在全球最大的API聚合平台OpenRouter当前报价,阿里Qwen3.6 Plus输出端约为1.95美元/百万Tokens;MiniMax官方价格显示,MiniMax M2.7输出端为1.2美元/百万Tokens。轻量档位中,阶跃星辰Step 3.5 Flash按OpenRouter报价为0.10美元输入/百万Tokens、0.30美元输出/百万Tokens,输出端与DeepSeek-V4-Flash的0.28美元/百万Tokens较为接近。

    记者看到,OpenRouter上,DeepSeek V4系列模型的调用开始大幅增长,4月26日,DeepSeek V4-Flash的调用量为814亿Tokens,DeepSeek V4 Pro的调用量为96亿Tokens,带动DeepSeek在OpenRouter平台的总调用量创近期新高。

    目前,DeepSeek已经引发资本市场对其竞争对手的重新定价。4月27日,两大模型厂商股价重挫,MiniMax股价报收750.00港元/股,跌3.54%;智谱股价报收914.5港元/股,跌2.19%。

    此外,DeepSeek近期传出融资消息。有市场消息称,腾讯和阿里正在接触DeepSeek融资事宜,公司估值或超过200亿美元,但具体融资额及估值可能随谈判持续调整。

    [责编:{getone name="zzc/mingzi"/}]
    阅读剩余全文(