DeepSeek V4深度评测:性能追平Claude Opus 4,价格仅1/8

今天 11阅读

DeepSeek V4深度评测:性能追平Claude Opus 4,价格仅1/8

2026年4月24日,中国AI实验室DeepSeek终于发布了万众期待的V4系列首个预览版本——DeepSeek-V4-ProDeepSeek-V4-Flash。这两个模型不仅在性能上直逼前沿,更以令人难以置信的价格颠覆了市场格局。

模型规格与架构

两款模型均采用百万token上下文的混合专家(MoE)架构:

DeepSeek-V4-Pro:1.6万亿总参数,490亿活跃参数。这是目前全球最大的开源权重模型,超越了Kimi K2.6(1.1T)和GLM-5.1(754B),是DeepSeek V3.2(685B)的两倍多。模型文件865GB。

DeepSeek-V4-Flash:2840亿总参数,130亿活跃参数。模型文件仅160GB,轻量级量化后有望在128GB内存的个人设备上运行。

两个模型均采用MIT开源协议,完全开放权重。

性能评测

DeepSeek V4深度评测:性能追平Claude Opus 4,价格仅1/8

通过OpenRouter实测,V4系列在多项任务上展现出与GPT-5.4、Claude Opus 4等前沿模型相当的性能。以经典的「骑自行车的鹈鹕」SVG生成测试为例:

V4-Flash生成的鹈鹕已经相当不错,而V4-Pro更是呈现出令人惊艳的细节表现。相比去年12月的V3.2版本,进步幅度肉眼可见。

定价:颠覆性低价

DeepSeek V4最引人注目的不是性能,而是价格。以下是DeepSeek官方API定价:

DeepSeek-V4-Flash:输入 $0.14/百万token,输出 $0.28/百万token

DeepSeek-V4-Pro:输入 $1.74/百万token,输出 $3.48/百万token

与其他前沿模型的对比:

模型输入 ($/M)输出 ($/M)
DeepSeek V4 Flash$0.14$0.28
GPT-5.4 Nano$0.20$1.25
Gemini 3.1 Flash-Lite$0.25$1.00
DeepSeek V4 Pro$1.74$3.48
Claude Opus 4$15.00$75.00
GPT-5.4$15.00$60.00
Gemini 3.1 Pro$3.50$14.00

V4-Pro的价格不到Claude Opus 4的1/8,性能却几乎追平。而V4-Flash更是以$0.14的超低价,成为目前性价比最高的百万token级上下文模型。

技术亮点

DeepSeek V4系列在以下方面有显著突破:

超长上下文处理:百万token的原生上下文窗口,可以一次性处理整本小说的内容,或完整代码库的上下文理解。

MoE效率优化:Flash版本仅13B活跃参数,意味着推理成本极低,运行速度极快,但得益于1.6T的总知识储备,输出质量丝毫不打折扣。

中文能力登顶:作为中国团队开发的模型,DeepSeek V4在中文理解、生成、翻译等任务上达到了前所未有的水平。

完全开源:MIT协议意味着任何人都可以自由使用、修改、商用,没有任何限制。

为什么这很重要?

DeepSeek V4的发布标志着AI行业的一个转折点:高性能AI不再是少数巨头的专利。当你可以用不到Claude二十分之一的价格获得几乎相同的性能时,整个AI应用生态的游戏规则都变了。

对于开发者而言,这意味着可以用更低的成本构建更复杂的AI应用。对于企业而言,这意味着AI部署的ROI大幅提升。对于整个行业而言,这预示着AI民主化的真正到来。

DeepSeek V4不是终点。随着V4系列的持续迭代,我们有理由期待一个性能更强、价格更低、更加开放的AI未来。

文章版权声明:除非注明,否则均为极派博客原创文章,转载或复制请以超链接形式并注明出处。

目录[+]

取消
微信二维码
微信二维码
支付宝二维码