2026年4月24日,DeepSeek 发布 V4 系列模型(V4-Pro 和 V4-Flash),1M tokens 上下文窗口,最大输出约 384K tokens,API 同步开放。
一、模型性能评分
Deepseek V4 模型定位为“具备顶级性能的开源大模型”。由于发布没几天,先来谈谈性能平分,实际效果自己试验后才为最清楚。
| DeepSeek V4 | GPT-5.4 / 5.5 | Claude Opus 4.6 | |
|---|---|---|---|
| 代码生成 | 93 分 (媲美 Claude) | 95 分 (行业领先) | 93 分 (极度稳定) |
| 通用推理 | 7.5 / 10 | 9.0 / 10 | 9.5 / 10 |
| 首字延迟 (Latency) | 150ms (极快) | 280ms | 310ms |
| 上下文窗口 | 100万+ (支持压缩技术) | 50万+ | 100万+ (质量最优) |
二、V4-Pro vs V4-Flash
| 特性 | V4-Pro | V4-Flash |
|---|---|---|
| 总参数 | 1.6T | 284B |
| 激活参数 | 49B | 13B |
| 上下文 | 1M tokens | 1M tokens |
| 最大输出 | 384K tokens | 384K tokens |
| 定位 | 旗舰版,复杂推理、Agent、长上下文 | 轻量版,速度快、成本低,日常任务 |
| Thinking 模式 | ✅ 支持 | ✅ 支持 |
| Tool Calls | ✅ 支持 | ✅ 支持 |
| JSON 输出 | ✅ 支持 | ✅ 支持 |
简单说:复杂任务选 Pro,日常用 Flash 性价比拉满。
三、官方 DeepSeek API(最推荐)
平台地址:https://platform.deepseek.com
- 同时支持 OpenAI 格式 和 Anthropic 格式(兼容性好评)
- 充值制(预充后扣费),有免费额度试用
- 上下文缓存机制:重复使用系统提示/工具定义时,Cache Hit 价格能降到原价的 1/10 ~ 1/50
官方价格($/百万 tokens)
| 计费项 | V4-Flash | V4-Pro(限时2.5折) | V4-Pro(原价) |
|---|---|---|---|
| 输入(缓存命中) | 0.02元 / $0.0028 | 0.025元 / $0.003625 | 0.1元 / $0.0145 |
| 输入(缓存未命中) | 1元 / $0.14 | 3元 / $0.435 | 12元 / $1.74 |
| 输出 | 2元/$0.28 | 6元 / $0.87 | 24元 / $3.48 |
⚠️ V4-Pro 限时 2.5 折扣,截止到 北京时间 2026/05/05 23:59,只剩一周多,想试的抓紧。
缓存命中价格是原价的 1/10,Agent 场景大量重复 system prompt 时实际成本远低于标价。
对比一下:GPT-4o 输入 $2.5/M、输出 $10/M,V4-Pro 折扣价便宜了将近 6 倍;V4-Flash 更是便宜到离谱。DeepSeek "价格屠夫"的称号不是白叫的。
四、国内平台(人民币结算,访问快)
3.1 阿里云百炼
- 状态:首发上线 V4-Pro 和 V4-Flash (Coding Plan与Token Plan 暂时无法使用)
- 价格:与官方基本一致,Flash 输入最低约 ¥1/M,输出约 ¥2/M,Pro未打折与官方原价一致,输入最低约 ¥12/M,输出约 ¥24/M.
- 优势:阿里云生态,企业级 SLA,一站式模型超市,人民币支付
- 适合:企业用户、需要稳定并发和服务保障的场景
- 地址:https://bailian.console.aliyun.com
3.2 硅基流动 SiliconFlow
- 状态:目前支持 DeepSeek V4-Flash,V4-Pro 尚未上线(截至4月27日)
- 预期:V4-Pro应该在跟进中,V4-Flash与官方一致,输入最低约 ¥1/M,输出约 ¥2/M
- 优势:速度快、开发者友好、价格常有优惠
- 地址:https://siliconflow.cn
3.3 火山引擎(字节跳动)
- 状态:已接入 DeepSeek 系列(V3/R1),V4 预计跟进中
- 优势:企业级并发强、稳定性高,新用户常有特惠包(此前 50 万免费 tokens 等)
- 价格:接近官方
- 地址:https://www.volcengine.com
3.4 其他国内平台
- 腾讯云、七牛云 等可能陆续跟进,感觉应该等Deepseek官方折扣价到期后才会上吧。
- 国内平台优势:人民币支付 + 本地加速 + 可能的赠送额度
- 缺点:高峰期可能限流,部分需要实名/企业认证
五、国际/聚合平台(多模型切换,全球访问)
4.1 OpenRouter ✅
- 状态:已上线 V4-Pro 和 V4-Flash
- 模型 ID:
deepseek/deepseek-v4-pro、deepseek/deepseek-v4-flash
OpenRouter 实际价格($/百万 tokens):
| 计费项 | V4-Flash | V4-Pro |
|---|---|---|
| 输入(Cache Miss) | $0.14 | $0.435 |
| 输入(Cache Hit) | $0.0028 | $0.003625 |
| 输出 | $0.28 | $0.87 |
价格与官方一致,OpenRouter 不加价,但充值有手续费。统一 API 格式,适合同时调用多家模型的开发者。
4.2 Together AI ✅
- 状态:已上线 V4-Pro(模型 ID:
deepseek-ai/DeepSeek-V4-Pro) - 优势:高吞吐量,企业级托管
- 价格:比官方原价略高,输入$2.1/M(cached $0.2/M),输出 $4.4
- 地址:https://together.ai
4.3 Fireworks AI ⏳
- 状态:目前仅支持到 V3.2,V4 尚未上线
- 优势:推理速度快,成本优化好
- 预期:应该会跟进
- 地址:https://fireworks.ai
4.4 其他国际平台
- Novita AI / Groq:目前不支持 V4
- AWS Bedrock / Azure:大厂平台预计逐步接入
国际平台优势:统一 API 多模型路由、部分无需魔法、美元支付;缺点是价格可能略高(OpenRouter 除外),延迟视地区而定。
六、价格横向对比
| 平台 | V4-Flash 输入 | V4-Flash 输出 | V4-Pro 输入(折扣) | V4-Pro 输出(折扣) |
|---|---|---|---|---|
| DeepSeek 官方 | $0.14 | $0.28 | $0.435 | $0.87 |
| OpenRouter | $0.14 | $0.28 | $0.435 | $0.87 |
| 阿里云百炼 | ≈$0.14 | ≈$0.28 | ≈$1.74 | ≈$3.48 |
| 硅基流动 | ≈$0.14 | ≈$0.28 | - | - |
| Together AI | — | — | $2.1 | $4.4 |
实际成本看缓存命中(Cache Hit)——Agent 场景下重复 system prompt 命中缓存,输入成本能降到 1/10 甚至 1/50。
七、和 GPT/Claude 的价格对比
| 模型 | 输入价格($/M) | 输出价格($/M) | 倍率(vs V4-Flash 输出) |
|---|---|---|---|
| DeepSeek V4-Flash | $0.14 | $0.28 | 1x |
| DeepSeek V4-Pro(折扣) | $0.435 | $0.87 | ~3x |
| GPT-4o | $2.5 | $10 | ~36x |
| Claude Sonnet 4 | $3 | $15 | ~54x |
| GPT-5.5 | $5 | $30 | ~107x |
V4-Flash 的输出价格是 GPT-4o 的 1/36,是 GPT-5.5 的 1/107。 不是便宜一点,是便宜了一个数量级。
八、快速入手指南
- 免费试用:去 chat.deepseek.com,Expert 模式就是 V4-Pro,Instant 模式是 V4-Flash,直接体验
- 开发者首选:注册 官方 API,充个小额测试,兼容 OpenAI SDK,迁移成本几乎为零
- 企业/稳定需求:阿里云百炼,SLA 保障 + 人民币结算
- 多模型切换:OpenRouter,一个 API 调遍所有模型,V4 不加价
九、注意事项
- V4-Pro 折扣 5月5日到期,原价 $1.74/$3.48 比折扣价贵 4 倍,想省钱趁早
- 价格随时可能调整:建议定期查看官方定价页
评论区