再次感谢梁文锋和DeepSeekV4,历史性的一天!

今天DeepSeek放了个大的。但让行业沸腾的可能不是模型本身。

和昨天OpenAI 刚发的 GPT-5.5定价30 美元/百万输出 token相比,DeepSeek V4依旧伟大,必须感谢梁文锋!

30 美元啊朋友们。DeepSeek只需要2块!

今天,DeepSeek 直接把 V4 开源了。MIT 许可证,随便用。

1、极端的抠门,把闭源巨头干趴了

两个模型,V4 Flash和V4 Pro,直接开源。Pro是1.6万亿参数、49B激活,Flash是284B参数、13B激活,都支持100万token的上下文窗口。

坦率的讲,参数量不是重点。重点是这玩意的效率。

V4,混合注意力架构,在100万token的场景下,推理算力只需要V3.2的27%,KV缓存只要10%。

你想想看,同样的活儿,只用四分之一的算力和十分之一的存储。

这不是「更快了一点」,这是把成本结构直接掀翻了。

性能呢?直接看数据吧,感觉这次完全不是一个量级的事情。

这玩意在数学、STEM、竞赛型代码这些硬核评测上面,直接超越了目前所有已公开评测的开源模型。所有。不是某几个,是所有。而且总成绩已经比肩世界顶级闭源模型了。

什么概念呢?以前我们说开源和闭源之间有一道鸿沟,开源永远在追赶。现在这道沟,被 V4-Pro 给填了一大半。

说真的,开源模型做到这个程度,我是真的没想到。

但最让我觉得炸裂的,其实不是推理性能。

2.Agent才是这次的重头戏

DeepSeek 自己内部的员工,现在已经在用 V4 来做 Agentic Coding 了。他们内部的评测反馈是,使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 的非思考模式。

你想想这对整个行业意味什么。以前你要用一个好的编程 Agent,你得买 Anthropic 的 API,一个月烧不少钱。现在有一个开源的、免费的模型,体验居然比人家的付费产品还好?

当然了,跟 Opus 4.6 的思考模式比还有差距,这个 DeepSeek 自己也承认了。但说实话,Opus 4.6 思考模式那是什么级别的存在,能接近就已经很离谱了。

而且 V4 不光是给自己家的产品用。它专门针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 这些主流 Agent 产品做了适配和优化。你没看错,一个国产模型,主动去适配 Claude Code。

这格局,我是真的服了。

下图是 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例,大家随便看看:

3.今天最炸的不是跑分。是芯片。

DeepSeek V4在推理部署上全面转向了华为昇腾950PR,底层架构从英伟达的CUDA迁移到了华为自研的CANN框架。

这四个字的重量,可能比 V4 本身还要大。

为啥?

因为英伟达的 CUDA 就跟当年的 Windows 一样。所有的软件、工具、教程、开发者全围着它转。你一直用 CUDA,就等于把自己的命根子交给英伟达。它一涨价,你扛不住。它一断供,你直接傻眼。

所以 DeepSeek 做的这件事,不只是「我换了个芯片」这么简单。它证明了一件事,华为的芯片,能跑世界顶级的大模型。能跑,而且跑得动。

对于股市有关注的朋友应该还有印象,去年V3开源的时候,一度英伟达的股价跌到了最低点,限于一些神秘规则,这里我不说太多

黄仁勋之前在播客里说了一句话,「如果DeepSeek先在华为平台上发布,那对我们国家来说将是灾难性的」。注意,他说的不是「如果中国做出好模型」是灾难,而是「好模型不再以CUDA为默认优化起点」是灾难。

这非常精准地暴露了一件事,英伟达真正害怕的,从来不是中国做出好模型,而是好模型不再需要它。

这对于所有被卡算力的国内互联网公司来说,是一个历史性的信号。

今晚 7 点,昇腾 CANN 会直播 DeepSeek V4 在昇腾平台的首发。DeepSeek 也说了,下半年随着华为昇腾 950 超节点批量上市,Pro 版本的价格还会大幅下调。

华为做芯片,DeepSeek 做模型,昇腾做平台。一整条国产 AI 的链路,正在慢慢跑通。

4.另一个非常值得讲的小插曲

就在V4发布的同一周,DeepSeek终于开放融资了。

这家公司成立三年,之前一直靠幻方量化养着,拒绝了所有外部资金。梁文锋说过,面临的问题从来不是钱,而是高端芯片被禁运。幻方2025年收益率56.55%,管理规模超700亿,确实不差钱。

现在,忽然开放了,50亿起投。腾讯、阿里都在等着谈

有人说是人才,比如郭达雅跳去了字节,有人说是要扩张算力规模,我也不敢乱说,大家想想是什么原因?

好了,回到正题:

想用DeepSeek V4的朋友,现在就可以登录 chat.deepseek.com 或者官方 App 体验 V4 了。

API 也同步更新了,model 参数改成 deepseek-v4-pro 或者 deepseek-v4-flash 就能调用,兼容 OpenAI 和 Anthropic 两套接口标准。

顺便提醒一下,旧的 API 接口 deepseek-chat 和 deepseek-reasoner 会在三个月后停止使用,也就是 7 月 24 号。现在这俩名字分别指向 V4-Flash 的非思考模式和思考模式。

这个是 DeepSeek 的价格,你可以自行对比一下就知道相比 ChatGPT 是便宜了多少了。

开源权重在 HuggingFace 和 ModelScope 上都有。

DeepSeek-V4 技术报告:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

最后说两句我自己的感受。

我一直觉得,AI这个行业最迷人的地方,不是技术有多酷,而是总有人愿意把最好的东西分享给所有人。

OpenAI当年也是这么起步的,虽然后来走了另一条路。Google的TensorFlow和PyTorch当年也是开源改变了一切。现在轮到DeepSeek了。

雄起,雄起!感谢梁文峰!