两条新闻放在一起读,才有意思。
第一条:IDC最新数据,2026年一季度国产AI芯片国内市场份额首次突破50%,达到52.3%。英伟达的份额从巅峰期的95%,一路跌到42.7%。
第二条:DeepSeek V4发布,官方技术报告里第一次把华为昇腾和英伟达写进了同一份硬件验证清单。更劲爆的是,东吴证券研报直接定性------这是"国产AI在训练侧从0到1的里程碑",是"AI信创踏入战略机遇期的标志性节点"。
翻译成人话就是:以前国产大模型用国产芯片只是"凑合跑起来",现在DeepSeek V4直接用昇腾芯片完成了训练加推理全流程。
先看最直观的对比:昇腾950PR的推理性能,是英伟达对华特供版H20的2.87倍。
这不是实验室里的理论峰值,而是DeepSeek V4在8K tokens输入场景下的实测数据:单卡每秒能处理4700个token,端到端延迟控制在20毫秒以内。
成本呢?V4的API价格,低至0.025元/百万token。这个数字是什么概念?是GPT-5.5 Pro的1/700。换句话说,开发者用V4写5小时代码,花10块钱人民币;用海外顶级模型干同样的活,要花1000到2000美元。
性能反超,价格打一折。这种剧本,放在三年前你想都不敢想。
但光有芯片性能还不够。真正让业内震惊的,是DeepSeek V4完成了一次被形容为"万米高空换发动机"的技术壮举:把底层代码从英伟达CUDA生态,全面迁移到了华为CANN框架。
CUDA是什么?那是英伟达用二十年时间构建的"AI开发操作系统"。全球几乎所有主流AI框架、云平台、开发工具都围绕它优化。简单说,你在AI领域干的每一件事,底层大概率都在调用CUDA。
迁移到CANN意味着什么?相当于把一栋大楼的地基从花岗岩换成钢筋混凝土,同时楼还不能停工。
DeepSeek团队耗时数月重写了底层算子,完成了从编程模型到分布式通信库的全栈重构,最终精度误差控制在0.5%以内。迁移完成后,V4在昇腾平台上的推理速度反而提升了35倍。
这背后有几个关键突破:
华为CANN Next新增了SIMT编程模型,语法上跟CUDA几乎一模一样,让习惯了英伟达生态的开发者可以直接平移代码。这是技术层面的"破壁"。
DeepSeek V4首创的稀疏注意力架构,将百万token上下文的显存占用压到传统方案的10%,计算量减少73%。这个设计天然适配国产芯片的硬件特性,算是"双向奔赴"。
国产芯片的"Day0适配":V4发布当天,寒武纪、海光、昆仑芯、平头哥等8家国产芯片厂商同步完成适配。这速度,以前的行业惯例是"等上几个月"。
有意思的是,黄仁勋早在几个月前就公开表达过担忧。他说,如果顶尖AI模型被优化在华为芯片上运行,"对美国而言将是可怕的后果"。
这句话当时听起来像是危言耸听。现在回头看,他可能是被自己的芯片禁令坑得最惨的那个人。
英伟达在中国的份额从95%跌到0,只用了四年。黄仁勋自己承认,"英伟达在中国AI加速器市场的份额已经降至零"。
为什么?
美国政府的出口管制一轮比一轮狠。2022年禁A100、H100,2023年禁A800、H800,再到2025年连阉割版H20的出口许可都撤销了,甚至要求上缴15%销售收入当"过路费"。
中国客户的反应很理性:你供应不稳定、性能又缩水一大截、价格还贵,我为什么不选国产?
结果就是:字节跳动、阿里、腾讯等头部企业一口气向华为下了数十万颗昇腾芯片的订单。寒武纪一季度营收暴涨159.56%,历史上首次实现季度盈利。
国产芯片的市场份额从2022年的不足10%,到2025年的41%,再到2026年一季度的52.3%。四年时间,完成了从"others"到"半壁江山"的跨越。
说回东吴证券的判断。为什么说DeepSeek V4是"标志性节点"?
因为信创喊了很多年,但真正落地的时候,企业最担心的问题只有一个:国产芯片能不能跑顶级大模型?
DeepSeek V4用结果回答了这个问题。能跑。而且跑得比"正版"还好。
推理性能2.87倍反超,成本只有1/700,API定价权直接掌握在自己手里。这不是"凑合用",是真正意义上的商业化可用。
对于整个信创产业来说,这意味着什么?以前政府喊国产替代,企业买国产芯片更多是"政治正确",性能不行,大不了备着,真要用的时候还是换回英伟达。现在不一样了。DeepSeek V4证明了国产芯片加大模型的组合,不仅"能用",而且在特定场景下已经"好用"到让人不想换回去。
阿里、腾讯、字节这些商业化最成熟、技术判断最务实的玩家,已经用真金白银投票了。
国产芯片在高端训练场景跟英伟达还有差距。单卡FP8算力、显存带宽这些硬指标,昇腾跟H200、B200比还有两代左右的代差。
生态的护城河也没有完全填平。CUDA二十年的积累不是白建的,开发者习惯、工具链完善度、社区成熟度这些软实力,需要时间慢慢追赶。
制造端更是硬伤。华为昇腾芯片依赖中芯国际7nm代工,良率还在爬坡,产能是实实在在的瓶颈。
所以现在的格局更像是:推理场景已经拿下,训练场景正在追赶,生态建设刚刚起步