DeepSeek R1再进化:这次更新让它直接对标Claude 4

DeepSeek R1再进化:这次更新让它直接对标Claude 4

今天凌晨,AI圈又炸了。DeepSeek在没有任何官方预告的情况下,悄悄发布了R1模型的最新版本------R1-0528[1][6][7]。

说实话,这种"深夜放大招"的操作风格,已经成了DeepSeek的招牌动作了。不过这次更新虽然被官方定义为"小版本试升级"[2][8],但从社区的测试反馈来看,这个"小"更新带来的提升可一点都不小。

每次DeepSeek发布新版本,都选择在大家即将放假或者深夜的时候。这次R1-0528也不例外,5月28日凌晨悄然上线[1]。有网友调侃说:"每次都放假前发布模型,这是什么奇怪的企业文化?"[13]。不过,这种低调的发布方式反而让人更期待------毕竟,真正有实力的产品,从来不需要过度包装。

这次更新最有意思的地方在于,官方几乎没有提供任何技术细节说明,只是简单地告诉用户"模型已完成小版本试升级"[2]。但网友们的测试热情可不会因为官方的低调而降低。很快,各种测试结果就开始在社交媒体上流传,而且结果相当令人惊喜。

这次更新到底改了什么?

虽然官方没有详细的更新日志,但根据DeepSeek内部的反馈,这次升级主要集中在四个方面[2]:

首先是响应质量的提升,这个可以说是最核心的改进**。复杂推理和多步骤计算变得更加准确,长文理解与生成更加连贯,逻辑也更清晰**。数学、编程等专业性输出的可靠性也得到了显著提升[2]。

从实际测试来看,新版本在处理复杂逻辑问题时表现确实更加出色。有网友测试了一个经典的空间推理问题:"一个长八米的细长棍子,能否通过宽三米高四米的门",结果发现只有o3和新的DeepSeek-R1答对了,其他诸如claude-opus-4、gemini2.5-pro等模型都没能正确回答[19]。

虽然只是"小幅提升",但在网页端、App、API接口中的响应都变得更加敏捷,特别是在处理超长文本输入时,延迟降低了约10%~20%[2]。这种优化可能看起来微不足道,但对于需要频繁使用的用户来说,体验提升是非常明显的。

这个改进特别值得关注。新版本的上下文记忆更加稳定,尤其是在超长对话中(支持最多128K上下文),减少了偶尔"遗忘设定"或"跑偏"的情况[2]。这对于需要进行长时间、多轮次对话的用户来说,是一个非常实用的改进。

这点对开发者来说特别重要。API调用方式、参数、返回结构完全不变,用户无需调整现有集成,即可无缝使用新版本[2]。这种向后兼容的设计理念,体现了DeepSeek对开发者生态的重视。

性能测试:真的能媲美o3?

最让人兴奋的消息来自第三方测试。在著名的代码测试平台Live CodeBench中,R1-0528的性能表现可以媲美OpenAI最新的o3模型高版本[1][6][7]。这个结果如果属实,那意义就相当重大了。

要知道,OpenAI的o3模型被认为是目前推理能力最强的模型之一,DeepSeek能够在开源模型的基础上达到这个水平,确实令人印象深刻。更重要的是,有网友测试新版R1的风格,发现几乎和OpenAI的o3差不多[1][6]。

社区测试中最令人震惊的是编程能力的提升。有网友感叹:"太吓人了,1000多行代码一次搞定,没有bug"[8]。还有人认为,新版本的编程能力已经可以和"编程新王"Claude 4一较高下[8]。

这种编程能力的提升不仅仅体现在代码生成的准确性上,更重要的是对复杂编程逻辑的理解和处理能力。这对于开发者来说,意味着AI助手不再只是简单的代码片段生成器,而是真正能够理解和解决复杂编程问题的智能伙伴。

除了编程,模型的理解能力也上了一个层次。有用户测试后表示:"感觉模型的理解能力上了一个层次,比如激活参数部分,R1可以制作交互动画来展示,另外关键信息的逻辑也非常清晰"[8]。

这种理解能力的提升体现在多个方面:对复杂概念的解释更加准确,对用户意图的把握更加精准,对知识点之间关联的处理更加合理。

从技术角度来看,这次更新虽然被定义为"小版本升级",但实际上涉及了模型的多个核心组件。根据官方信息,当前版本为DeepSeek R1.2.1,升级日期为2025年5月28日[9]。

有细心的用户发现,新版本的思维链表现发生了一些微妙的变化。"之前开头第一个词一般固定是'嗯,......',现在没有这种情况了。思维链里的内容也变得简练了很多,每一段的内容更少了"[19]。

这种变化可能看起来很小,但实际上反映了模型在推理过程优化方面的努力。更简练的思维链意味着更高效的推理过程,同时也可能带来更快的响应速度。

虽然这次更新没有进行重大结构升级[9],但从性能提升的幅度来看,DeepSeek很可能对模型的某些关键组件进行了精细化调优。这种微调往往比大规模的架构改动更能带来实质性的性能提升。

R2在哪里?市场的期待与现实

值得注意的是,这次更新让很多人对R2的发布时间产生了新的猜测。今年2月就有媒体称,DeepSeek在加速推出R2,原计划时间定在5月初[8]。4月初,DeepSeek还联手清华大学发布了一篇关于自我原则点评调优(SPCT)的论文,引发了R2即将面世的猜测[8]。

4月末,又有消息称R2将采用更先进的混合专家模型(MoE),总参数量预计达1.2万亿,较6710亿参数的R1提升约1倍[8]。但到目前为止,DeepSeek都未正式确认任何有关R2发布时间的消息。

有网友在这次R1更新的消息下评论:"试了一下没什么升级感,不会R2真的出不来了?否则升级R1做什么?"[19]。也有人认为,这次的小版本升级可能意味着,R2还远未准备好推出[8]。

这次更新也再次体现了DeepSeek对开源生态的坚持。新版本的开源模型已经上传到Hugging Face,正式命名为DeepSeek-R1-0528[13]。虽然目前还没有提交详细的信息卡,但这种快速开源的做法继续维护着DeepSeek在开源AI社区的良好声誉。

DeepSeek在今年1月发布R1时,就采用了MIT License,允许用户通过蒸馏技术借助R1训练其他模型[3]。这种开放的许可证政策对整个AI开源生态的发展起到了重要的推动作用。

API接口和使用方式保持不变[2],这意味着已经基于DeepSeek R1构建应用的开发者可以无缝享受到新版本带来的性能提升。这种向后兼容的设计理念,大大降低了技术更新对现有生态的冲击。

从商业角度来看,DeepSeek这种持续优化的策略值得深思。相比于频繁发布全新模型,持续改进现有模型可能是一种更加务实的选择。这样既能保持技术领先,又能维护生态稳定,还能积累更多的用户反馈数据。

DeepSeek R1的API服务定价为每百万输入tokens 1元(缓存命中)/ 4元(缓存未命中),每百万输出tokens 16元[3]。相比于国外竞品,这个价格具有明显的优势,而性能的持续提升进一步增强了其竞争力。

用户体验的实际改进

对于普通用户来说,这次更新带来的最直观的改进就是使用体验的提升。无论是在官方网页、APP还是小程序中,用户都可以立即体验到新版本的改进[2]。

特别是"深度思考"模式的优化,让用户在处理复杂推理任务时能够获得更好的体验。这种改进虽然在数字上可能不够显眼,但在实际使用中的感受是非常明显的。

DeepSeek R1-0528的发布,再次展现了中国AI公司在大模型领域的实力。从最初的R1震惊全球,到现在的持续优化,DeepSeek正在用实际行动证明,中国的AI技术不仅能够达到国际先进水平,还能够在开源的前提下实现商业化成功。

这种发展模式对整个AI行业都有重要的启示意义。技术创新不一定需要巨额投资和最新硬件,关键在于算法的优化和工程的精进。DeepSeek用相对较低的成本实现了与顶级商业模型相媲美的性能,这为更多的创业公司和研究机构提供了可能性。

虽然这次只是小版本更新,但从社区反馈来看,提升效果相当明显。这让人对DeepSeek的未来发展更加期待。如果R1的小版本更新都能带来如此显著的改进,那么R2正式发布时又会给我们带来怎样的惊喜呢?

从技术发展的角度来看,AI模型的进步正在从"大步快跑"转向"精耕细作"。这种变化可能预示着AI行业正在进入一个新的发展阶段------不再单纯追求参数规模和计算资源,而是更加注重模型的实用性和用户体验。

结语

DeepSeek R1-0528的"悄然发布"再次证明了一个道理:真正的技术实力不需要华丽的包装。在AI技术日新月异的今天,持续的优化和改进往往比一次性的重大突破更有价值。

对于开发者来说,这次更新提供了更强大的工具;对于用户来说,带来了更好的体验;对于整个AI行业来说,展示了开源模型的巨大潜力。虽然我们还在等待R2的正式发布,但R1-0528已经足够让人惊喜了。

在这个AI快速发展的时代,每一次技术进步都值得我们关注和思考。DeepSeek的这次更新,不仅仅是一个模型版本的升级,更是中国AI技术实力的又一次展现。让我们期待更多这样的"深夜惊喜",也期待AI技术能够为我们的生活和工作带来更多的便利和可能性。

文章首发于AI出海风向标

Citations:

复制代码
[1] https://finance.sina.com.cn/7x24/2025-05-29/doc-ineyepai5268628.shtml
[2] https://www.nbd.com.cn/articles/2025-05-28/3891999.html
[3] https://api-docs.deepseek.com/zh-cn/news/news250120
[4] https://m.okjike.com/users/82C7EBCB-0B1D-49EF-ADE1-F9F006933828
[5] https://news.qq.com/rain/a/20240723A03QTI00
[6] https://news.fx678.com/202505290535081128.shtml
[7] https://www.fx678.com/C/20250529/202505290535081128.html
[8] https://wallstreetcn.com/articles/3748053
[9] https://www.guandian.cn/m/show/488439
[10] https://api-docs.deepseek.com/zh-cn/updates
[11] https://www.newrank.cn/profile/gongzhonghao/70F1F5239AA28687942C6FD3816956AF?from=ranklist
[12] https://www.sohu.com/a/748079509_121119379
[13] https://linux.do/t/topic/685820
[14] https://www.bloomberg.com/news/articles/2025-05-28/deepseek-unveils-update-to-r1-model-as-ai-race-heats-up
[15] https://podcasts.apple.com/gb/podcast/%E6%95%B0%E5%AD%97%E7%94%9F%E5%91%BD%E5%8D%A1%E5%85%B9%E5%85%8B%E5%A6%82%E4%BD%95%E7%94%A8-ai-%E6%8A%8A%E4%BB%BB%E4%BD%95%E9%87%8D%E5%A4%8D3%E9%81%8D%E7%9A%84%E4%BA%8Bai%E5%8C%96/id1564877433?i=1000701487711
[16] https://www.techwalker.com/2025/0528/3166896.shtml
[17] https://linux.do/t/topic/685175
[18] https://www.sohu.com/a/831227409_121798711
[19] https://linux.do/t/topic/685144?page=2
[20] https://news.qq.com/rain/a/20240920A01O5P00
[21] https://www.zhihu.com/question/1911132833226916938/answer/1911188271691694392
[22] https://www.zhihu.com/people/Khazix
[23] https://www.huxiu.com/member/9470477.html
[24] https://www.douban.com/podcast_episode/322955
[25] https://lambda.ai/inference-models/deepseek-r1-0528