国货 Kimi k1.5发布!是的,又打爆了Claude Sonnet 3.5,部分场景下提升幅度甚至高达 550%!

最近Kimi团队上线了一款重量级模型------Kimi k1.5。这是一款多模态强化学习模型,直接瞄准行业的几个标杆:比如解数学题的 AIME、MATH-500,以及代码生成的 LiveCodeBench。

你没看错,Kimi k1.5 的表现已经全面超越 GPT-4o 和 Claude Sonnet 3.5,部分场景下提升幅度甚至高达 550%

接下来,就细说下呗,是骡子是马,总得拉出来溜溜吧。


Kimi k1.5 做了什么?

Kimi k1.5 是一款基于强化学习(Reinforcement Learning, RL)训练的大语言模型(LLM)。传统的语言模型主要依赖"预测下一个词"来学习,但这条路有个明显瓶颈------训练数据总是有限的。然而,强化学习可以让模型通过"探索+奖励"的方式,扩展自己的数据规模,实现更强的学习能力。

不过,过去的很多 RL+LLM 的尝试效果都不理想,竞争力有限。Kimi k1.5 的突破就在于,它构建了一个简化却高效的 RL 框架,避开了复杂的算法,比如 Monte Carlo 树搜索(MCTS)或者价值函数。简单点说,它用最直接的方式做出了非常棒的效果。


模型亮点拆解

让我们从以下几个技术维度聊聊 Kimi k1.5 为什么能成功。

1. 长上下文窗口:128k 的性能炸裂

传统的模型处理长文本时经常力不从心,而 Kimi k1.5 将上下文窗口直接扩展到了 128k。这意味着它可以同时处理超长的输入和输出内容。

在实现上,我们使用了部分回合重用的技术:

  • 每次不必重新生成全新的轨迹,而是重用前一部分的计算结果,节省了大量计算成本。
    这类似于复用函数调用的结果,既高效又节约资源。

直观效果:长上下文让 Kimi k1.5 不仅能看得更远,还能在复杂问题上更具反思和纠错能力。例如,数学证明或代码生成中,模型的"多步推理"能力显著提升。


2. 更强的策略优化算法

Kimi k1.5 的强化学习用到了一个改进版的在线镜像下降法(Online Mirror Descent, OMD)。

在实际操作中,我们还引入了以下优化策略:

  • 采样策略优化:更精准地挑选训练数据,确保模型学到的都是关键技能。
  • 长度惩罚:避免生成太长或太短的内容,提升输出质量。
  • 数据配方调优:精心设计的多模态数据训练流程,确保文本和视觉数据的均衡学习。

效果

这些优化让模型更高效地完成训练,同时在实际应用中生成更加合理的推理步骤。


3. 简化却高效的 RL 框架

相比那些"堆叠式"的复杂强化学习算法,Kimi k1.5 走了一条"化繁为简"的路。它直接结合了长上下文窗口和优化策略,避开了 MCTS、价值函数等传统强化学习组件。

通俗解释

假设我们在爬楼梯,别人用复杂的滑轮系统辅助爬升,而 Kimi k1.5 直接升级了爬楼梯的速度------通过更多的规划和反思,它自己爬得比谁都快。


4. 多模态联合训练

除了文本数据,Kimi k1.5 还能处理视觉数据,这让它在图片理解+文本生成的任务中同样表现出色。

典型场景

  • 给一张数学题图像,让模型推导出解答步骤。
  • 分析代码截图,并给出优化建议。

这种能力让 Kimi k1.5 在跨模态任务中如鱼得水,尤其是需要结合视觉和语言推理的场景。


实际表现:全面开花

以下是 Kimi k1.5 在多个领域的表现(对比 OpenAI 的 o1 及其他同类模型):

测试集 Kimi k1.5 成绩 提升 对比模型
AIME 77.5 +550% GPT-4o
MATH-500 96.2 +200% Claude Sonnet 3.5
Codeforces 94-th 百分位 高水平稳定性 OpenAI o1
LiveCodeBench 47.3 +300% GPT-4o

不仅如此,Kimi k1.5 还特别擅长短 CoT(Chain of Thought)推理,通过长 CoT 技术反哺短 CoT 模型,达到前所未有的表现。


如何试用 Kimi k1.5?

请先申请 API-key,然后申请使用 kimi1.5 的权限。通过之后就可以爽了。

我就是直接在我的 copy-coder-bolt 上进行测试的。copy-coder-bolt 是一个集成 copy-coder(图片还原高质量提示词)+bolt(代码生成和预览)为一体的小应用。参考这篇文章介绍:

测试,图片还原的效果

但是实话实说,目测预估价格是要比 deepseek 贵不少的。

相关推荐
Baihai_IDP7 分钟前
「DeepSeek-V3 技术解析」:无辅助损失函数的负载均衡
人工智能·llm·deepseek
硅谷秋水14 分钟前
大语言模型智体的综述:方法论、应用和挑战(下)
人工智能·深度学习·机器学习·语言模型·自然语言处理
TGITCIC18 分钟前
BERT与Transformer到底选哪个-下部
人工智能·gpt·大模型·aigc·bert·transformer
Lx35219 分钟前
AutoML逆袭:普通开发者如何玩转大模型调参
人工智能
IT古董20 分钟前
【漫话机器学习系列】185.神经网络参数的标准初始化(Normalized Initialization of Neural Network Parameter
人工智能
嘻嘻哈哈开森22 分钟前
Java开发工程师转AI工程师
人工智能·后端
rocksun23 分钟前
Agentic AI和平台工程:如何结合
人工智能·devops
孔令飞34 分钟前
关于 LLMOPS 的一些粗浅思考
人工智能·云原生·go
Lecea_L40 分钟前
你能在K步内赚最多的钱吗?用Java解锁最大路径收益算法(含AI场景分析)
java·人工智能·算法
2501_9071368243 分钟前
OfficeAI构建本地办公生态:WPS/Word双端联动,数据自由流转
人工智能·word·wps