2025 大模型的发展

AI的2025关键进展

从Karpathy的视角来看

1. 模型训练方法

经典的模型获取范式(对数据和算力的强依赖,典型地通过预训练-- 监督微调-- RLHF三个步骤, 2020-2025年初)-->由于数据无法达到像算力的增长水平,所以寻找新的模型能力提升变得尤为关键

  • 思路1: 获取高质量数据 > 获取海量数据()
  • 思路2:更有效的训练方法(摆脱数据强依赖),典型的就是DRPO,泛化来讲就是RLVR(Reinforcement Learning from Verifiable Rewards,RLVR)
  • 关键创新来自于让模型在可自动验证环境中接受强化学习训练,例如数据题、代码或者逻辑题等。基于模型自行探索的策略,把复杂问题拆解为中间步骤,并反复试探、修正,进而逼近答案(在DeepSeek R1中很多优秀的案例)
  • 相比以往的SFT或者RLHF,有些_推理过程_是很难认为设计的。RLVR则是通过奖励函数优化,让模型自行摸索,找到最有效的解题方式
  • 此外,与SFT和RLH这种_计算量相对较小的薄层微调_来说,RLVR使用更客观、难以被投机取巧的奖励函数,使得训练可以跑的更久。结果就是RLVR提供了更高的能力/成本比,大量吞噬了原本用于预训练的算力

结论:2025年的大部分模型性能提升,不是来自于模型规模的暴涨,而是来自相似规模模型 + 更长的RL训练。并在此阶段引入了新的 scaling law:通过推理阶段生成更长的思考链条、投入更多的测试时算力,模型能力持续提升,呈现出新的scaling law

  • OpenAI的 o1 是第一个明确展示RLVR思路的模型,而2025年初的o3则是让人直观感受到质变拐点的版本
相关推荐
老金带你玩AI1 小时前
Claude Code自动记忆来了!配合老金三层记忆系统全开源!加强Plus!
人工智能
Halo咯咯1 小时前
无限免费 OpenClaw:接入本地模型后,你的 AI Agent 就可以 24 小时自动干活(Mac Mini 可用)
人工智能
NAGNIP13 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab15 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab15 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP18 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年18 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼19 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS19 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区20 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤