2025 大模型的发展

AI的2025关键进展

从Karpathy的视角来看

1. 模型训练方法

经典的模型获取范式(对数据和算力的强依赖,典型地通过预训练-- 监督微调-- RLHF三个步骤, 2020-2025年初)-->由于数据无法达到像算力的增长水平,所以寻找新的模型能力提升变得尤为关键

  • 思路1: 获取高质量数据 > 获取海量数据()
  • 思路2:更有效的训练方法(摆脱数据强依赖),典型的就是DRPO,泛化来讲就是RLVR(Reinforcement Learning from Verifiable Rewards,RLVR)
  • 关键创新来自于让模型在可自动验证环境中接受强化学习训练,例如数据题、代码或者逻辑题等。基于模型自行探索的策略,把复杂问题拆解为中间步骤,并反复试探、修正,进而逼近答案(在DeepSeek R1中很多优秀的案例)
  • 相比以往的SFT或者RLHF,有些_推理过程_是很难认为设计的。RLVR则是通过奖励函数优化,让模型自行摸索,找到最有效的解题方式
  • 此外,与SFT和RLH这种_计算量相对较小的薄层微调_来说,RLVR使用更客观、难以被投机取巧的奖励函数,使得训练可以跑的更久。结果就是RLVR提供了更高的能力/成本比,大量吞噬了原本用于预训练的算力

结论:2025年的大部分模型性能提升,不是来自于模型规模的暴涨,而是来自相似规模模型 + 更长的RL训练。并在此阶段引入了新的 scaling law:通过推理阶段生成更长的思考链条、投入更多的测试时算力,模型能力持续提升,呈现出新的scaling law

  • OpenAI的 o1 是第一个明确展示RLVR思路的模型,而2025年初的o3则是让人直观感受到质变拐点的版本
相关推荐
ShareCreators5 小时前
洞见 | 汽车
人工智能·汽车·blueberry
2501_927283585 小时前
荣联汇智立体仓库:为智慧工厂搭建高效“骨骼”与“中枢”
大数据·运维·人工智能·重构·自动化·制造
七夜zippoe5 小时前
OpenClaw 多模型配置与切换详解
人工智能·配置·模型·切换·openclaw
. . . . .5 小时前
Markdown 处理工具 - Remark
人工智能
NOCSAH5 小时前
统好AI数智平台SRM模块:智能采购管理实操
大数据·人工智能
Ai173163915795 小时前
10大算力芯片某某XXU全解析:CPU/GPU/TPU/NPU/LPU/FPGA/RPU/BPU/DPU/GPGPU
大数据·图像处理·人工智能·深度学习·计算机视觉·自动驾驶·知识图谱
连线Insight5 小时前
从流量分发到信任基建:梦饷科技的加速跃迁
人工智能·科技
jonyleek5 小时前
私有化部署大模型时,如何平衡“数据安全”与“推理性能”的矛盾?
人工智能·ai·大模型·jvs·ai套件·jvs-ai套件
我是大聪明.5 小时前
大模型Tokenizer原理:深入理解BPE与WordPiece子词编码技术
人工智能·深度学习·机器学习
qq_411262426 小时前
四博 AI 智能音箱 4G S3 版本工程落地方案:三模联网、远场唤醒、打断播放与 AI 会话框架
人工智能·智能音箱