新型学习范式(机器学习)

最近出现了很多"学习方法",比如零样本学习,对比学习等。层出不穷,比较好奇为什么会出现这么多的"学习方法"。这里简单整理一下。

有哪些新型学习范式?

这里列举一些相对传统的监督学习/无监督学习比较新的学习范式,如下表所示:

学习范式 核心思想 典型方法 / 代表模型 主要应用场景 解决的关键问题
自监督学习(Self-Supervised Learning) 利用数据自身构造监督信号,无需人工标签 BERT, SimCLR, MoCo, MAE NLP、CV、语音 缺乏大量标注数据;预训练通用表征
对比学习(Contrastive Learning) 拉近正样本对、推开负样本对,学习判别性表示 SimCLR, MoCo, CLIP 多模态对齐、表征学习 表征缺乏判别性;无监督下难优化
零样本学习(Zero-Shot Learning) 识别训练未见类别,借助语义先验(如文本) CLIP, ALE, SJE 开放世界分类、跨模态检索 新类别无法获取训练样本
小样本学习(Few-Shot Learning) 用极少量样本(1~5个)快速适应新任务 Prototypical Nets, MAML 医疗、工业检测 标注成本高、样本稀缺
弱监督学习(Weakly Supervised Learning) 使用不完整/不精确/含噪标签进行学习 Mean Teacher, MIL, Noisy Student 图像级标签分割、噪声鲁棒学习 标注质量低或粒度粗
持续学习(Continual Learning) 序列任务中持续学习,避免遗忘旧知识 EWC, GEM, Replay 机器人、个性化系统 灾难性遗忘;静态训练假设失效
因果学习(Causal Learning) 建模因果机制而非统计相关 IRM, CausalNex, Do-Calculus methods 领域泛化、可解释AI 分布外泛化差;依赖虚假相关
检索增强学习(如 RAG) 推理时动态检索外部知识辅助决策 RAG, RETRO, Atlas 问答、知识密集型任务 模型知识固化、产生幻觉
基于提示的学习(Prompting) 将任务转为填空/指令形式激发大模型能力 GPT, T0, FLAN 零样本 NLP、指令微调 微调成本高;提升通用性
具身/交互式学习 智能体通过与环境交互主动获取经验 World Models, SIMBot 机器人、仿真智能体 缺乏真实世界常识
主动学习(Active Learning) 模型主动选择最有价值的样本请求人工标注,以最小标注成本获得最大性能提升 Uncertainty Sampling, Query-by-Committee, Core-Set, BALD 医学影像标注、工业质检、数据标注流水线 标注成本高昂;如何高效利用人类标注资源

为什么会出现这些学习范式?

这些新型机器学习方法的出现,主要源于现实需求与传统方法局限之间的矛盾。简单来说,原因可以归结为以下四点:

  1. 标注数据太贵、太少
    • 人工标注耗时耗力(如医学图像、法律文本)。
    • → 催生:自监督学习、主动学习、弱监督学习(少标或不标也能学)。
  2. 世界是开放的,类别无限多
    • 模型不可能提前见过所有类别(如新商品、新物种)。
    • → 催生:零样本学习、小样本学习(没见过也能猜,看几个就会)。
  3. 真实环境不断变化
    • 模型上线后会遇到新任务、新数据,不能每次都重训。
    • → 催生:持续学习、在线学习(边用边学,不忘旧知)。
  4. 大模型需要更聪明的学习方式
    • 单纯靠"更多数据+更大模型"难以为继。
    • → 催生:对比学习、因果学习、检索增强(学得更高效、更鲁棒、更可解释)。

一句话总结 :这些新方法,都是为了在数据少、变化快、成本高、要求高的现实世界中,让机器学得更像人------用更少的经验,理解更多的事物

这些学习范式之间的区别

虽然这些新型机器学习范式都旨在突破传统监督学习的局限 ,但它们解决的问题不同、假设前提不同、技术路径也不同 。下面从目标、数据假设、人机角色、典型场景四个维度,清晰对比它们之间的核心区别:

范式 核心目标 关于标签的假设 是否需要人参与? 典型问题场景
自监督学习 从无标签数据学通用表征 完全无标签 否(训练阶段) 预训练大模型
对比学习 学判别性特征(常作为SSL手段) 通常无标签(靠数据增强构造正负对) 表征学习、多模态对齐
零样本学习 (ZSL) 识别从未见过的类别 新类无任何样本,但有语义描述(如文本) 是(需提供语义先验) 开放世界分类(如新物种)
小样本学习 (FSL) 用极少样本快速适应新类 每个新类有1~5个标注样本 是(需少量标注) 罕见病诊断、定制化任务
主动学习 (AL) 最小化标注成本 大量未标注 + 少量可标注 是(模型主动"提问") 医学影像标注、工业质检
弱监督学习 在低质量标签下学习 标签不完整/不精确/含噪声 视情况(可能已有弱标签) 图像级标签做分割
持续学习 序列任务中不遗忘 每个任务有标签,但不能存旧数据 否(或仅初始标注) 机器人持续升级
因果学习 学机制而非相关性 通常有标签,但关注不变性 跨环境泛化(如不同医院数据)
检索增强 (RAG) 动态引入外部知识 无需训练新标签,依赖知识库 否(但需构建知识库) 事实问答、避免幻觉
提示学习 (Prompting) 激发大模型已有能力 无需微调标签,靠指令引导 否(用户写 prompt 即可) 零样本推理、快速部署
具身学习 通过交互学常识与技能 通过环境反馈获得奖励/信号 否(但需仿真/真实环境) 机器人、虚拟智能体

🔍 关键区别详解

  1. 对待"标签"的态度不同

    • 不要标签:自监督、对比学习、具身学习(用环境反馈代替)。
    • 要一点点标签:小样本学习(K个/类)、主动学习(选最有价值的标)。
    • 要"软"标签:弱监督(粗粒度/噪声标签)。
    • 不要新类标签,但要语义:零样本学习(依赖文本/属性等先验)。

    ✅ 主动学习 vs 小样本学习:

    • AL 是过程:不断选样本 → 标注 → 再训练;
    • FSL 是设定:给定 K 个样本,直接泛化。
    • AL 可用于构建 FSL 的训练集!
  2. 是否依赖外部知识

    • 依赖语义/知识库:零样本学习(词向量)、RAG(文档库)、提示学习(人类常识编码在LLM中)。
    • 纯从数据中学:自监督、对比学习、持续学习。
  3. 时间维度 vs 静态设定

    • 静态一次性学习:ZSL、FSL、SSL(训练完就固定)。
    • 动态持续学习:持续学习、主动学习(多轮迭代)、具身学习(在线交互)。
  4. 与大模型的关系

    • 大模型使能:零样本、提示学习、RAG(依赖LLM/Multimodal大模型)。
    • 大模型无关:传统FSL、AL、因果学习(可在小模型上实现)。

🧩 举个例子说明区别

假设你要做一个罕见皮肤病诊断系统:

  • 主动学习:模型先用公开数据预训练,然后从医院未标注图像中挑出"最不确定"的10张,请皮肤科医生标注,再更新模型------省标注。
  • 小样本学习:每种罕见病只有3张已标注图,模型直接学会诊断------少样本泛化。
  • 零样本学习:某种病完全没图像,但有文字描述(如"红色环状斑块"),模型结合CLIP实现识别------无样本推理。
  • 自监督+对比学习:用百万张无标签皮肤图像预训练特征提取器------打基础。
  • RAG:诊断时检索最新医学文献,避免给出过时建议------动态知识。

注意:它们不是互斥的,而是可组合使用!

相关推荐
Deepoch2 小时前
Deepoc具身大模型居家机器人:重新定义家庭智能服务新标准
人工智能·机器人·具身模型·deepoc·居家机器人·居家好物·智能居家
ucancode2 小时前
AI --> Mermaid --> 图形可视化 (UI)
人工智能·ui·ai·mermaid
小李AI飞刀^_^2 小时前
AlphaEarth Foundations:面向全球尺度的嵌入场模型
人工智能
KmBase2 小时前
【AI】从同构到多态:AGI的可能之路
人工智能·agi
翱翔的苍鹰2 小时前
完整的“RNN + jieba 中文情感分析”项目之一:需要添加添加 JWT 认证
人工智能·python·rnn
代码游侠2 小时前
ARM嵌入式开发代码实践——LED灯闪烁(汇编版)
arm开发·笔记·嵌入式硬件·学习·架构
minhuan2 小时前
大模型应用:拆解大模型算力需求:算力是什么?怎么衡量?如何匹配?.64
人工智能·gpu算力·大模型应用·算力评估·算力优化
凤希AI伴侣2 小时前
凤希AI伴侣功能修复与积分系统上线-2026年1月23日
人工智能·凤希ai伴侣
Cherry的跨界思维2 小时前
【AI测试全栈:质量】40、数据平权之路:Python+Java+Vue全栈实战偏见检测与公平性测试
java·人工智能·python·机器学习·ai测试·ai全栈·ai测试全栈