你问 AI 一件它从没见过的事,它居然能答上来,这事儿细想挺神的
先讲两个场景,你就明白了

带娃认动物

你带小孩去动物园,指着斑马说,"这是斑马,身上有黑白条纹,像马一样的体型",小孩点点头,下次看到霍加狓,虽然从没见过,但能说出"这个身上也有条纹,腿像斑马",这叫零样本学习------没见过实物,靠描述和已有知识去推断

换个情况,你给小孩看了三张霍加狓的照片,告诉他这叫霍加狓,下次他在图鉴里又认出来了,这叫少样本学习------只看了几个例子,就能举一反三
AI 的学习也是这两条路
为什么会有这种能力
传统机器学习笨,要教它认猫,得喂几万张猫图,一张张标注,累死人
后来大模型出现了,GPT、Claude 这些家伙读了互联网上海量的文字,建立了词与词、概念与概念之间的关联,它见过"斑马是有条纹的马科动物"这句话,也见过"霍加狓外形像斑马和长颈鹿的混合",所以你问它霍加狓长什么样,它能拼凑出答案
技术上讲,大模型把语言压缩成了向量空间里的点,意思相近的词挨得近,"斑马""条纹""马科"这些概念在向量空间里形成了邻居关系,新概念进来,模型顺着这些邻居关系去推理,这就是零样本的底层逻辑
少样本再进一步,你给几个例子,等于在向量空间里划了几个锚点,模型推理的时候有了参照物,准确率自然上去
这事重要在哪
以前训练 AI 做一件新任务,成本很高,标注数据、调参数、跑实验,没个把月下不来
现在呢,零样本和少样本让 AI 变得灵活了,你用自然语言描述需求,或者给两三个示例,它就能干活,门槛一下子降下来了
翻译、写作、分类、问答,很多任务不用专门训练,通用大模型直接上
这对普通人意味着,你不需要懂编程,不需要懂机器学习,只要会说人话、会举例子,就能指挥 AI
但它也有边界
零样本靠的是"猜",猜得准不准,取决于模型训练时见没见过相关知识,你问它一个极冷门的专业问题,它的知识库里没有足够的关联信息,答案就容易跑偏
少样本好一点,有例子兜底,但例子选得不好,或者太少,模型也会被带歪,举个极端情况,你给的三个例子恰好都有某种偏差,模型会以为那就是规律
还有个问题,模型会"编",它太擅长拼凑了,有时候拼出来的东西看着像那么回事,实际上是瞎说,这叫幻觉,零样本场景下特别容易出现,因为缺少锚点校正
怎么用好它

第一,零样本适合通用任务,翻译一段话、总结一篇文章、解释一个概念,这些事模型训练时见多了,表现稳定
第二,专业领域、细分场景,别迷信零样本,给几个高质量的例子,让模型知道你具体要什么风格、什么格式、什么标准,准确率能提一大截
第三,关键信息要核实,特别是事实性内容,数字、日期、人名、引用,模型给的答案当参考,别直接当结论
第四,提示词写清楚,零样本的效果很大程度上取决于你怎么问,问题模糊,答案也模糊,把背景、要求、期望的输出格式写明白,模型发挥的空间就大
往后看

零样本和少样本是大模型时代的标志性能力,它让 AI 从"专才"变成了"通才",从需要专门训练变成了开箱即用
但"通"也意味着"浅",真正需要深度专业知识的领域,它还是外行
用得好,它是效率倍增器,用不好,它是错误放大器
关键在人,知道它能干什么,也知道它干不了什么,这才是和 AI 相处的正确姿势