一些基本概念
1 Zero-shot & Few-shot 是什么?
1. Zero-shot(零样本)
不给例子,直接让模型做。
- 不提供任何参考样例
- 只告诉模型任务是什么
- 完全靠模型本身能力去理解、推理
例子
把下面句子分类成积极 / 消极:这部电影太好看了!
这就是 zero-shot。
2. Few-shot(少样本 / 小样本)
给几个例子,再让模型做。
- 给 1~10 个左右的示例
- 告诉模型:我要你像这样输出
- 模型照着格式、逻辑去做
例子
分类:今天心情很好 → 积极分类:这部电影好无聊 → 消极分类:这家店味道超赞 →?
这就是 few-shot。
一句话总结
- Zero-shot:不给例子,直接干。
- Few-shot:给几个例子,照着干。
2 RAG 是什么?
RAG = Retrieval-Augmented Generation****检索增强生成
一句话:先从外部资料里查相关内容 → 再把查到的内容喂给大模型 → 让模型基于真实资料回答。
3 Embedding 模型 是什么?
一句话:把文字、图片、声音等信息,变成一串数字(向量),让计算机能 "看懂、比较、计算"。
1. 核心作用
人理解文字靠语义,计算机只认数字。Embedding 模型做的就是:把 "语义" → 变成 "向量"
比如:
- "苹果" → [0.1, 0.5, -0.2, ...]
- "香蕉" → [0.12, 0.48, -0.19, ...]
- "汽车" → [ -0.8, 0.1, 0.3, ...]
语义越接近,向量越接近。
2. 它能干什么?(最常见用途)
- 搜索搜 "好吃的水果",能找到苹果、香蕉,而不是汽车。
- 推荐你看了 A 文章,给你推语义相似的 B 文章。
- 知识库问答 / RAG 把文档变成 embedding,用户提问也转成 embedding,找最相似的段落。
- 分类、聚类自动把相似内容归为一类。
3. 和普通大模型有什么区别?
- 大模型(如 GPT、Llama) :生成文字、回答问题。
- Embedding 模型 :不生成文字,只做 "语义编码" 。
4. 简单例子(你马上能懂)
你问:"什么是猫?"
- 问题 → 转成 embedding 向量
- 库里所有文档 → 都提前转成 embedding
- 计算机算距离,找到最接近的文档
- 把那段文字丢给大模型回答
这就是现在最火的 RAG(检索增强生成) 的核心。
5. 常用的 Embedding 模型
- OpenAI:
text-embedding-ada-002、text-embedding-3 - 开源:
BGE、m3e、text2vec(中文很强) - 特点:小、快、省显存,低配电脑也能跑。
超简总结
Embedding 模型 = 语义翻译官把人类语言 → 翻译成计算机能理解的数字向量,用来做:搜索、推荐、知识库、相似度匹配。