ai-agent工程师指南

一些基本概念

1 Zero-shot & Few-shot 是什么?

1. Zero-shot(零样本)

不给例子,直接让模型做。

  • 不提供任何参考样例
  • 只告诉模型任务是什么
  • 完全靠模型本身能力去理解、推理

例子

把下面句子分类成积极 / 消极:这部电影太好看了!

这就是 zero-shot


2. Few-shot(少样本 / 小样本)

给几个例子,再让模型做。

  • 1~10 个左右的示例
  • 告诉模型:我要你像这样输出
  • 模型照着格式、逻辑去做

例子

分类:今天心情很好 → 积极分类:这部电影好无聊 → 消极分类:这家店味道超赞 →?

这就是 few-shot


一句话总结

  • Zero-shot:不给例子,直接干。
  • Few-shot:给几个例子,照着干。

2 RAG 是什么?

RAG = Retrieval-Augmented Generation****检索增强生成

一句话:先从外部资料里查相关内容 → 再把查到的内容喂给大模型 → 让模型基于真实资料回答。

3 Embedding 模型 是什么?

一句话:把文字、图片、声音等信息,变成一串数字(向量),让计算机能 "看懂、比较、计算"。


1. 核心作用

人理解文字靠语义,计算机只认数字。Embedding 模型做的就是:把 "语义" → 变成 "向量"

比如:

  • "苹果" → [0.1, 0.5, -0.2, ...]
  • "香蕉" → [0.12, 0.48, -0.19, ...]
  • "汽车" → [ -0.8, 0.1, 0.3, ...]

语义越接近,向量越接近。


2. 它能干什么?(最常见用途)

  1. 搜索搜 "好吃的水果",能找到苹果、香蕉,而不是汽车。
  2. 推荐你看了 A 文章,给你推语义相似的 B 文章。
  3. 知识库问答 / RAG 把文档变成 embedding,用户提问也转成 embedding,找最相似的段落
  4. 分类、聚类自动把相似内容归为一类。

3. 和普通大模型有什么区别?

  • 大模型(如 GPT、Llama) :生成文字、回答问题。
  • Embedding 模型不生成文字,只做 "语义编码"

4. 简单例子(你马上能懂)

你问:"什么是猫?"

  1. 问题 → 转成 embedding 向量
  2. 库里所有文档 → 都提前转成 embedding
  3. 计算机算距离,找到最接近的文档
  4. 把那段文字丢给大模型回答

这就是现在最火的 RAG(检索增强生成) 的核心。


5. 常用的 Embedding 模型

  • OpenAI:text-embedding-ada-002text-embedding-3
  • 开源:BGEm3etext2vec(中文很强)
  • 特点:小、快、省显存,低配电脑也能跑。

超简总结

Embedding 模型 = 语义翻译官把人类语言 → 翻译成计算机能理解的数字向量,用来做:搜索、推荐、知识库、相似度匹配。

相关推荐
Flittly8 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(3)TodoWrite (待办写入)
python·agent
星浩AI8 小时前
让模型自己写 Skills——从素材到自动生成工作流
人工智能·后端·agent
潘锦15 小时前
AI Agent 的长期记忆:我在工程落地里踩过的坑、做过的取舍
agent
数据智能老司机15 小时前
构建自然语言与大语言模型(LLM)流水线——将组件整合起来:面向不同使用场景的 Haystack Pipeline
llm·agent
数据智能老司机16 小时前
构建自然语言与大语言模型(LLM)流水线——使用自定义组件进行 Haystack Pipeline 开发
llm·agent
gustt16 小时前
探索MCP协议:构建高效的LLM工具集成系统
llm·agent·mcp
San301 天前
手写 Mini Cursor:基于 Node.js 与 LangChain 的开发实战
langchain·node.js·agent
SelectDB1 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
数据智能老司机1 天前
亲测!Openclaw高级Skills分享,内含最全Skills教程
agent