AI基础概念-第一部分:核心名词与定义(一)

📅 创建日期:2025年10月

🎯 适合人群:AI初学者、想了解Agent开发的开发者


AI基础概念-第一部分:核心名词与定义(一)

    • [📚 第一部分:核心名词与定义](#📚 第一部分:核心名词与定义)
      • [1. Agent (智能代理)](#1. Agent (智能代理))
      • [2. LLM (Large Language Model,大语言模型)](#2. LLM (Large Language Model,大语言模型))
      • [3. Prompt (提示词)](#3. Prompt (提示词))

📚 第一部分:核心名词与定义

1. Agent (智能代理)

通俗理解:就像一个能自己思考、做决策的智能助手。比如你让它"帮我订一张机票",它不仅能理解你的需求,还能自己规划步骤:搜索航班→比较价格→选择合适的→完成预订。

关键特征

  • 能理解任务
  • 能自主规划
  • 能使用工具
  • 能从经验中学习

个人理解

我目前主要使用Cursor Agent,在实际工作流中,Cursor就像我的一个AI助理或初级开发者。我的工作模式是:

  • 我的职责:接收客户需求 → 理解和拆解需求 → 将任务分配给Cursor → 审查代码质量 → 实机测试验收
  • Cursor的职责:理解我的任务描述 → 自主搜索和分析代码 → 规划修改方案 → 执行代码修改

这种协作模式让我从"写代码"升级为"审代码",大幅提升了开发效率。Agent的价值不在于完全替代人类,而在于自动化重复性工作,让人类专注于更高层次的决策和创造

2. LLM (Large Language Model,大语言模型)

通俗理解:Agent的"大脑",比如GPT-4、Claude等。就像一个博学的顾问,能理解语言、生成回复、做推理。

常见的LLM

  • OpenAI GPT-4 / GPT-3.5
  • Anthropic Claude
  • Google Gemini
  • Meta LLaMA
  • 国产:通义千问、文心一言等

个人理解

LLM本质上是超大规模的神经网络,是Agent的大脑和决策中心。在我使用Cursor的体验中,LLM(如Claude)负责理解我的需求,然后分析上下文、找到相关代码段、规划修改方案。LLM的核心能力体现在三个方面:
1、 理解需求 (把我的自然语言转化为具体任务)。
2、 拆分任务 (把复杂需求分解成可执行的步骤)。
3、 规划执行策略 (决定调用哪些工具、按什么顺序执行)。需要注意的是,LLM负责"思考和决策",而具体的"执行操作"(如读取文件、修改代码)是通过调用工具(Tools)来完成的。简单来说:LLM = 大脑(规划),Tools = 手脚(执行),两者结合才构成完整的Agent系统。

3. Prompt (提示词)

通俗理解:你和AI对话的"说明书"。写得越清楚,AI理解得越准确。

示例对比

  • ❌ 差的Prompt:"总结这篇文章"
  • ✅ 好的Prompt:"用3个要点总结这篇文章的核心观点,每个要点不超过50字,使用项目符号"

Prompt工程技巧

  • 明确角色(你是一个专业的...)
  • 具体任务描述
  • 提供示例(Few-shot Learning)
  • 设定输出格式
  • 加入思维链(Chain of Thought)

个人理解

Prompt(提示词)是人类向AI下达指令的方式,本质上是一种新型编程范式。就像传统编程用代码(严格语法)与计算机交流,Prompt工程用自然语言(灵活表达)与AI交流,是自然语言编程的核心。关键区别在于:

  • 传统编程:人 → 代码(严格语法、精确格式)→ 编译器 → 计算机执行
  • Prompt工程:人 → 自然语言(灵活表达、语义理解)→ LLM → AI生成输出

两者的共同点是都在"编程",区别是:

  • 传统编程:写的是执行逻辑(告诉计算机怎么做)
  • Prompt工程:写的是需求描述(告诉AI做什么)

这标志着编程范式从"写代码 "进化到"写需求"。

在实际使用Cursor时的体会:

❌ 模糊的Prompt(效果差):

复制代码
"帮我修改这个函数"
→ Cursor不知道改什么、怎么改、为什么改

✅ 清晰的Prompt(效果好):

复制代码
"重构login()函数:
1. 添加邮箱格式验证
2. 密码长度至少8位
3. 添加错误处理和提示信息
4. 保持现有的API调用逻辑不变"
→ Cursor理解明确,修改精准

我的Prompt实战技巧:

  1. 明确角色:"你是一个资深Python开发者"(设定专业背景)
  2. 具体需求:"在第50行添加try-catch"(而不是"处理错误")
  3. 给出约束:"保持现有代码风格"、"不要改动其他函数"
  4. 提供上下文:"这个项目使用FastAPI框架"(帮助AI理解环境)

核心感悟 :Prompt质量直接决定AI输出质量。好的Prompt = 需求文档 + 执行指南,越详细越好,让AI不需要猜测你的意图。

深入理解:AI如何理解Prompt?(向量化机制)

很多人好奇,AI是如何"看懂"我们写的Prompt的?答案是向量化

复制代码
你的Prompt: "帮我重构login()函数"
       ↓
   [分词/Tokenization]
       ↓
   ["帮我", "重构", "login", "()", "函数"]
       ↓
   [向量化/Embedding]
       ↓
   [0.234, -0.567, 0.891, ...] (每个词变成1536维向量)
       ↓
   [神经网络处理]
       ↓
   AI理解:这是一个代码重构请求

为什么好的Prompt效果更好?从向量化角度解释:

❌ 模糊Prompt:"修改函数"

  • 向量表示模糊,语义信息少
  • AI需要"猜测"你的意图
  • 相似度计算不精确

✅ 清晰Prompt:"重构login()函数,添加邮箱验证和错误处理"

  • 关键词丰富:["重构", "login", "邮箱验证", "错误处理"]
  • 每个关键词的向量都提供明确的语义信息
  • AI通过向量相似度精确匹配相关知识
  • 生成的代码更符合需求

实际例子:向量如何影响理解

python 复制代码
# Prompt 1: "处理错误"
向量特征:[通用, 模糊, 多种可能]
AI理解:可能是try-catch?可能是日志?可能是提示?

# Prompt 2: "添加try-catch异常处理,捕获网络超时,记录到日志"
向量特征:[具体, 明确, 包含技术细节]
关键向量:
  - "try-catch" → [异常处理机制]
  - "网络超时" → [特定异常类型]
  - "日志" → [logging操作]
AI理解:明确知道要做什么,怎么做

关键启示:

  • Prompt中的每个词都会被向量化
  • 关键词越多、越具体,生成的向量越精确
  • AI通过向量相似度在海量知识中检索匹配内容
  • 这就是为什么"详细的Prompt"效果远好于"简单的Prompt"

所以,写好Prompt的本质是:给AI提供足够多的、精确的语义信息(向量),让它能准确理解和检索相关知识

相关推荐
wechat_Neal9 小时前
AI革新汽车安全软件开发
人工智能·语言模型·自然语言处理
leafff12313 小时前
新手入坑 Stable Diffusion:模型、LoRA、硬件一篇讲透
人工智能·计算机视觉·stable diffusion
Liudef0614 小时前
DeepseekV3.2 实现构建简易版Wiki系统:从零开始的HTML实现
前端·javascript·人工智能·html
格林威16 小时前
AOI在产品质量检测制造领域的应用
人工智能·数码相机·计算机网络·计算机视觉·目标跟踪·视觉检测·制造
短视频矩阵源码定制16 小时前
矩阵系统源码推荐:技术架构与功能完备性深度解析
java·人工智能·矩阵·架构
彩云回16 小时前
多维尺度分析法(MDS)
人工智能·机器学习·1024程序员节
Rock_yzh16 小时前
AI学习日记——Transformer的架构:编码器与解码器
人工智能·深度学习·神经网络·学习·transformer
rengang6617 小时前
Spring AI Alibaba 框架使用示例总体介绍
java·人工智能·spring·spring ai·ai应用编程
FreeBuf_17 小时前
新型Agent感知伪装技术利用OpenAI ChatGPT Atlas浏览器传播虚假内容
人工智能·chatgpt