LLM
大语言模型(大模型)
本质:预测下一个词,不会追问
Token
大模型处理数据的基本单元
tokennize(中间人):切片为向量(数字),映射为文字
每个大约为0.7文字,0.78单词
每次输入多个token(向量),输出一个token(数字)
Context
上下文,历史token
Context window
大模型能容纳的token量
Prompt
提示词
用户(你的提问),系统(配置的指令规则,写死了)
Tool
工具(函数)
大模型感知外部的函数工具(代码)
MCP
统一工具接口(代码规范)
Agent
自主规划,调用工具,解决用户问题的程序(模型+工具)(头脑+四肢)
产品如下:
1.Gemini CLI:终端,Google,开源,Gemini 2.5Pro,100万token
2.Claude Code:终端,Anthropic,闭源,Claude系列,200K-1Mtoken,git集成,可干预,猛冲,陌生项目接手,编程强
3.CLaude cowork:图形界面,Anthropic,非程序员用,权限可控指定文件夹访问,办公,自动化
4.Codex:云端服务器,OpenAI,闭源,GPT-5-Codex,400Ktoken,沉稳,自动化
5.OPenCLaw:本地,开源项目,全模型可接入,全能管家,常驻后台自动启动,越用越熟悉你的习惯,定时任务,长期记忆,多方式远程控制
Agent skill
给Agent的说明书(一个文本,命名和内容有格式规范),让模型按自己要求输出
文件夹名字与该文本的说明一致
该文件夹创建SKILL.md,粘贴内容
RAG
检索增强
选出片段,而非全文本,根据片段回答,答案准确(内部资料)
没有,则"抱歉,无法回答";通用知识回答(标注);
多模态
全能,不偏科的模型
Subagent
主agent,子智能体
主:统筹,子:具体小任务
上下文分区,分工调度
使用:固定代码程序+agent(适合它的工作)
未来趋势:超级智能体,只需提出需求