AI 编程理论与实践 --- 课程大纲
定位 :面向有基础编程经验(1年+)、想系统掌握 AI 编程的技术人员。
目标 :从深度学习原理到 AI Agent 工程化,覆盖"理解→搭建→部署→迭代"全链路。
学时:建议 8 周 / 32 课时(每课时 90 分钟)

模块零:开篇与学习路径(1 课时)
| 主题 | 内容 |
|---|---|
| 课程全景图 | 整个课程的知识地图,各模块之间的依赖关系 |
| 学习方式 | 每节配 1 个可运行的 Notebook + 1 个课后实战任务 |
| 环境准备 | Python 3.12+ / PyTorch 2.x / VS Code + Jupyter / Docker 环境搭建 |
| 术语约定 | 首次出现的术语统一标注中英文全称(如 Agent、MCP 协议、RAG、ARS) |
模块一:AI 编程基础 --- 从传统编程到智能编程(3 课时)
1.1 编程范式的演进
- 传统编程(规则驱动)→ 机器学习(数据驱动)→ AI 编程(大模型驱动)
- 关键转折点:ImageNet → Transformer → ChatGPT → MCP 协议
- 🚀 实操:写一个简单的规则分类器 vs 用 scikit-learn 做同样的分类,对比代码量和准确率
1.2 深度学习核心概念
- 感知机 → 多层感知机(MLP):前向传播与反向传播
- 激活函数(ReLU / Sigmoid / GELU)与梯度消失问题
- Batch Normalization 与 Dropout:解决过拟合与训练不稳定
- 从 CNN → RNN → LSTM → Transformer 的技术脉络
- 🚀 实操:用 PyTorch 手写一个两层 MLP,在 MNIST 上训练并观察 loss 曲线
1.3 大语言模型(LLM)原理
- Transformer 架构核心:Self-Attention、Multi-Head Attention、Positional Encoding
- 预训练(Pre-training)→ 微调(Fine-tuning)→ 推理(Inference)三阶段
- 参数规模演进:LeNet(6万)→ BERT(3.4亿)→ GPT-3(1,750亿)→ GPT-4(万亿级)
- 🚀 实操:用 HuggingFace transformers 库加载一个预训练 BERT 模型,对自定义文本做分类
模块二:AI 开发工具链与框架(3 课时)
2.1 主流框架对比与选型
| 框架 | 特点 | 适用场景 |
|---|---|---|
| PyTorch | 动态图、易调试、生态丰富 | 研究原型、中小规模训练 |
| TensorFlow | 静态图、生产部署成熟 | 大规模工业部署 |
| JAX | 函数式、自动微分、TPU 友好 | 前沿研究、大规模分布式 |
| 国产框架(PaddlePaddle / MindSpore) | 中文优化、国产硬件适配 | 信创环境、国产 GPU 部署 |
- 选型建议:新项目无脑 PyTorch,信创场景优先国产框架
- 🚀 实操:同一个线性回归任务分别在 PyTorch 和 TensorFlow 上实现,对比代码风格
2.2 模型训练全流程(代码驱动)
数据准备 → 数据增强 → 模型定义 → Loss 设计 → 优化器选择 → 训练循环 → 验证评估 → 模型保存
- 数据集划分:训练 / 验证 / 测试(7:2:1)
- 优化器对比:SGD → Adam → AdamW
- 学习率调度:Step Decay / Cosine Annealing / Warmup
- 训练技巧:Gradient Accumulation、Mixed Precision(FP16)、Early Stopping
- 🚀 实操:训练一个图像分类模型(ResNet-18 on CIFAR-10),记录完整训练日志
2.3 GPU 选型与成本估算
| 场景 | 推荐 GPU | 参考成本 |
|---|---|---|
| LLM 训练(7B+) | H100(80GB)× 8 | ~$300K/台 |
| 模型微调(LoRA) | A100(40GB)× 1 | ~$15K/台 |
| 推理部署 | RTX 4090 / A10G | ~1.6K~8K |
| 国产替代 | 华为昇腾 Atlas 900 / 壁仞 | 按信创预算 |
- 训练一个 7B 模型微调的大致成本估算(附公式)
- 🚀 实操:根据给定的硬件预算和任务规模,给出 GPU 配置建议方案
模块三:AI Agent 与 MCP 协议 --- 从模型到任务执行(4 课时)
3.1 AI Agent 是什么
- Agent 的定义:具备感知 → 推理 → 行动循环的 AI 系统
- 从"对话"到"任务执行"的范式转换
- Agent 核心三要素:工具(Tool)→ 规划(Planning)→ 记忆(Memory)
- 🚀 实操:用 LangChain 构建一个简单的 ReAct Agent(能调用搜索和计算器工具)
3.2 MCP 协议(Model Context Protocol)深度解析
MCP 是 2024 年末由 Anthropic 提出的开放协议,标准化了模型与外部工具、数据源之间的交互方式。
- MCP 架构:Host(宿主应用)→ Client → Server(工具/数据源)
- 核心概念:Resources(资源)、Tools(工具)、Prompts(提示模板)
- MCP vs Function Calling:标准化 vs 厂商锁定
- 🚀 实操:用 Python 写一个 MCP Server(实现一个文件搜索工具),在 Claude/Cursor 中注册使用
- 案例:某企业内部用 MCP 打通 CRM + 工单系统,Agent 自动处理 70% 的一线客服请求
3.3 技能(Skill)构建方法论
- 原则:从简单技能开始 → 单一职责 → 逐步迭代
- 技能的生命周期:定义 → 实现 → 测试 → 部署 → 迭代
- 权限管理(ARS 权限等英文缩写首次出现标注全称:Access-Role-Scope)
- 诚实设计:告诉用户"可能翻车"、"第一轮失败率高"不是什么丢人的事
- 🚀 实操:为一个内部知识库查询场景设计并实现一个完整的 Skill
3.4 常见陷阱与工程实践
- "可能翻车"场景:Agent 在复杂任务中的第一轮失败率高达 40-60%
- 如何设计降级机制:自动重试 → 简化请求 → 人工介入
- 如何做成本控制:Token 预算、请求限流、缓存策略
- 🚀 实操:给自己的 Agent 加上错误处理 + 重试 + 降级到人工的三级机制
模块四:模型微调与实践(3 课时)
4.1 全参数微调 vs 参数高效微调
- 全参数微调:效果好但成本高(7B 模型需 4×A100)
- LoRA / QLoRA:只训练 0.1-1% 参数,效果逼近全量微调
- P-Tuning / Prefix Tuning:轻量级提示调优
- 选型指南:什么时候用哪种方法
- 🚀 实操:用 LoRA 微调一个 LLaMA-3.1-8B(在单张 RTX 4090 上跑通)
4.2 数据准备与质量评估
- 数据清洗:去重 / 去噪 / 格式统一 / PII 脱敏
- 数据增强:回译 / Synonym Replacement / Mixup
- 质量评估维度:准确性 / 多样性 / 平衡性 / 覆盖度
- 案例:某客服场景微调数据准备全流程(原始对话 → 清洗 → 标注 → 质量抽检)
- 🚀 实操:从给定的 Raw Chat Log 中清洗出可用于微调的训练数据
4.3 模型评估与迭代
- 评估指标:Perplexity / BLEU / ROUGE / Human Evaluation
- 自动化评估 vs 人工评估的平衡
- 模型 A/B 测试与灰度发布
- 🚀 实操:用 lm-eval-harness 对微调前后的模型做标准化评估对比
模块五:RAG 与知识库集成(3 课时)
5.1 RAG 基础架构
用户查询 → Embedding → 向量检索 → 上下文拼接 → LLM 生成回答
- Embedding 模型选型(text-embedding-3-small / bge-large-zh)
- 向量数据库对比(Chroma / Pinecone / Milvus / Qdrant)
- 检索策略:Dense Retrieval + Sparse Retrieval(混合检索)
- 🚀 实操:搭建一个完整的 RAG 系统(文档上传 → 分块 → 向量化 → 检索 → 回答)
5.2 高级 RAG 策略
- Query Rewriting:将用户模糊问题改写为更精准的检索 query
- HyDE(Hypothetical Document Embeddings):先生成假设答案再检索
- Re-ranking:对候选文档做二次排序
- Multi-turn RAG:保留对话上下文的检索策略
- 案例:某电商客服 RAG 系统------双知识库策略(公共 FAQ + 订单私有库)
- 🚀 实操:给自己的 RAG 系统加上 Query Rewriting + Re-ranking
模块六:AI 编程项目实战(4 课时)
以下三个项目三选一,全程代码驱动,配完整的项目模板和测试用例。
项目 A:智能客服 Agent
- 需求:支持多轮对话、查询订单状态、退换货流程引导
- 技术栈:MCP Server + 向量知识库 + LLM + 降级到人工
- 交付物:可运行的 Agent + 测试报告 + 部署文档
项目 B:文档问答系统
- 需求:支持上传 PDF / Word / Markdown,问答准确率 ≥ 85%
- 技术栈:RAG + Embedding + Re-ranking + Gradio 界面
- 交付物:Web 界面 + API + 准确率评估报告
项目 C:代码审查助手
- 需求:基于 MCP 协议接入代码仓库,自动生成 Code Review 意见
- 技术栈:MCP Server + Lint 规则 + LLM + Git Hooks
- 交付物:MCP Server + VS Code 插件 + 使用指南
模块七:部署与运维(2 课时)
7.1 模型部署方案
| 方案 | 延迟 | 成本 | 适用场景 |
|---|---|---|---|
| 云端 API(OpenAI / 国产 API) | 中等 | 按量付费 | 快速验证、小流量 |
| 自建推理(vLLM / TGI) | 低 | 高 | 大规模生产、数据安全 |
| 边缘部署(ONNX / TensorRT) | 极低 | 中 | 离线场景、IoT |
7.2 监控与运维
- Token 用量监控与成本预算告警
- 响应延迟 P50 / P95 / P99 监控
- 模型质量漂移检测(Data Drift / Concept Drift)
- 回滚策略:保留最近 3 个模型版本,支持分钟级回滚
- 🚀 实操:用 Prometheus + Grafana 搭建一个 API 监控面板
7.3 安全与合规
- Prompt Injection 防护策略
- PII 脱敏与数据隐私
- 国产化部署:华为昇腾 / 壁仞 GPU + 国产大模型(Qwen / DeepSeek / GLM)
- 诚实性原则:明确告知用户能力边界和权限范围
模块八:前沿趋势与职业路径(1 课时)
8.1 2025-2026 关键趋势
- MCP 协议成为模型与工具交互的事实标准
- 多模态 Agent(文本 + 图像 + 语音 + 代码)
- 端侧模型(iPhone / PC 本地运行 7B 级别模型)
- AI 编程工具(Cursor / Copilot / CodeBuddy)改变开发范式
8.2 学习资源与进阶路径
- 必读书单:Deep Learning(花书)/ 李沐动手学深度学习 / LLM 论文精读
- 必追资源:HuggingFace Daily Papers / GitHub Trending / 机器之心
- 社区推荐:ModelScope / 知乎 AI 专栏 / Discord AI 社区
- 职业路径:AI 应用开发 → 模型微调工程师 → AI 架构师 → AI 产品负责人
附录
| 编号 | 内容 |
|---|---|
| A | 课程术语表(按字母排序,含中英文全称与首次出现课时) |
| B | 环境搭建手册(Windows / macOS / Linux 三版) |
| C | GPU 选型决策树 |
| D | 常见错误与修复指南(FAQ) |
| E | 课后项目参考实现(Gitee 仓库链接) |
课程设计说明
本大纲的设计思路基于两份课程评估分析:
| 评估维度 | 课程设计对策 |
|---|---|
| 实操性(原评估短板) | 每个课时末尾配"🚀 实操"环节,提供可复现的代码示例 |
| 案例可信度(原评估短板) | 穿插具体项目落地案例(客服数据、成本公式、企业内部场景) |
| 前沿性(原评估短板) | 纳入 MCP 协议、AI Agent、Skill 构建等 2024-2025 最新工程化方向 |
| 概念清晰度(原评估短板) | 术语首次出现标注中英文全称(如 MCP、ARS、RAG、LoRA) |
| 系统性(原评估长板) | 保留"是什么→为什么→怎么做"的清晰链路 |
| 目标匹配度(原评估长板) | 全程紧扣"AI 编程落地"主线,不做纯理论推导 |
附录:学习资源索引
1 深度学习框架 (Deep Learning Frameworks)
| 框架名称 | 官方文档/资源 | 说明 |
|---|---|---|
| PyTorch | pytorch.org | 目前最流行的深度学习框架,生态极其丰富 |
| TensorFlow | tensorflow.org | 工业级应用广泛,部署能力强 |
| JAX | jax.readthedocs.io | Google 推出的高性能数值计算库,适合大规模并行计算 |
2 大模型生态与 Agent 开发 (LLM & Agent Ecosystem)
1. Agent 框架与工具
| 框架/工具 | 资源链接 | 说明 |
|---|---|---|
| LangChain | python.langchain.com | LLM 应用开发的核心框架,生态最全 |
| AutoGPT | github.com/Significant-Gravitas/AutoGPT | 典型的自主 Agent 实验项目 |
| Microsoft AutoGen | microsoft.github.io/autogen/ | 专注于多 Agent 对话与协作的框架 |
2. 模型推理与部署
| 工具名称 | 资源链接 | 说明 |
|---|---|---|
| Ollama | ollama.com | 本地运行 LLM 最简单、最流行的工具 |
| vLLM | github.com/vllm-project/vllm | 高吞吐量、低延迟的 LLM 推理服务框架 |
| Llama.cpp | github.com/ggerganov/llama.cpp | 极致优化的 C/C++ 实现,支持各类硬件 |
3 向量数据库 (Vector Databases)
| 数据库名称 | 资源链接 | 说明 |
|---|---|---|
| Pinecone | pinecone.io | 托管式的向量数据库服务,易于上手 |
| Milvus | milvus.io | 高性能、分布式、云原生向量数据库 |
| Chroma | docs.trychroma.com | 轻量级、开源、适合快速原型开发的向量库 |
| Weaviate | weaviate.io | 支持向量搜索与关键词搜索的混合检索数据库 |
4 提示工程与提示词优化 (Prompt Engineering)
| 资源名称 | 链接 | 说明 |
|---|---|---|
| Prompt Engineering Guide | promptingguide.ai | 最详尽的提示工程教程(中文版) |
| Learn Prompting | learnprompting.org | 从基础到高级技术的系统化课程 |
5 论文与学术前沿 (Papers & Research)
| 平台名称 | 链接 | 说明 |
|---|---|---|
| arXiv | arxiv.org | 获取最新的 AI 论文的首选平台 |
| Papers with Code | paperswithcode.com | 将论文与对应的代码实现关联,非常适合复现 |
| Hugging Face Papers | huggingface.co/papers | 基于社区热度的论文展示平台 |
6 社区与学习资源 (Community & Learning)
| 平台名称 | 链接 | 说明 |
|---|---|---|
| Hugging Face | huggingface.co | AI 界的 "GitHub",模型、数据集、Space 的大本营 |
| Kaggle | kaggle.com | 全球顶尖的数据科学竞赛与学习平台 |
| DeepLearning.AI | deeplearning.ai | Andrew Ng (吴恩达) 创办的优质 AI 课程平台 |