0基础快速入门AI大模型应用与实战

|----------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 第一阶段(L1):0基础快速入门AI大模型应用与实战 建立大模型技术的基础知识,理解核心概念,并能够实现自己的AI大模型应用 |||
| 课程名称 | 主要内容 | 课程目标 |
| 01. 大模型应用开发基础 | 1. AGI 时代的个人职业发展 1. 个人定位 1. AI产品的使用者 2. AI产品的研发者 3. 基础模型训练和算法 2. 职业发展路径(AI大模型应用开发、AI产品经理) 2. AI大模型开发的核心能力模型 1. AI全栈工程师(懂业务、懂AI、懂编程) 2. AI产品经理(懂业务、懂AI) 3. AI大模型应用开发(懂编程、懂AI) 4. AI大模型宏观能力图谱详解(找准定位) 3. 了解大模型的前世今生 1. AI的前世今生 2. 大模型的发展与历史 3. AI大模型存在的短板 4. AI大模型的基本使用 4. 用API实现AI大模型的调用实现一个基本的模型对话 1. 用Anaconda创建虚拟环境 2. 安装依赖包 3. 申请APIkey 4. 第一个与AI大模型的API对话 5. 关于dotenv管理环境变量 5. 国产大模型的介绍 1. ChatGPT引发的"百模大战" 2. Deepseek爆火背后的原因分析 3. Qwen3发布对行业的影响 4. 通用模型/思考模型基本概述 5. 基座大模型的发展趋势与未来 6. 大模型的落地现状与落地方向 1. 从基座模型到AI大模型应用 2. AI大模型落地方向 1. 原生AI应用 2. 大模型结合行业场景 3. 企业内部AI大模型应用提效 3. AI大模型会对哪些行业产生实际影响 4. 如何寻找AI大模型的落地方向 5. AI大模型成果落地的核心要素 6. 企业内部如何选择基座AI大模型? 7. AI大模型应用架构分析 1. 纯Prompt 2. Agent+Function Calling+MCP 3. RAG 4. FineTuning 5. 企业内部如何选择对应的技术架构 1. 需要补充知识-RAG 2. 对接外部系统-MCP/Function Calling 3. 大量历史数据处理-微调 8. 大模型未来的发展趋势与挑战 | 了解大模型的大致发展历史、基本概念以及目前的重要性。 划重点: 这一节课的目的,是建立全局视角, 了解AI大模型能做什么、行业落地现状、大模型的工作机会、 大模型的应用架构! 目标: 让每一个零基础的普通人,彻底搞懂AI大模型的现状以及发展趋势,快速建立AI大模型的宏观认知! |
| 02.大模型核心概念和基本原理 | 1. AI人工智能的发展和原理 1. 学习与推理 2. 数据/训练/模型/推理 2. 通俗理解AI中的学习和推理的基本概念 1. 从机器学习了解AI推理的基本原理 2. y=ax+b 算法实现数据特征的提取 3. 从数据->算法->模型-推理全流程剖析 4. 案例演示房价预测:了解模型训练到模型推理 3. 通俗理解AI人工智能算法的演进 1. 机器学习算法 2. 深度学习算法 1. 神经网络的概念 2. 神经网络是如何做决策的? 3. 如何用神经网络实现训练和推理? 1. HunggingFace获取开源数据集 2. 模型训练过程分析 3. 了解"参数"到底是什么? 4. 用训练好的模型做推理 4. AI大模型的的基本原理 1. 模型是如何得到的 1. 训练 2. 微调 3. 人类反馈强化学习 2. AI大模型的发展(亿级别参数到万亿参数) 3. 模型是如何"生成"文本的? 5. AI大模型的一些基本概念 1. 模型参数规模 2. 模型上下文大小 3. LLM模型与多模态模型 4. MoE架构是什么意思? 5. 思考模型与推理模型的区别 6. 算力消耗Token是啥?怎么计算? 7. Deepseek中的模型蒸馏又是啥? 6. 从"决策式AI"到"生成式"AI,了解AI大模型爆火的底层原因! | 从应用视角了解大模型中的基本概念,如机器学习神经网络、token、transformer等。 这些内容,对于初学者而言,可以快速建立一个感性的认识。 了解AI领域中的训练、推理的基本逻辑,并用最简单的数学公式搞懂AI训练和推理的基本原理 从而对AI大模型的工作机制建立一个全局的感知认识。 接着,从AI大模型的企业应用视角,了解大模型在应用领域的技术体系。 划重点:用通俗的案例和通俗的讲解,让每一个零基础的同学,都能从宏观上了解AI大模型是如何工作的! |
| 03.提示词工程(Prompt Engineering) | 1. 提示工程的基本概述与发展 1. 什么是提示词以及提示词工程 2. 提示词是如何影响AI大模型的输出 3. 提示词的重要性以及要掌握的程度 2. 一个典型的结构化提示词展示 3. 一个Prompt 的典型构成 1. 角色/提示/上下文/样本/输入/输出 2. 为什么不建议"套"模板 3. 提示词该如何迭代和调优-达到期望结果 4. Prompt指令调优方法论 1. 角色定义 2. 限制输出格式 3. Few-shot 4. 思维链和思维树 5. 提示词进阶技巧详解 1. Prompt 攻击和防范 1. 攻击:Prompt越狱 2. 攻击:Prompt注入 3. 防范:Prompt注入分类器 4. 防范:在输入中做防御 2. 思考模型与通用模型提示词设计的差异 3. 提示词的设计原则 4. 不同基座模型对于提示词应用的差异 6. 提示词的基本原理分析 1. 「定义角色」为什么有效? 2. 为什么提示词对基座模型的输出能产生直接影响? 3. "多轮对话"的本质 7. 从0到1完成一个只能客服对话机器人的Prompt构建(代码实操) 1. 使用GPT模型构建一个基础对话环境 2. 定义Prompt目标与用户输入 3. 优化Prompt的输出格式-JSON输出 4. 进一步优化Prompt,把Json输出格式定义更精细 5. 加入样本提示词让模型输出更稳定 6. 通过Prompt构建多轮对话 7. 通过一个完整的程序串联所有流程实现智能客服助手 8. 加入静态行业知识库,提高回答的话术专业度 8. 如何提高Prompt提示词编写能力 1. 利用第三方Prompt提示词生成器(coze/LangGPT) 2. 根据输出结果不断反向优化Prompt设计 3. 定义角色、给样本是常用的有效手段 | 提示词是和AI大模型交流的一种语言,掌握提示词,能够在不对模型进行微调的情况下,让模型更好的反馈结果,是一个很重要的能力。 在未来的RAG和Agent等应用场景中, Prompt提示词设计的好坏,决定了应用在实际落地过程中的呈现效果。 划重点:本次课主要从底层掌握提示词的工作原理,以及理解提示词工程的设计和优化的方法。 并对基于提示词诱导等情况做出一定的防范。 |
| 04.GPTs与Function Calling开发AI大模型应用 | 1. GPTs的基本概述与实操 1. 什么是GPTs 2. GPTs的目标与发展现状 3. 使用GPTs搭建一个AI大模型应用 2. GPTs的平替产品介绍 1. Coze 2. Dify 3. FastGPT 4. RAGFlow 5. N8N 3. GPTs实战案例讲解 1. 用GPTs实现一个小红书爆款文案生成应用 2. 用GPTs完成一个流程图设计与编辑 3. 用GPTs实现excel数据分析 4. 如何让GPTs的应用跳出ChatGPT平台来执行 4. Function Calling & Tools 1. AI大模型的短板 2. GPT模型提出的Function Calling 3. 详解Function Calling的工作原理 4. Function Calling 带来的产品想象空间 5. Function Calling实战与原理分析 1. 使用Function Calling实现天气预报查询 2. 多Function Calling 3. AI大模型是如何决策function 调用 4. 从代码层面拆解整体工作流程 5. Function Calling的注意事项 1. Function Calling对token的消耗 2. Function Calling调用的稳定性,避免错误调用带来的灾难 3. AI大模型与企业内部应用结合的一些经验 1. 判断合理的切入点 2. 基座模型的准确率 3. bad case对业务流程的影响 6. 实战:Function Calling实现数据库查询 1. 整体工作流程分析 2. 数据库表定义与数据初始化 3. 定义数据库查询Function 7. Assistants API入门到应用实战 1. Assistants API快速入门 2. Assistants开发的完整操作步骤[图解] 3. Assistants开发实战-绘画智能助手 1. 准备开发环境 2. 创建 Assistant 3. 创建 Thread 4. 添加 Message 到 Thread 5. 创建 Run 并执行 8. Assistants结合Tools实现智能翻译助手 | 从OpenAI的GPTs平台,了解基于AI大模型创建智能应用。 再基于Python语言,对接Assistant API,在本地搭建AI应用,最后引入Function Calling技术,实现模型和外部接口的对接。 让学员对大模型应用方向有一个清晰的认识! 划重点:掌握GPTs与Function Calling的概念与应用,并具备企业内部业务场景与大模型结合的实战能力 |
| 05.掌握AI编程让普通人也能开发各种技术应用 | 1. 不懂编程如何用好AI工具做代码创作 1. AI编程能帮我解决哪些问题? 2. AI编程的使用技巧 2. AI编程智能助手GitHub Copilot实战 1. 商业成功分析 2. 补全代码的技巧和原理 3. GitHub Copilot Chat 4. GitHub Copilot Extensions 5. GitHub Copilot基本原理分析 3. 了解Vibe Coding 1. 了解Vibe Coding的基本概念 2. Vibe Coding主流的工具 1. Cursor 2. Trae 3. 同义灵码 3. 集成AI编程工具 4. 使用AI编程工具辅助开发实战 4. 开源平替 1. Ollama + Continue 2. 可本机部署的 Tabby 3. 开源编程大模型 1. Code Llama 2. DeepSeek-Coder 3. Google CodeGemma 5. AI编程底层模型的选择 6. AI编程领域趋势 1. 技术:搜索 + 训练 2. 案例 1. 用 AI 学 Python 2. AI代码阅读 3. AI代码审校 | 普通小白,想要基于python开发应用,又因为不懂代码导致开发难度大,无法快速实现自己的大模型应用。 通过代码生成工具,实现不懂代码也能写程序。 其次,养成和 AI 共处的习惯,日常体会 AI 如何提效、如何惊喜,及如何不靠谱。 最后,对主流的代码生成工具如何集成以及进行开发做一个系统化的讲解,包括底层的工作原理。 划重点: 多利用AI编程辅助开发,提高开发效率,降低开发门槛! |
| 06.N8N快速入门到应用实战 | 1. 为什么你需要n8n?破解"信息孤岛"与"重复劳动"困局 1. 什么是n8n?一个"数字员工调度中心" 2. n8n 的核心优势 3. n8n 在AI时代的全新定位 2. 本地部署n8n------掌握自动化系统的"控制中心" 1. 部署方式选型指南 2. 实战:Docker方式快速部署 3. 关键配置说明 3. 初识n8n------掌握自动化流程的"语法"与"积木" 1. n8n 核心概念解析 * Workflow(工作流):自动化任务的完整流程 * Node(节点):构成流程的基本单元 * JSON Data Structure:节点间传递的数据格式 2. 界面导览与操作入门(画布区、节点库、调试面板、执行历史) 3. 四大核心节点类型详解 1. Trigger Nodes(触发器) 2. Action Nodes(执行器) 3. Function Nodes(函数节点) 4. Logic Nodes(逻辑节点) 4. 数据流动机制 5. 调试与日志查看 4. 连接真实世界------集成主流应用与API 1. 连接飞书 / 企业微信 2. 连接邮件系统(SMTP) 3. 调用自定义API 5. 项目实战1-全自动AI短视频工厂 6. 项目实战2-智能日报汇总系统 | 帮助学员掌握 n8n ------ 开源可视化工作流自动化引擎 的核心能力,理解其在AI时代与大模型应用集成中的关键作用,实现从本地部署、节点编排、API对接到复杂任务自动化的全链路实战能力。 划重点:连接一切系统"的工程思维 + "无需编码"的自动化实现能力 |
| 第二阶段(L2):AI大模型的企业级应用 深入学习大模型的企业级应用技术,包括常见技术和应用场景和工具 |||
| 07.AI大模型能力以及行业应用分析 | 1. 2025大模型核心能力全景   a. 多模态能力突破:文本/图像/视频/语音/代码生成   b. 主流模型对比:GPT-5/Claude 4/通义千问3/Doubao核心指标   c. 能力演示:文生视频(Sora 2.0)、文生图(Gemini3/Nano banana Pro)、语音交互(Gemini Audio) 2. 行业落地与变现模式   a. 高价值行业应用:     - 电商(虚拟试衣间)、医疗(AI影像诊断)、教育(个性化私教)   b. 个人/小微团队案例:     - 独立开发者:API工具变现     - 超级个体   c. 避坑指南:2024失败项目共性 vs 2025生存法则 3. 如何找企业结合 AI 的切入点 4. 成熟商业案例拆解 5. 2025趋势与个人机会   a. 技术拐点:小模型+大模型协同部署   b. 新兴岗位:AI产品经理/大模型应用开发/提示词工程师   c. 个人能力定位:     - 非技术岗:行业痛点翻译+PoC验证     - 技术岗:RAG优化+人类反馈强化学】' 6. 企业级应用的技术架构 | 这节课,目的是让学员了解,2025年这一年,AI大模型基础能力的发展情况,比如文生图、文生视频、语音、文生图、编码等各个维度,以及这些领域主流的模型,还有针对这些模型的能力的演示。 其次,了解目前那些行业、那些人已经应用AI能力来做一些AI工具、或者企业的解决方案,来进行变现和体现了 最后,对AI大模型的整体发展趋势,和个人在AI时代能够介入的领域做深度剖析。 划重点: 了解模型能力以及如何与行业结合变现! |
| 08.RAG检索增强生成技术实战 | 1. 从基座模型的局限性了解RAG 1. AI基座模型的知识库局限性与幻觉问题 2. AI大模型如何回答非公开数据的问题 2. RAG检索增强生成的整体概述 1. RAG的工作原理分析 2. 解 RAG 的三个核心组成部分:文档读取、检索和生成 3. 10 大核心组件:文档导入、文本分块、嵌入、向量存储、查询优化、检索、检索后处理、生成、评估、整体流程优化 4. RAG 的完整流程,并讲解每个环节的作用和意义 3. 使用Coze/Dify/FastGPT演示RAG的实现流程 4. RAG 的典型应用场景分析 1. 企业知识库问答(HR制度、财务流程) 2. 行业研究报告分析(金融、医疗、法律) 3. 产品文档智能客服(SaaS厂商) 4. 教育辅助:论文解读、教材答疑 5. 用代码从0到1快速搭建一个RAG系统 1. 搭建流程分析 2. 文档的加载与切割 3. 检索引擎(基于向量化检索) 4. LLM/与Prompt编写 5. RAG Pipeline 6. 企业级RAG落地存在的问题以及解决思路 1. 原始数据的处理与清洗 2. 文本分块的策略 3. 如何选择合适向量模型 4. 检索优化(混合检索) 5. 检索后的重排序(Rerank) 7. 如何优化 RAG 系统? 1. 分块策略:不同粒度对检索效率和准确度的影响 2. 嵌入策略:如何选择合适的嵌入模型和向量数据库 3. 检索策略:关键词检索、语义检索和混合检索的优缺点 4. 生成策略:如何控制生成内容的质量和相关性 5. 评估体系:如何评估 RAG 系统的性能和效果 8. 实战:公司新员工企业制度问答机器人 | 帮助学员深入理解 RAG 技术的原理与价值,掌握从数据预处理、向量化存储、语义检索到生成优化的全链路能力,最终能独立构建基于私有知识库的高准确率AI问答系统。 划重点:让学员具备"数据 → 检索 → 增强 → 生成 → 评估"的RAG工程闭环能力,成为企业AI知识系统的构建者! |
| 9. Embeddings和向量数据库 | 1. 从RAG的场景了解为什么要用向量存储! 1. 什么是向量模型? 2. 如何将数据(如文本、图像、音频等)转化为向量表示 3. 嵌入空间的结构与语义:如何通过向量之间的距离表示相似性 2. 向量数据库的选型目标与指南? 1. 向量数据库与传统数据库的区别与优劣对比 2. 向量数据库的三大核心能力 1. 向量存储 2. 近似最近邻搜索(ANN) 3. 索引机制 3. 常见开源向量库 1. Weaviate 2. Pinecone 3. Milvus 3. 向量嵌入的基本工作原理 1. 词嵌入:Word2Vec、GloVe、FastText等经典方法 2. 文本嵌入:BERT、GPT等预训练模型的嵌入 3. 图像和音频的嵌入表示 4. 特征嵌入:如何将结构化数据转换为嵌入表示 4. 深入Embeddings---向量是如何"得到的"? 1. Embedding 模型如何训练? 1. 对比学习 2. 三元组损失 2. 向量维度与精度的关系 5. 开源向量模型的基本概述 1. 中文场景特别推荐:BGE 系列详解 2. 开源向量模型VS闭源向量模型 3. 选型决策树 1. 是否需要中文支持 2. 是否追求极致精度 3. 是否要求数据不出境 4. 是否高并发 4. 嵌入模型的评估和选择 1. MTEB 基准测试 2. 稀疏嵌入和密集嵌入 3. 重排序模型 6. 使用向量数据库进行相似性检索 1. 如何利用向量数据库进行高效的相似性检索:KNN(K最近邻)算法的应用 2. 结合嵌入表示与向量数据库,实现大规模数据的快速搜索与推荐 3. 示例:用FAISS进行大规模文本或图像检索 | 帮助学员深入理解 Embeddings 与向量数据库在大模型系统中的关键作用,掌握其数学本质、技术实现与工程选型能力,最终能为 AI 应用(如 RAG、推荐系统、语义搜索)构建高效、准确、可扩展的"语义理解底座"。 划重点:让学员具备"理解向量本质 → 选择合适模型 → 配置向量数据库 → 优化检索性能"的底层技术能力。 |
| 10. RAG企业级落地实战优化 | 1. 主流RAG架构Native RAG/Advanced RAG/Modular RAG 2. RAG各个节点的优化技巧详解 1. 原始数据的质量决定RAG的效果 1. 原始数据的清理方法 2. 图片/表格数据的处理 3. 文档处理辅助工具 1. PyMuPDF 2. RAGFlow 3. Unstructured.io 2. 数据分块策略(大小、语义、指定格式)、添加元数据 3. Advanced-RAG: RAG进阶使用技巧 1. 索引优化 1. 滑动窗口方法 2. 细粒度分段 3. 合并元数据 2. 预检索过程 1. 查询构建 2. 查询优化(重写、分解、扩展) 3. 查询路由 3. 检索后过程 1. 重新排序块 2. 上下文压缩 4. 提升检索准确率的方法 1. 检索策略(从小到大、分层合并、混合检索) 2. 检索问题与解决方案 5. 检索后置处理技术 1. 重排序Rerank 2. 压缩/校正 6. LLM内容生成的稳定性优化 1. Prompt提示词设计 2. Self-RAG 3. RAG检索结果评估 1. 评估指标:召回率、准确率、响应相关性 2. 手动构建"问题-标准答案"测试集 3. 评估框架(RAGAS、Phoenix、TruLens ) 4. 评估结果的应用 1. 优化分块策略、嵌入模型、检索算法等 2. 构建高性能 RAG 系统 4. 复杂检索策略和范式 1. GraphRAG 1. 利用图结构增强语义检索 2. 构建知识图谱,实现更精准的知识问答 2. Contextual Retrieval 1. 基于上下文和多轮对话的高级检索策略 2. 实现对结构化数据的精准检索 3. 多模态 RAG 1. 融合图像、视频等多模态信息 2. 实现更全面的信息检索和理解 4. Agentic-RAG 1. 基于 Agent 的检索和生成策略 2. Agent 作为检索控制器,实现更智能的检索和生成 3. 动态检索路径(Dynamic Retrieval Planning) 5. Graph RAG 工作原理与应用实战 1. Graph RAG 的工作原理 1. 查询处理 2. 图遍历 3. 子图检索 4. 信息整合 5. 响应生成 2. Graph RAG 处理流程 6. 实战:基于GraphRAG构建一个可以进行知识推理和问答的 RAG 系统 | RAG研究范式在不断发展,我们将其分为三个阶段:Naive RAG、Advanced RAG和Modular RAG。 尽管 RAG 方法具有成本效益并且超越了LLM的性能,但它们也表现出一些局限性。 Advanced RAG 和 Modular RAG 的发展正是针对 Naive RAG 的这些具体缺点的回应。 划重点:成为组织中"RAG系统架构师",能够主导从需求分析 → 架构设计 → 性能调优 → 效果评估的全链路交付。 |
| 11. 掌握LangChain实现AI大模型应用 | 1. 基于API开发AI大模型应用存在的问题? 1. API开发大模型应用的困境 2. LangChain是什么?它能做什么? 3. 大语言模型开发框架的价值是什么 2. 常见的AI大模型应用开发框架 1. LangChain 2. LlamaIndex 3. LangGraph 4. LangChain 与生态工具的关系 1. LangChain + LlamaIndex = 更强的 RAG 能力 2. LangChain + LangGraph = 更复杂的流程控制 3. LangChain + Weaviate/Pinecone = 完整的知识检索方案 3. 了解LangChain框架的整体架构与核心组件 1. 模型I/O封装 2. 数据连接 3. 对话历史管理 4. 架构封装(Chain、Agent) 5. Callbacks 4. LangChain各个功能组件的使用 1. 模型I/O封装功能演示 1. 多轮对话Session封装 2. Prompt提示词模板 3. 结构化输出 2. Function Calling功能演示 3. 数据连接功能演示 1. 文档加载器 2. 文档处理器 3. 向量库与向量检索 4. 对话历史管理 1. 历史记录剪裁 2. 过滤带标识的历史记录 5. Chain链式调用 5. LangServe实现应用部署发布REST API 6. 实战:LangChain实现一个新员工公司制度助手RAG应用 | 帮助学员深入理解 LangChain 作为大模型应用开发"操作系统"级框架 的核心价值,掌握其模块化架构、关键组件与工程实践,最终能基于 LangChain 构建具备多轮对话、工具调用、知识增强、流程编排能力的生产级 AI 应用 划重点:掌握Langchain框架! |
| 12.大模型应用开发框架LlamaIndex | 1. 为什么需要LlamaIndex?RAG的"数据瓶颈"如何突破 1. RAG系统三大痛点 2. LlamaIndex介绍 3. LlamaIndex能做什么? 4. LlamaIndex vs LangChain 5. LlamaIndex安装与环境配置 2. LlamaIndex 架构全景图 1. LlamaIndex 核心架构六大组件 1. Data Connectors(数据连接器) 2. Data Processors(数据处理器) 3. Indexing(索引构建) 4. Query Interface(查询接口) 5. Retrievers(检索器) 6. Response Synthesizers(响应合成器) 2. LlamaIndex 与 LangChain 的协同模式 3. 核心组件实战------手把手掌握知识构建全流程 4. 高级索引策略------打造"更聪明"的知识系统 1. 多索引协同:Hybrid Indexing 1. 同时构建向量索引 + 关键字索引 + 图索引 2. 查询时自动路由到最合适的索引 2. 子问题分解查询(Sub Question Query Engine) 1. 将复杂问题拆解为多个子问题 2. 示例:"比较A和B产品的优劣" → 分别检索A、B → 综合对比 3. 摘要查询引擎(Summary Query Engine) 1. 对整个文档集生成摘要,适合"整体了解"类问题 4. 缓存与性能优化 1. 使用 RedisCache 缓存高频查询结果 2. 异步查询提升吞吐量 5. 实战:基于LlamaIndex实现一个RAG系统 | 帮助学员深入理解 LlamaIndex 作为"RAG底层引擎" 的核心价值,掌握其在文档解析、索引构建、语义检索与上下文增强方面的强大能力,最终能基于 LlamaIndex 构建高精度、可扩展、可解释的企业级知识系统。 划重点:具备"数据接入 → 智能索引 → 高效检索 → 上下文增强 → 性能调优"的全流程能力 |
| 13. LangChain实现企业级Agent智能体 | 1. 什么是Agent? 1. Agent 的核心能力四要素 1. Planning 2. Memory 3. Tools 4. Reflection 2. Agent不能提高大模型基础能力,但可以提高任务完成精准度 3. Agent可以完成单次Prompt完成不了的任务 4. Agent分类的四种使用方式:Reflection、Tool Use、Planning、Multi-agent 2. 开发Agent的典型应用场景分析 1. 运营自动化:每日数据汇总 → 生成报告 → 发送邮件 2. 客户服务:自动处理工单、查询知识库、创建任务 3. 研发辅助:代码生成 → 单元测试 → 提交PR 4. 个人助理:安排行程、订票、写邮件、管理待办 3. 利用Langchain与LlamaIndex提升开发效率、降低维护成本 4. LangChain + Agent------让AI自主行动 1. LangChain 中的 Agent 类型 1. Zero-shot React Agent:基于 Prompt 决策 2. Plan-and-Execute Agent:先规划再执行 3. BabyAGI 风格 Agent:任务驱动、自我迭代 2. Agent工作流程宏观剖析 3. 关键组件详解 1. Tools(工具)->Function Calling 2. Memory(记忆) 3. Agent Executor 5. 实战:创建一个"旅行规划Agent" 1. 工具集:天气API、地图API、酒店查询 2. Prompt提示词设计 3. 功能模块开发 6. 高阶Agent模式------反思、多Agent协作与状态管理 1. Self-Reflection Agent(自我反思) 2. Multi-Agent 协作系统 3. 状态管理与持久化 4. 动态工具加载 | 帮助学员深入理解 LangChain 作为 Agent 开发"操作系统" 的核心能力,掌握其在任务规划、工具调用、反思机制、多 Agent 协作 等方面的高级特性,最终能基于 LangChain 构建具备目标驱动、自主决策、持续执行能力的企业级智能体系统。 划重点:基于开发维度,掌握LangChain开发Agent的核心流程,具备全链路Agent的开发能力 |
| 14. AI工作流应用开发实战 | 1. 为什么我们需要工作流? 1. AI大模型的局限性 2. 什么是AI工作流 3. 工作流的应用场景 1. 复杂任务 2. 流程化任务 2. 经典案例解析------吴恩达博士的翻译工作流项目 1. 项目背景与价值 2. 原始工作流设计蓝图 3. 关键设计思想 3. 使用 LangGraph 和 Agently Workflow分别复现翻译工作流 1. LangGraph 简介 2. 核心概念详解 1. State(状态) 2. Node(节点) 3. Edge(边) 3. 使用Agently Workflow复现翻译工作流 1. Agently Workflow 简介 2. JSON方式定义翻译流程 3. 优势与适用场景 4. 大模型应用工作流的关键要素解析 1. AI工作流的五大基本要素 2. 大模型应用工作流需要具备的特性 3. LangGraph 的工作流要素图示 4. Agently Workflow 的工作流要素图示 5. LangGraph 和 Agently Workflow 的能力对比 5. 复杂的工作流:故事创作/复杂的控制函数规划调用 1. 设计思路 2. 实现方案 3. 进一步思考和讨论 | 掌握大模型时代下AI工作流的核心设计理念与开发能力 ,深入理解以 LangGraph 和 Agently Workflow 为代表的可视化编排框架 ,最终能独立构建具备条件判断、循环控制、状态管理、多节点协同的复杂AI工作流系统。 划重点:具备"需求分析 → 流程建模 → 框架选型 → 编排实现 → 性能调优"的全链路工作流开发能力 |
| 15.MCP模型上下文协议概述与应用实战 | 1. 什么是MCP以及为什么需要MCP? 1. 从Function Calling 到 MCP的发展 2. 了解MCP的基本概念和组成 3. MCP 的核心能力 4. MCP 的典型应用场景 2. MCP核心架构与四大核心概念 1. MCP 架构全景图详解 2. 四大核心概念详解 1. Resources(资源) 2. Tools(工具) 3. Embeddings(嵌入) 4. Transports(传输层) 3. 动手实战----实现一个MCP工具服务 1. 开发一个天气预报查询与路线规划的MCP Server 1. uv环境搭建 2. 编写MCP Server以及MCP Tools 2. MCP Server集成到Claude实现服务调用 3. MCPInspector可视化工具 4. 开放的MCP Server平台以及使用 1. Claude Desktop 加载 MCP Server 2. Claude Desktop使用mcp.so上的工具 5. MCP是如何工作的? | 帮助学员理解并掌握 MCP(Model Control Protocol)作为AI系统"控制平面" 的核心理念与实现方式,能够基于MCP思想构建多模型协同、多Agent调度、跨平台集成的企业级AI应用架构 划重点:了解MCP,掌握开发MCP服务的能力! |
| 16. 深入浅出A2A协议以及应用实战 | 1. 了解A2A协议的基本概念以及发展 1. 什么是A2A,它的价值是什么? 2. A2A的典型应用场景有哪些? 2. A2A协议核心功能与原理 1. A2A协议的整体工作流程分析 2. A2A 协议的四大核心要素 3. 典型消息结构示例 4. 主流A2A协议标准概览 5. A2A vs API:本质区别 3. 动手实战,实现两个Agent之间的A2A通信 1. 场景:客服Agent委托审批Agent处理报销单 1. 客服Agent(LangChain)收到用户请求 2. 生成 A2A 消息发送给审批Agent 2. 步骤分解与实施 4. Agent to Agent (A2A) 与 MCP 的比较分析:技术、应用与影响 5. A2A与MCP的未来发展与影响 6. Agent Skill | 帮助学员深入理解 A2A(Agent-to-Agent)协议的本质与价值 ,掌握其在多智能体协作、跨平台通信、系统集成中的关键技术,最终能基于主流A2A规范(如 GAIA、Agent Communication Protocol、JSON-LD 消息格式)构建可互操作、可扩展、可信任的多Agent协同系统。 划重点:具备"设计Agent角色 → 定义通信协议 → 实现跨Agent协作 → 构建自治组织(Auto-Org)"的全链路能力 |
| 17. AI大模型产品设计与落地 | 1. 人人都是程序员和人人都是产品经理 2. 为什么AI项目总是"雷声大、雨点小"?------破解落地困局 1. 企业AI项目的三大常见失败原因 2. 成功AI产品的共同特征 3. AI产品落地的"三阶跃迁"模型 1. 阶段1:Demo设计 2. 阶段2:MVP 3. 阶段3:规模化应用 3. 从企业内部挖掘AI切入点(Problem Discovery) 1. AI机会挖掘四象限法(高频率、低频率、高价值、低价值) 2. 六大高频AI场景地图 1. 数据分析 2. 智能客服 3. 知识问答 4. 流程辅助 5. 信息提取 6. 内容生成 3. 如何访谈业务部门?------"五问法"挖掘痛点 1. 你每天花最多时间做的事是什么? 2. 哪些工作你觉得重复、机械、无价值? 3. 如果有一个"数字员工",你最希望它帮你做什么? 4. 当前有哪些工具用得不顺手? 5. 如果AI能帮你节省1小时/天,你愿意尝试吗? 4. 输出物:AI机会清单 4. 设计AI产品原型(Design & Prototype) 1. AI产品设计三大原则 1. 最小可行功能 2. 自然交互 3. 可解释性 2. 设计工具包 1. Prompt流程图:用户输入 → 意图识别 → RAG检索 → 生成 → 输出 2. 界面草图:使用Figma/Miro绘制对话界面 3. RAG架构图:知识来源 → 向量化 → 检索 → 增强生成 4. 错误处理设计:当AI不知道时,如何引导用户? 3. 案例:设计"智能日报助手" 5. AI实现与技术选型(AI Implementation) 1. 技术选型决策树 2. 四大实现路径对比 1. 低代码平台(coze/dify) 2. 框架开发(LangChain+LlamaIndex) 3. API调用(Deepseek,Qwen3) 4. 本地部署 3. MVP开发三步法 1. 搭积木:用Coze/Dify快速构建原型 2. 接知识:导入制度文档、项目资料 3. 调效果:优化Prompt、测试召回率 6. 发布、推广与迭代(Launch & Loop) 1. 发布前准备 1. 制定《用户手册》与《常见问题FAQ》 2. 培训关键用户(KOL) 3. 设置灰度发布机制 2. 推广策略三板斧 1. 内部宣传:邮件通知、企业微信公告、短视频介绍 2. 激励机制:使用AI最多的员工获奖励 3. 标杆案例 3. 建立反馈闭环 4. 持续迭代路线图 5. 衡量成功的关键指标(KPI) 7. 项目实战------交付一个企业级AI产品 1. 背景:某企业"智能制度问答机器人" 2. 实施步骤 1. 访谈HR与员工,挖掘痛点 2. 设计对话流程与界面原型 3. 使用Dify + RAG构建MVP 4. 导入PDF制度文件,测试准确性 5. 内部发布,收集反馈 6. 输出《AI产品报告》 3. 成果交付物 1. AI产品立项书 2. MVP原型系统 3. 发布推广方案 4. 效果评估报告 | 帮助学员建立AI大模型产品化思维 ,掌握从需求洞察、场景挖掘、原型设计、技术选型、跨部门协作到发布推广的全链路能力,最终能独立主导一个企业级AI项目的完整生命周期 划重点:让学员具备"业务洞察力 + 产品设计力 + 技术理解力 + 组织推动力"能力,成为企业中的"AI产品负责人"。 |
| 阶段三(L3):AI大模型的工作原理与优化 掌握大规模模型底层的工作原理,知其然知其所以然,从而更好的实现AI大模型的企业落地 |||
| 18.从"NLP技术"到"AI大模型" | 1. AI对话系统的"前世今生"------从规则到大模型的演进之路 1. 人类与机器对话的愿景 2. NLP 的三次浪潮 1. 规则驱动 2. 统计学习 3. 深度学习/预训练 2. 什么是NLP以及NLP应用举例 1. NLP的定义 2. 核心任务分类 1. 理解类 2. 生成类 3. 结构化类 3. NLP的典型应用案例 4. NLP与大模型的关系 3. NLP的核心技术分析 1. 文本预处理与表示 & DataLoader 2. 序列模型与注意力机制 3. 生成模型与语言模型 4. 词表示、语言模型(N-Gram模型)、分词算法 4. NLP应用实践-实现一个传统NLP文本分类系统 1. 背景:新闻分类系统 2. 环境搭建与实施 3. 代码效果演示 5. 从NLP到大模型------能力跃迁与工程融合 1. 大模型如何"继承"NLP能力? 2. 如何融合传统与现代? 3. 高级NLP技术的现代演进 | 帮助学员系统梳理 从传统 NLP 到现代大模型的技术演进路径 ,理解 NLP 的核心思想如何被继承、扩展并最终在大模型时代实现质的飞跃,最终建立起"技术发展观 + 工程实践力"的双重能力 划重点:不再割裂看待"NLP"与"大模型",而是理解它们之间的传承、融合与跃迁关系 |
| 19.探索揭秘神经网络奥秘 | 1. 神经网络是如何实现AI的训练和推理的 1. 神经网络的灵感来源:模仿人脑 2. 神经网络的核心能力 3. 训练 vs 推理:AI 的"学习"与"应用" 4. 神经网络在AI发展中的里程碑作用 2. 神经网络与机器学习的关键技能 1. 损失函数评定当前模型水平 2. 梯度下降确定模型迭代方向 3. 一次迭代提升模型精准程度 4. 优化算法与正则化 5. 回归问题与分类问题 3. 常见的神经网络类型 1. 全连接网络(Fully Connected / MLP) 2. 卷积神经网络(CNN) & ResNet 3. 循环神经网络(RNN), LSTM & Attention 4. 实战:使用Python实现简单的神经网络训练过程。 5. 项目实战------构建一个图像分类器(CNN简化版) | 帮助学员深入理解 神经网络如何实现"学习"与"推理" ,掌握其在训练过程中的关键机制(损失函数、梯度下降、优化算法),并能通过 Python 实现一个完整的前馈神经网络训练流程,最终建立起"数学直觉 + 工程实现 + 架构认知"三位一体的能力。 划重点:让大家不再将神经网络视为"黑箱",而是理解其为"可解释、可调试、可构建"的智能系统基础组件 |
| 20. 揭秘Transformer的工作原理 | 1. 为什么Transformer是大模型的"心脏"? 1. RNN的三大致命缺陷 2. 《Attention Is All You Need》论文的颠覆性创新 3. Transformer 的三大革命性突破 4. Transformer 的"家族谱系" 1. BERT 2. GPT 3. T5 2. Tokenization - 将对话内容变成Token 1. 什么是Token?模型的"最小语义单元" 2. 词元化(Tokenization)方法演进 3. BPE(Byte Pair Encoding)算法详解 4. 中英文Token化差异 5. 效果演示:OpenAI Tokenizer 工具 3. Embedding------让Token拥有"语义身份证" 1. 数学对AI的突出贡献 - 空间与向量 2. 为什么需要Embedding?计算机只懂数字 3. 从One-Hot到稠密向量 4. 空间的稀疏、稠密、距离、数学逻辑关系 5. Word2Vec:让向量学会"类比推理" 6. OpenAI Embedding Model 7. OpenAI Clip - 文字与图片的多模态Encoder 8. 效果演示:OpenAI Embedding-计算句子相似度 4. Attention机制------Transformer的"核心引擎" 1. Attention 的基本思想 2. Self-Attention 计算三步曲 3. 图解Self-Attention 4. Multi-Head Attention:多角度理解语义 5. Position Encoding:告诉模型"谁在哪儿" 6. Encoder vs Decoder 的Attention差异 5. Transformer架构详解------Encoder与Decoder的协同 1. 完整Transformer架构(Encoder-Decoder) 1. Encoder理解你的指令 2. Decoder回答你的问题 3. 基于循环神经网络的Encoder & Decoder 2. 三大架构变体-Encoder only & Decoder only 3. 为什么GPT只用Decoder? 4. 为什么BERT只用Encoder? 6. 实战: 从零搭建Transfomer模型,实现Self-attention机制。 | 帮助学员深入理解 Transformer 架构的每一个核心组件 ,掌握其从 Tokenization → Embedding → Attention → Encoder/Decoder 的完整工作流程,最终能通过代码实现一个简化的 Self-Attention 机制,并理解其在 GPT、BERT 等模型中的应用。 划重点: 掌握AI大模型底层的文本理解框架 Transformer |
| 21. 深入浅出了解多模态模型 | 1. 多模态大模型的定义 1. 跨模态模型 2. 单模态大模型 3. 多模态模型 4. 多模态语言大模型 2. 图文多模态模型的发展 1. Vision Transformer 2. 图像文本联合建模 3. 大规模图-文 token 对齐模型(CLIP) 4. 多模态大语言模型 1. OpenAI GPT-4V 2. Google Gemini 3. GPT-4V 实战 4. 多模态模型架构 5. 多模训练技术 6. 图文多模态大语言模型的评测 7. 开源社区多模态大语言模型 8. 开源 LLaVA 图文对话模型的训练 1. 模型架构 2. 训练过程 3. 实战:数据构造与模型训练 9. LLaVA 应用衍生以及优化方向 10. 支持更多模态的大语言模型 1. X-LLM 2. NexT-GPT 11. Multi-Agent 多模态语言模型 12. LLM 驱动的跨模态生成模型 - VideoPoet 13. 实战:通过实际项目,融合不同模态的数据,微调现有的多模态开源大模型。 | 学员系统掌握 多模态大模型的核心定义、技术演进、主流架构、训练方法与实战应用,理解其如何融合文本、图像、音频、视频等不同模态信息 划重点:具备"理解多模态 → 掌握主流模型 → 实战微调 → 构建跨模应用"的全链路能力 |
| 22. 国产大模型DeepSeek深度剖析 | 1. 国产大模型崛起背景------为什么我们需要DeepSeek? 1. 中国AI的"卡脖子"与"自研突围" 2. Deepseek是什么以及Deepsekk能做什么? 3. 如何使用Deepseek 2. DeepSeek 的差异化优势------凭什么它能"对标GPT-4"? 1. 了解Deepseek的优势 2. Deepseek大模型生态以及模型选择 3. 理解图例模型和非推理模型的差异 4. Deepseek和行业其他模型的能力对比 5. 如何在企业应用中选择合适的模型 3. 详细讲解 DeepSeek - R1 的四阶段训练流程,包括每个阶段的训练目标、数据处理方式、模型参数调整策略等。 4. DeepSeek-R1蒸馏模型详解 1. 蒸馏模型概述:定义、作用及蒸馏过程。 2. 蒸馏模型的变体与特性:涵盖不同参数规模(如 1.5B、7B、14B、32B 等),基于 Qwen 和 Llama 等基础模型。 5. 国产大模型GLM-4的架构与应用、与GPT模型的对比分析。 6. 文心一言大模型,通义千问大模型,盘古大模型,豆包大模型横向对比 | 帮助学员深入理解 DeepSeek 系列大模型的技术架构、训练方法与差异化优势,掌握其在推理、代码、长文本等场景中的突出能力,并能结合 GLM-4、通义千问等其他国产模型进行横向对比与企业级选型判断 划重点:具备"技术洞察 + 模型选型 + 应用落地"三位一体的能力 |
| 23.AI大模型微调实战 | 1. 小实验1:动手微调一个小 GPT 1. HuggingFace简介 2. 模型加载 3. 数据加载 4. 训练器 2. 什么是模型 3. 什么是模型训练 1. 训练时几个重要超参 2. 调整超参,再跑实验1 4. 求解器 & 损失函数简介 5. 小实验2:手写一个简单的神经网络并训练它 6. 什么是训练/预训练/微调/轻量化微调 7. Transformer结构简介 8. 轻量化微调 1. Prompt Tuning 2. P-Tuning 3. Prefix Tuning 4. LoRA 5. QLoRA 9. 实验数据集的构建 10. 实战 1:基于 LoRA 微调 Qwen2 7B 11. 实战 2:基于 QLoRA 微调 Llama3 8B 12. 实战 3:基于 QLoRA 微调 GLM4 9B 13. 更多训练数据的构建技巧 | 自己实现一个模型微调,彻底搞懂大模型微调的底层原理 划重点: 掌握企业级AI大模型的微调能力 |
| 24.GPU与CUDA以及AI大模型企业级部署方案 | 1. 为什么AI离不开GPU?------算力革命的本质 1. GPU与CPU 计算核心的区别对比 2. AI计算的本质:大规模并行矩阵运算 3. GPU带来的三大变革 1. 速度提升 2. 算法设计自由 3. 商业化可能 4. 1000倍以上的速度提升带来算法设计模式的巨大变化 2. GPU如何工作?------深入并行计算的底层机制 1. GPU并行计算五步法 2. 关键概念解析 1. CUDA Core:GPU的基本计算单元 2. SM(Streaming Multiprocessor):包含多个CUDA Core的处理单元 3. Warp:32个线程的执行单元,GPU调度的基本单位 4. Global Memory(显存):GPU的"主存储",容量大但延迟高 5. Shared Memory:SM内部高速缓存,用于线程协作 3. 代码示例:PyTorch中的GPU操作 3. 英伟达的"技术护城河"------CUDA生态的绝对统治 1. CUDA:18年积淀的并行计算平台 2. 四大生态优势 1. 开发者生态 2. 框架深度集成 3. 工具链完整性 4. 硬件协同优化 3. 试错成本过高带来的迁移困难 4. 竞争对手现状 1. AMD 2. Intel 4. 如何在GPU上做并行计算 1. 启动普通CPU应用程序 2. 将数据加载到内存 3. 将数据从内存copy到显存 4. 运行GPU应用程序完成大规模计算 5. 将计算结果存储到显存 6. 将计算结果从显存copy到内存 5. 大模型私有化部署的必备知识体系 1. 为什么要私有化部署? 2. 私有化部署的三大模式 3. 关键技术组件 1. 推理引擎:vLLM、TensorRT-LLM、Triton Inference Server 2. 模型服务化:FastAPI + uvicorn + GPU调度 3. 显存优化:量化(INT8/FP16)、LoRA微调、KV Cache管理 4. 负载均衡:支持多实例并发请求 4. 成本评估模型 6. 动手实战------搭建一个本地大模型推理服务 | 帮助学员系统掌握 GPU与CUDA在AI训练与推理中的核心作用 ,理解英伟达生态的技术壁垒,并能基于企业需求设计
安全、可控、可扩展的大模型私有化部署方案
划重点:具备"算力认知 + 技术理解 + 部署规划 + 成本评估"能力 |
| 阶段四(L4):AI大模型的企业级项目实战 通过真实项目的实践,巩固所学知识,提升职业技能,做好职业规划和求职准备 |||
| 25.企业级AI销售助手应用实战 | 项目目标: 1. 实现客户需求智能洞察 2. 构建自动化销售流程引擎 3. 提升线索转化率20%+ 项目简介: 面向B2B销售场景的智能助手,集成CRM系统数据,支持客户画像分析、沟通策略推荐、合同风险预警等功能。 项目内容: 1. 整体架构设计 1. 初始化设置,包括AI的人设,公司基础信息、产品信息等 2. 决定要做什么: 1. 使用工具 2. 向用户输出响应 3. 意图识别 2. 基于LangChain搭建代码实现流程 3. 提示词模板设计 4. 销售分析链构建 5. 产品知识库提炼和集成 6. 向量库选型和向量化嵌入 能够搭建企业级个性化本地知识库 ||
| 26.企业级教育智能问答助手 | 项目目标: 1. 引入Deepseek-R1推理技术,突破传统问答模式"一问一答""不问不答"局限,实现"一问多答""不问自答"! 2. 解决问题"查找难、理解难、办理难"的痛点 3. 针对不同场景的特点设计合适的技术落地方案,更进一步提高大家对于大模型应用落地的认知和能力 项目简介: 通过收集政务问答数据和相关政务问答文档,基于检索增强问答框架,构建了一个智能化的政务问答助手。 项目内容: 1. 大模型与知识库结合的基础应用 1. 了解GPT系列和BERT等大模型的基础结构 2. 探索大模型与知识库结合的实际应用场景 3. 认识常用的知识库技术,如向量数据库(FAISS、Pinecone)、ElasticSearch 2. 知识库挂载的实战操作 1. 分步完成大模型与知识库的集成 2. 学习通过API或数据库连接,实现知识库与大模型的实时交互 3. 实战演练:将知识库挂载到Deepseek-r1,提升问答能力 3. 优化挂载效果与应对挑战 1. 提升知识库查询的速度与准确度的技巧 2. 解决挂载中的数据一致性问题 3. 使用缓存技术,优化大模型的响应速度 掌握大模型与外部知识库实现增强型智能查询系统 ||
| 27.LangGraph与Agentic多模态RAG系统实战:构建具备自主反馈机制的智能检索增强生成架构 | 项目目标: 掌握现代RAG系统架构演进与核心技术 掌握LangGraph框架与智能体系统开发 构建智能旅游助理实战项目 项目介绍: 本项目旨在通过构建一个基于LangGraph的Agentic多模态RAG智能旅游助理,让学员从理论到实践全面掌握现代AI系统的核心架构与实现方法,培养面向未来的AI系统设计与开发能力。 项目内容: 1. RAG技术的发展演进与现状分析 1.1 技术发展的主要脉络:从Naive RAG到增强检索(如重排序、Hybrid Search),再到结构化RAG(如GraphRAG)和多模态RAG,最后到智能体驱动的RAG(Agentic RAG)。 1.2 RAG核心应用场景矩阵:列举不同RAG技术在不同场景(如问答、文档摘要、多模态对话等)的适用性,并以旅游领域为例说明。 1. 初代文本匹配:Naive RAG技术架构剖析 2.1 Naive RAG的技术实现:基于文本嵌入的检索(如使用BERT或GPT的嵌入向量)和生成(如使用LLM)。 2.2 Naive RAG的系统流程:索引(文档切分、向量化、存储)和检索(问题向量化、相似性搜索、top-k检索)以及生成(将检索到的上下文与问题结合生成答案)。 2.3 Naive RAG面临的问题与挑战:检索精度低、上下文长度限制、无法处理多模态数据、缺乏推理能力等。 2.4 Naive RAG的适用场景:简单问答、文档检索等对精度要求不高的场景。 1. 突破全局语义:GraphRAG------知识图谱与RAG的融合 3.1 GraphRAG的构建原理与方法:从非结构化文本中抽取实体和关系构建知识图谱,利用图数据库存储,并结合向量索引。 3.2 GraphRAG的查询方式与流程:将用户问题转化为图查询(如Cypher语句)和向量检索,结合两者结果进行答案生成。 3.3 GraphRAG的适用场景:需要深层次关系推理的复杂问答,如旅游行程规划中的多目的地关联查询。 1. 突破模态限制:多模态RAG的技术实现 4.1 多模态统一表征学习:使用CLIP、BLIP等多模态模型将图像、文本等映射到同一向量空间。 4.2 多模态RAG的构建原理与方法:分别构建文本和图像的索引,或使用多模态模型统一索引。 4.3 多模态RAG的查询方式与流程:支持文本、图像或混合查询,检索多模态上下文,生成多模态答案(如生成图文并茂的旅游指南)。 4.4 多模态RAG的适用场景:需要处理多种类型数据的场景,如旅游景点介绍(包含图片和文本)。 1. 智能演进:Agentic RAG的自主决策机制 5.1 智能RAG的决策原理:利用智能体(Agent)来决策RAG的每一步,例如是否需要进行检索、需要哪种检索方式(文本、图、多模态)、是否需要多个检索轮次、如何评估检索结果等。 5.2 自主错误反馈系统的构建:当生成的答案不符合要求时,系统能够自动调整检索策略或重新生成,例如通过自我反思(self-reflection)或使用工具(如计算器、验证器)来纠正。 1. 项目实战:基于LangGraph+Agentic RAG技术构建智能旅游助理 我们将构建一个智能旅游助理,它能够处理用户的多模态输入(如文本描述和图片),并利用多模态RAG和GraphRAG来检索相关信息,同时使用Agentic RAG的自主决策机制来优化检索和生成过程。 | |
| 28. MCP+LangGraph构建专属ChatBI数据分析智能助手 | 项目目标: 1. 掌握利用MCP协议连接数据源与大模型的核心技术。 2. 运用LangGraph框架构建可编排、有状态的智能数据分析工作流。 3. 开发一个能够理解自然语言、执行数据查询、分析并生成可视化图表的电商ChatBI智能助手。 项目简介: 本项目聚焦于构建一个面向电商领域的智能商业分析(ChatBI)助手。该助手将利用MCP(Model Context Protocol)打破数据孤岛,安全地访问数据库等外部数据源 ,并借助LangGraph框架编排复杂的分析任务 。用户可通过自然语言提问,如"上个月华东区销售额最高的品类是什么?",助手将自动完成数据抽取、分析挖掘,并生成可视化图表。 项目内容: 1. 课程任务介绍 * 介绍本课程的核心目标:构建一个电商领域的ChatBI智能助手。 * 明确项目最终成果:一个可通过对话进行数据分析和可视化的应用。 * 概述所需技术栈:大语言模型(LLM)、MCP协议、LangGraph框架、数据库连接。 2. ChatBI类产品的优势与挑战 * 优势 : * 降低使用门槛:业务人员无需掌握SQL或复杂BI工具,通过自然语言即可获取数据洞察 * 提升效率:实时数据交互,快速生成分析报告和可视化图表 * 智能建议:提供智能数据建议和归因分析 * 挑战 : * 自然语言理解的准确性:确保对用户意图的精准识别 。 * 端到端性能:模型推理和数据查询的性能需达到秒级响应 。 * 上下文缺失:独立搜索框可能导致用户需要手动输入完整业务背景 。 * 数据安全与权限:在连接真实数据源时需考虑安全访问控制。 3. 剖析ChatBI的技术原理 * 核心流程:用户输入自然语言 -> 意图识别与语义理解 -> 转化为数据查询指令(如SQL)-> 执行查询 -> 分析结果 -> 生成可视化图表 -> 返回自然语言总结。 * 关键技术:自然语言处理(NLP)、大语言模型(LLM)、检索增强生成(RAG)、数据库查询引擎。 * 架构模式:通常结合了LLM的生成能力与传统BI的数据处理和可视化能力 。 4. 驱动ChatBI的核心能力MCP理论介绍 * MCP(Model Context Protocol)是什么:一种由Anthropic推出的模型上下文协议,旨在让AI模型与外部工具和数据源进行标准化通信 。 * 核心价值 : * 打破数据孤岛:为AI模型提供安全访问本地文件、数据库及云端服务的双向数据通道 。 * 简化开发:通过统一的接口和标准化工具注册,替代重复的Function Calling代码,大幅降低开发复杂度 。 * 互联互通:作为AI智能体的"万能插头",促进不同系统间的高效协同 ||
| 29. 打造高性能知识增强RAG系统 | 项目目标: 1. 深入理解RAG(检索增强生成)的核心原理与技术架构。 2. 掌握从知识库构建、检索优化到生成增强的全流程关键技术。 3. 能够针对不同业务场景设计并实现高性能的RAG解决方案。 项目简介:本项目旨在教授学员构建一个高性能的知识增强型RAG系统。RAG技术通过将大语言模型(LLM)与外部知识库相结合,有效缓解了模型的"幻觉"问题,使其能够生成更准确、更具事实依据的回复 。课程将从理论到实践,覆盖RAG的全生命周期,并通过证券和客服领域的实战案例,让学员掌握工业级应用的开发方法。 1. 工业界RAG的难点与挑战 * 检索质量挑战:低精度的检索会导致检索到不相关或未对齐的文本块,直接影响最终生成内容的准确性和相关性 。 * 生成"幻觉"问题:即使检索到相关信息,大模型仍可能忽略上下文,生成与检索内容无关或错误的"幻觉"信息 。 * 增强障碍:将检索到的信息有效集成到生成过程中可能具有挑战性,有时会导致输出不连贯或出现冗余 。 * 端到端性能:在专业或技术性领域,确保整个系统(检索+生成)的响应速度和准确性是巨大挑战 。 2. 如何高效构建知识库 * 数据预处理:清洗、去噪、格式化原始文档,确保输入质量 。 * 文档解析与分块(Chunking):将长文档分割成更小的片段。选择合适的分块策略(如按固定大小、递归字符、语义分割等)至关重要,它直接影响检索的精准度和生成的连贯性 。分块能避免模型输入超限,并提升检索效率 。 * 向量化与索引:为分块后的文本生成嵌入向量(Embedding),并将其存储到向量数据库中,建立可快速检索的索引 。 3. 常用检索、增强、生成方法介绍 * 检索方法 : * 向量检索:基于语义相似性进行检索。 * 混合检索:结合向量检索与关键词检索(如BM25)等多种方法,提升召回率和准确率 。 * 增强方法 : * 重排序(Reranking):在初步检索后,使用更精细的模型对结果进行重新排序,将最相关的结果排在前面,显著提升答案质量 。 * 生成方法 : * 将检索到的最相关文档片段与用户原始问题拼接,形成新的提示(Prompt),输入给大模型进行生成。 4. 如何选择合适的RAG策略 * 分析业务需求:是追求高精度(如金融、医疗)还是高召回率(如初步信息探索)? * 评估数据特性:知识库的大小、结构化程度、更新频率。 * 权衡性能与成本:复杂的策略(如混合检索+重排序)效果更好,但延迟和成本也更高。 * 迭代优化:通过A/B测试等方式,持续评估不同策略(如分块大小、检索算法)的效果,选择最优方案。 5. 实战案例: * 实战案例一:证券交易所快捷查找 * 场景:帮助投资顾问或研究员快速从海量的公告、研报、法规中查找特定信息。 * 实现:构建包含证券相关文档的知识库,采用语义分块和混合检索策略,结合重排序技术,确保对专业术语和复杂查询的高精度响应 。可借鉴"主Agent+子Agent"多智能体架构,实现更复杂的分析任务 。 * 实战案例二:基于RAG的客服工作辅助系统 * 场景:为客服人员提供实时话术建议和知识支持,提升服务效率和准确性。 * 实现:构建公司产品手册、FAQ、服务政策等知识库。当客户咨询时,系统实时检索最相关的知识片段,并生成简洁明了的回复建议供客服参考 。可与Function Calling技术结合,处理账户查询等动态信息 。 ||
| 30. 从0-1打造多MCP协同智能体系统实战 | 项目目标: 1. 深入理解MCP(模型上下文协议)的核心原理、架构与通信机制。 2. 掌握构建多MCP智能体系统的策略与方法,理解其相对于单一智能体的优势。 3. 能够运用MCP及多智能体框架(如OpenAI Agent SDK)开发复杂的AI应用。 项目简介:本项目将系统性地教授如何利用MCP协议和多智能体框架构建高性能AI应用。MCP作为AI模型与外部工具、数据源通信的标准化"语言",打破了数据孤岛,实现了工具的"即插即用" 。课程将从单个MCP系统构建出发,逐步演进到复杂的多智能体协作架构,通过金融领域的实战案例,让学员掌握前沿的AI系统开发范式。 1. 多MCP智能体架构 * 介绍多智能体系统(MAS)的概念,即多个AI智能体协同工作以完成复杂任务 。 * 阐述在MCP语境下,如何通过多个MCP服务器(每个代表一个工具或服务)与一个或多个智能体(客户端)交互,形成一个多工具协作的生态系统。 * 探讨多智能体协作协议(MCP)作为框架,定义了多个基于LLM的智能体如何通信、协调和协作 。 2. 如何构建多MCP系统? * MCP server从低层实现到高层封装 : * 底层实现:MCP Server是提供特定功能的轻量级程序 。可通过标准的传输协议(如SSE或stdio)实现 。通信可通过本地进程间通信(stdin/stdout)进行 。 * 高层封装:利用现有的MCP工具包或框架(如MCP Toolbox)可以更便捷地开发和部署MCP Server 。 * MCP server的串行和并行调用机制 : * 串行调用:智能体按顺序调用多个MCP工具。 * 并行调用:支持同时运行多个任务或调用多个服务器,例如,一个支持多并发的浏览器MCP服务器可以同时运行多个浏览器实例 。MCP Client可以实现并行调用 。 * MCP client的实现 : * MCP Client作为调用方,是用户与MCP生态的交互入口 。它负责连接MCP服务器、发现可用工具、发起工具调用请求并将结果返回给主机应用(Host) 。主机应用(如聊天软件或IDE)内部运行MCP Client 。 3. 实战项目一:股票心理按摩师 * 项目目标:构建一个能为投资者提供情绪安抚和市场分析的AI助手。 * 实现 :集成多个MCP Server,例如: * 一个用于检索实时市场新闻和数据。 * 一个用于分析市场情绪。 * 一个用于生成安抚性、鼓励性的回复("心理按摩")。 * 架构:可采用中心化智能体,协调调用上述工具,综合信息后生成最终回复。 4. MCP与多智能体框架集成 * 为什么要用MCP+多智能体框架:MCP解决了工具连接问题,而多智能体框架解决了复杂任务的编排与协作问题。两者结合可以构建能力更强、更健壮的系统 。 * Agent框架与MCP:MCP为多智能体框架中的智能体提供了访问外部世界(工具和数据)的标准化途径,是构建实用型智能体的关键基础设施 。 * OpenAI Agent SDK介绍:这是一个轻量级但功能强大的框架,专为构建多智能体工作流而设计 。它支持MCP服务,允许开发者快速构建能与真实工具连接的智能体 。新版SDK已支持MCP,解锁了无限的工具扩展能力 。 5. 实战项目二:金融投资虚拟顾问 * 项目目标:构建一个专业的投资顾问智能体,能进行宏观分析、基本面研究和量化策略评估。 * 实现 :利用OpenAI Agent SDK 构建一个多智能体系统: * 宏观分析师Agent:调用MCP Server获取经济数据。 * 基本面研究员Agent:调用MCP Server查询公司财报。 * 量化分析师Agent:调用MCP Server进行数据回测。 * 组合管理Agent:作为协调者,整合各子智能体的分析结果,生成最终的投资建议 。 * 优势:通过分工协作,模拟专业投资团队,提供更全面、深入的分析。 ||
| 31.留学咨询引导式对话系统项目实战 | | |
| 32.企业级智能医疗问诊小助手(这个有问题)医疗大模型从0-1实战 | 项目目标: 1. 掌握医疗场景下的语义精准理解 2. 实现信息系统与DeepSeek的深度融合 3. 使用定制数据集微调大模型 项目简介: AI 就医助手是一款特别针对医疗场景需求打造的智能对话机器人,可接入医院官方微信公众号,为患者提供就诊流程指引、快速找医生、智能导科室、病情咨询、用药指导等多维度功能 项目内容: 课时一:实例:动手微调Qwen3 0.6B小模型 微调的必要性 领域适配:预训练模型(如BERT、GPT)学的是通用知识,微调使其适应特定任务(如 医疗问答、法律文本分析)。 数据效率:微调只需少量领域数据即可提升效果,比从头训练成本低。 任务定制:调整输出结构(如分类层、生成格式)以匹配具体需求。 知识储备 Transformer:理解自注意力机制(QKV矩阵)、位置编码、层归一化(LayerNorm)。 微调实战(以Qwen-0.6B为例) 数据处理:示例:医疗问答数据格式化为{"instruction": "...", "input": "...", "output": "..."}。 使用transformers库的AutoTokenizer处理文本(截断、填充至512长度)。 LoRA配置 SwanLab监控:可视化训练指标(损失、准确率): 课时二:预训练语言模型分类 Encoder-only 仅使用Transformer的编码器结构,专注于双向上下文建模,适合理解型任务(如文本分 类、实体识别)。 通常通过掩码语言建模(MLM)预训练,学习词语在上下文中的表示。 生成的表示是上下文相关的,每个词的嵌入依赖整个输入序列。 BERT RoBERTa ALBERT Encoder-Decoder PLM 结合编码器和解码器,适合生成任务(如文本摘要、翻译)和理解-生成联合任务。 编码器双向编码输入,解码器自回归生成输出。 通常通过去噪自编码(Denoising AE)任务预训练。 T5 Decoder-Only PLM 仅使用Transformer的解码器结构,通过自回归(从左到右逐词生成)建模。 适合开放生成任务(如对话、创作),但缺乏双向上下文理解。 预训练目标为标准语言建模(预测下一个词)。 GPT LLaMAQwen GLM 介绍以上以上多个类别的特点和技术细节 课时三:如何构建一个大语言模型 Pretrain 目标:学习通用语言表示。 数据:1TB+文本(如Common Crawl),使用BPE分词。 硬件:千卡GPU集群(如A100×1024),训练月级时间。 SFT(Supervised Fine-Tuning) 数据格式:指令-输出对(示例): {"instruction": "翻译成英文", "input": "今天天气很好", "output": "The weather is nice today"} 损失函数:交叉熵(仅计算输出部分token的损失)。 RLHF(基于人类反馈的强化学习) 三步流程:SFT模型 → 2. 奖励模型(RM)训练(人类标注偏好数据) → 3. PPO优化。 课时四:实例:手搓Qwen3大模型(一) 了解Qwen3大模型基本知识 旋转位置编码(RoPE):通过复数域旋转注入位置信息,支持任意长度外推 Gated MLP(SwiGLU):引入门控机制,增强非线性表达能力。 RMSNorm:省去均值中心的LayerNorm,计算量减少。 定义超参数、构建正则化、Attention、MLP、Decoder模块 课时五:实例:手搓Qwen3大模型(二) 了解Tokenizer的基本知识和分类 BPE算法步骤: 1. 初始化:将所有单词拆分为字符(如"chat" → ["c", "h", "a", "t"])。 2. 统计相邻符号对频率,合并最高频对(如"c"+"h"→"ch")。 3. 重复合并直到达到目标词表大小(如32k)。 从零训练Tokenizer,以BPE Tokenizer为例 测试Tokenizer 使用上述Qwen3和Tokenizer开始预训练和微调 课时六:大模型训练标准流程 介绍Transformers框架和使用方法 预训练数据处理方法 使用Transformer中的Trainer类进行训练 使用 DeepSpeed 实现分布式训练 DeepSpeed优化策略: ZeRO-2阶段:优化器状态分区(Optimizer State Partitioning),减少单卡显存占 用。 激活检查点:牺牲计算时间换取显存节省,适合超大模型训练。 混合精度训练: FP16模式:前向/反向传播使用半精度,优化器维护FP32主权重。 动态损失缩放:自动调整梯度缩放因子,防止下溢出。 课时七:有监督微调 Pretrain VS SFT 对比 微调数据处理,以医疗行业数据为例子 数据清洗:去除非结构化文本(如PDF表格),标准化医学术语(ICD-10编码)。 高效微调方案:Adapt Tuning 和 Prefix Tuning LoRA微调实例 课时八:大模型应用 LLM 的评测 LLM评测体系的三重维度 基础能力评测: 语言理解:GLUE基准(如文本蕴含、情感分析) 知识掌握:医学QA数据集(如MedQA-USMLE临床知识测试) 推理能力:Big-Bench Hard(BBH)中的因果推理任务 安全性与偏见: 毒性检测:RealToxicityPrompts数据集评估冒犯性输出 偏见指数:测量模型对性别/种族等敏感属性的倾向性(如StereoSet) 领域适应性: 医疗术语识别准确率(如UMLS实体匹配) 临床指南合规性(通过专家评审打分) 通用数据集 LLM主流评测榜单 RAG原理和应用核心流程: 检索阶段: 使用BM25(词频统计)+ 稠密检索(如Contriever模型)混合策略 医疗场景优先检索UpToDate/PubMed等权威知识库 生成阶段: 将检索结果作为上下文注入Prompt(如:"基于以下指南:{text},回答: {question}") 医疗优化方向: 检索增强:构建医学本体库(如SNOMED CT)提升术语匹配精度 可信度控制:输出附带参考文献来源(PMID编号) Agent原理和应用 课时九:医疗行业GPT串讲 介绍针对于医疗行业的GPT训练和微调 医疗文本的特性挑战 术语密度高:单个句子可能包含10+个专业实体(如"冠状动脉粥样硬化性心脏病") 标注成本极高:1份放射报告标注需放射科医师30分钟,错误标注可能引发法律风险 微调策略对比 全参数微调: 适用场景:拥有10万+高质量标注数据(如某专科医院病历库) 风险:可能导致模型遗忘基础医学常识 参数高效微调: LoRA:在注意力层的Q/V矩阵注入低秩适配器(rank=8) Prompt Tuning:学习软提示(Soft Prompt)引导模型输出专科倾向性 合规性保障机制 输出校验层 规则引擎:拦截剂量/用药禁忌冲突(如"孕妇禁用利巴韦林") 不确定性标记 典型应用场景 临床辅助决策: 输入:患者主诉+实验室指标 → 输出:鉴别诊断列表(按概率排序) 医患沟通增强: 将专业诊断转化为通俗解释(如"心肌梗死"→"心脏血管堵塞导致的心肌损伤") ||
| 阶段五(L5):从模型训练到模型微调入门到精通 🆕 🔥 (录播) 深入理解 大模型微调(Fine-tuning)的原理、方法及在实际场景中的应用 掌握 大模型
分布式训练
微调
的各种技术,包括DDP、DeepSpeed、FSDP及其优化策略 |||
| 大模型微调基础与LLaMA-Factory入门 | 课程介绍与大模型微调概览 1. 1. 传统微调方式的痛点与挑战 1. 显存占用高、训练时间长、部署成本高 2. 小样本学习与领域适应性问题 2. 大模型高效微调框架 LLaMA-Factory 介绍 1. LLaMA-Factory 的优势:支持多种微调方法、易用性、集成度高 2. LLaMA-Factory 在大模型生命周期中的定位 3. 大模型微调的价值与应用场景 4. 领域知识注入、任务定制、性能优化 5. 降低成本、提升效率、保持模型时效性 ||
| 大模型微调基础与LLaMA-Factory入门 | LLaMA-Factory 安装与环境配置 1. 1. 环境要求与硬件选择 1. 微调环境的最低硬件要求(CPU、内存、GPU显存)及推荐配置 2. GPU选型(NVIDIA A100/H100、RTX 4090等)与显存考量 3. 云服务环境选择与优势(AutoDL、GPU租赁平台等) 2. 本地环境安装 (Windows WSL/Linux) 1. CUDA、cuDNN安装与版本匹配 2. Python环境管理(conda、venv)与版本选择 3. Git安装与代码克隆 4. LLaMA-Factory安装及作用 5. LLaMA-Factory 扩展模块的选择与安装(如FlashAttention、bitsandbytes) 3. 云服务环境配置实践 1. AutoDL等云平台下的环境配置流程 2. SSH隧道、开放端口等网络配置 3. 使用技巧与资源优化配置 4. 常见安装问题排查与解决方案 实践: 学员动手搭建本地/云端 LLaMA-Factory 开发环境。 ||
| 大模型微调基础与LLaMA-Factory入门 | LLaMA-Factory WebUI 介绍 1. 1. WebUI 各功能模块详解 1. 模型选择、数据集配置、微调参数设置 2. 实验管理、日志查看、模型评估、模型导出 2. WebUI 操作流程演示 3. 实践: 学员熟悉并尝试使用 LLaMA-Factory WebUI 进行基本操作 ||
| 大模型微调实践与优化 | 数据集准备与配置 1. 1. 大模型微调数据集格式详解 1. Alpaca 格式: instruction, input, output 2. ShareGPT 格式: 支持多轮对话 3. 其他常见数据集格式(JSONL、CSV等)转换 2. HuggingFace 公共数据集的使用 1. HuggingFace Datasets库介绍与应用 2. 如何下载、加载和预处理公共数据集用于微调 3. 自定义数据集的构建与处理 1. 文本数据的收集与清洗 2. 数据标注策略与工具选择 3. 自定义数据集转换为 LLaMA-Factory 支持的格式 4. 数据增强技术在微调中的应用 实践: 准备并配置一个自定义数据集,使其符合 LLaMA-Factory 微调要求。 ||
| 大模型微调实践与优化 | 高效微调方法 LoRA 实践 1. 1. LoRA (Low-Rank Adaptation) 原理深入 1. LoRA 核心思想:低秩矩阵分解,冻结大部分参数 2. LoRA 在大模型微调中的优势:显存占用低、训练速度快、模型小 2. 在 LLaMA-Factory 中配置 LoRA 微调 1. 选择基础模型与微调数据集 2. 详细配置 LoRA 参数: r 值、lora_alpha、lora_dropout等 3. 学习率、优化器、批大小等训练参数设置 3. 量化 (Quantization) 与 LoRA 结合 1. LoRA 微调过程中常见的量化策略(如 QLoRA) 2. bitsandbytes 库的使用与配置 4. 实验监控与模型评估 1. TensorBoard 集成与使用: 监控训练损失、指标变化 2. 评估模型的方法:困惑度 (Perplexity)、BLEU/ROUGE、人工评估 3. 模型保存与导出 实践: 完成一个 LoRA 微调任务,并进行实验监控和模型评估。 ||
| 大模型微调实践与优化 | 其他微调方法与训练加速 1. 1. 其他主流微调方法详解 1. Full Parameter Fine-tuning: 全量参数微调的场景与挑战 2. Freeze: 冻结部分层进行微调 3. Galore: 优化器效率提升技术 4. BAdam优化器技术 5. P-tuning、Prompt Tuning、Prefix Tuning 等提示工程相关微调方法 2. 大模型训练加速技术 1. FlashAttention: 优化注意力计算,降低显存消耗 2. Unsloth: 针对LoRA微调的性能优化库 3. Liger Kernel: 其他自定义核优化技术 4. PyTorch DDP、Accelerate、DeepSpeed 等训练框架的基础加速功能 3. 模型量化技术深入 (Post-Training Quantization) 1. PTQ (Post-Training Quantization): 训练后量化原理与方法 2. GPTQ: 针对大模型的高效量化算法 3. QAT (Quantization Aware Training): 量化感知训练简介 4. AQLM、OFTQ: 其他高级量化技术 实践: 尝试使用一种除 LoRA 外的微调方法,或在微调过程中应用训练加速技术。 ||
| 大模型分布式微调与高级优化 | 分布式训练环境与网络配置 1. 分布式训练基础 1. 单机多卡与多机多卡的区别与挑战 2. 数据并行、模型并行、流水线并行 2. 网络环境的解读与配置 1. 如何确定不同主机的IP地址 2. 集群网络拓扑、带宽、延迟对分布式训练的影响 3. InfiniBand、RoCE等高性能网络技术简介 3. 分布式通信原语 1. All-reduce, Gather, Scatter等操作 2. NCCL、Gloo 等通信后端 实践: 搭建一个简单的多卡分布式训练环境,并验证网络连通性。 ||
| 大模型分布式微调与高级优化 | 主流分布式微调框架与技术 1. DDP (Distributed Data Parallel) 详解 1. DDP 原理:数据并行、梯度同步 2. LLaMA-Factory 中 DDP 的配置与使用 3. DDP 的优缺点及适用场景 2. DeepSpeed 深度解析 1. DeepSpeed 核心功能:优化器状态分区、梯度分区、参数分区 2. DeepSpeed ZeRO 阶段解读: 3. ZeRO-1: 优化器状态分区 4. ZeRO-2: 优化器状态+梯度分区 5. ZeRO-3: 优化器状态+梯度+参数分区 6. DeepSpeed ZeRO 显存优化效果与实现细节 7. LLaMA-Factory 中 DeepSpeed 的配置与实践 3. FSDP (Fully Sharded Data Parallel) 详解 1. FSDP 原理:分片化数据并行,更细粒度的显存优化 2. FSDP 与 DeepSpeed ZeRO-3 的对比与选择 3. LLaMA-Factory 中 FSDP 的配置与使用 4. 其他分布式训练优化 1. 梯度累积(Gradient Accumulation)、混合精度训练 (AMP) 2. Checkpointing、Offloading等技术 实践: 在 LLaMA-Factory 中尝试使用 DeepSpeed ZeRO-2/3 或 FSDP 进行分布式微调,并对比不同配置下的资源占用和训练速度。 ||
| 模型蒸馏原理与实战 | 1. 什么是知识蒸馏 1. 蒸馏目标:降低模型体积和计算量,保持性能 2. 基本要素:教师模型、学生模型、知识载体 3. 狭义与广义知识蒸馏 2. 大模型知识蒸馏的主流技术方法 1. 基于输出的蒸馏:软标签蒸馏、生成式蒸馏 2. 基于特征的蒸馏:中间层特征模仿、注意力蒸馏 3. 结构化蒸馏:模型结构迁移、知识图谱蒸馏 4. 动态蒸馏与自蒸馏:在线蒸馏、自蒸馏 3. 大模型特有的蒸馏挑战与解决方案 1. 模型规模差距过大及解决方法 2. 模型架构不同,特征无法对齐 3. 生成式大模型的蒸馏难点及解决方法 4. 实战项目: 1. 基于输出的蒸馏:复现DeepSeek蒸馏Qwen1.5B-distill模型全流程 2. 基于特征的蒸馏:挑一个LLM(如:Qwen、Bert等)进行基于输出层的对齐蒸馏(看前面讲的时间决定是否要讲) ||
| 大模型高效部署与应用 | 模型部署基础与推理优化 1. 模型部署的挑战与目标 1. 显存占用、推理速度、并发量、稳定性 2. 模型版本管理、A/B测试、灰度发布 2. 大模型推理优化技术 1. KV Cache 优化: 减少重复计算 2. 批处理 (Batching): 提高GPU利用率 3. 模型剪枝 (Pruning): 结构化剪枝、非结构化剪枝 4. 模型编译与加速: ONNX Runtime、TensorRT、OpenVINO等 3. 模型服务化与API设计 1. RESTful API设计原则 2. gRPC在高性能服务中的应用 ||
| 大模型高效部署与应用 | 大模型部署方案实践 1. Ollama 部署实践 1. Ollama 简介:轻量级本地大模型运行框架 2. Ollama 安装与模型下载 3. 使用 Ollama 部署微调后的模型 4. Ollama 的优缺点及适用场景 2. VLLM + FastAPI 高性能部署 1. VLLM 原理深入: PagedAttention、连续批处理等高效推理技术 2. FastAPI 框架介绍: 高性能Web框架 3. 构建 VLLM + FastAPI 服务: 4. 编写 FastAPI 应用,集成 VLLM 推理后端 5. 通过 OpenAI 兼容性接口访问模型 6. 性能压测与优化 3. 其他部署方案简介 1. Triton Inference Server、OpenVINO Model Server、Ray Serve 、SGlang 2. 基于Kubernetes的弹性伸缩部署 实践: 完成一个 VLLM + FastAPI 的大模型部署服务,并通过 OpenAI 兼容性接口进行访问。 实践:性能压测方法与优化 ,性能压测代码实现与指标观测、业务算力预估方法 1. 其他部署方案简介 1. Triton Inference Server、OpenVINO Model Server、Ray Serve 、SGlang 2. 基 于Kubernetes的弹性伸缩部署 实践: 完成一个SGlang部署LLM服务 ||
| 大模型高效部署与应用 | MLOps与大模型生命周期管理 1. MLOps核心理念与工作流 1. 数据版本管理、模型版本管理、实验管理 2. 自动化训练、自动化部署、持续集成/持续交付(CI/CD) 2. MLOps在大模型场景的特殊挑战 1. 模型规模大、训练成本高、数据隐私复杂 2. 模型漂移检测与自动再训练 ||
| 综合实践与未来展望 | 综合项目实践 1. 项目选择与需求分析 1. 结合学员兴趣或实际业务场景,选择一个大模型应用项目 2. 如:特定领域(金融、医疗、工业等)的智能问答系统、代码生成助手、报告摘要生成器等。 2. 数据准备与微调实践 1. 数据集收集、清洗、标注(或使用公开数据集) 2. 选择合适的微调方法(LoRA/DeepSpeed/FSDP),进行模型训练 3. 实验监控与评估 3. 模型优化与部署实践 1. 应用量化、推理加速等优化技术 2. 选择合适的部署方案(Ollama/VLLM+FastAPI),搭建推理服务 3. 进行简单的功能测试与性能测试 ||
| 综合实践与未来展望 | 未来展望与职业发展 1. 大模型技术发展趋势 1. 更大的模型、更强的多模态能力 2. 更高效的训练与推理框架 3. Agent、具身智能、AGI发展方向 2. 工业界大模型应用趋势 1. 垂直领域大模型、企业私有化部署 2. 大模型与边缘计算、数字孪生等技术融合 3. AI工程师的职业发展路径 1. 专家型技术人才、AI架构师、MLOps工程师、AI产品经理 2. 持续学习与知识更新的重要性 ||
| 技术扩展:AI大模型技术扩展(录播) 对AI大模型应用以及技术生态的知识体系做系统化扩展,成为AI大模型全栈人才! |||
| 小白从0到1玩转AI Agent独立搭建个性化的智能体应用 |||
| 课程名称 | 主要内容 | 课程目标 |
| Dify | 课程大纲:Dify+DeepSeek构建智能体 课程时长:3-4课时 目标受众: 有AI/机器学习基础的开发人员、算法工程师、数据科学家 负责AI模型开发、训练、部署与运维的技术人员 希望深入理解Dify的小白 第一部分:Dify介绍(1-2课时) 1.1Dify平台介绍 1.2Dify平台私有化部署 1.3Ollama部署 1.4Dify接入模型管理 1.5Dify接入在线模型 第二部分:Dify构建智能体(1-2课时) 2.1智能对话机器人 2.2智能面试官 2.3智能旅游系统 2.4智能客服 2.5企业私有知识库。 | 本课程旨在帮助具有技术背景的学员,系统掌握利用Dify开源框架与DeepSeek等主流大模型,从零开始私有化部署AI开发平台,并设计、开发与部署符合企业级需求的复杂AI智能体应用。课程将涵盖从本地模型(Ollama)与在线模型(DeepSeek)的集成与管理,到应用编排(工作流/Agent)的核心开发能力,最终使学员能独立完成一个高定制化、可私有部署的AI智能体解决方案。 |
| COZE智能体搭建实战 | 课程介绍: 1-1节初识COZE打造自己的第一个工作流:新闻搜索与总结 1.工作流要完成的任务与节点定义 2.插件配置方法与参数 3.大模型节点配置方法 4.结束节点配置 5.智能体配置方法 1-2节新闻稿创作工作流(循环使用方法) 1.循环节点方法解读 2.循环中参数的定义方法 3.续写新闻稿件方法(循环中间变量使用) 4.智能体测试与输出节点 5.批处理的作用与效果 8-3节历史人物视频素材生成 1-3节历史人物视频素材生成 1.做视频素材业务逻辑分析 2.做剧本节点系统提示词方法 3.完成剧本节点输出 4.画面描述与图像生成节点构建 5.图像违规词限制与运镜节点 6.视频节点构建与错误分析 7.图像生成节点错误调试并保险 8.视频生成节点容易违规的解决方法 9.选修(当作拓展知识):配置外部视频软件成为插件 10.选修:自定义插件配置方法实例 11.选修:工作流中添加视频插件 1-4节历史人物自动化剪辑实例 1.时间线定义方法 2.剪映插件介绍 3.时间线和素材绑定方法 4.剪映草稿添加素材方法 5.得到合成后的视频 1-5节智能客服工作流 1.对话流配置与创建 2.选择器的使用方法 3.数据库与大模型的匹配方法 4.知识库构建与匹配方法 5.汇总输出与测试。 1-6节数据分析工作流 1.效果演示与数据读取 2.数据清洗与处理 3.结合DeepSeek构建代码节点 4.结合DeepSeek进行数据分析 5.配置插件把分析结果存在excel里 6.数据可视化配置方法与节点调试分析 7.不同可视化图表配置方法 8.输出与展示配置 1-7节影刀RPA自动化 1.影刀RPA分析 2.影刀安装方法 3.影刀流程配置方法实例 4.执行循环操作 5.完成文案采集的全部功能 | 本课程旨在帮助零基础的学员系统掌握使用Coze等主流AI平台,从0到1独立设计、搭建并部署个性化的智能体(AI Agent)与应用工作流。课程将覆盖从基础工作流搭建、复杂逻辑处理(如循环与分支)、多模态内容生成(文本、图像、视频),到与企业级场景(智能客服、数据分析)和外部工具(RPA)结合的完整知识体系。最终使学员具备解决实际问题的能力,能够独立开发出功能完整、可交付的AI智能体应用。 总结:通过本课程的学习,学员将从认识单个节点开始,逐步进阶到设计包含逻辑判断、循环控制、多工具调用、多模态输出的复杂工作流,最终具备解决内容创作、客户服务、数据分析、流程自动化等跨领域实际问题的综合开发能力,成为能独立交付项目的AI智能体应用开发者。 |
| Python | 课程内容: 【基础篇】:Python快速入门 1-1节Python、PyCharm安装与配置 1-2节anaconda环境安装和搭建 1-3节Python简介 1-4节Python数据类型 1-5节Python列表 1-6节Python元组 1-7节Python集合 1-8节Python字典 1-9节Python条件判断 1-10节Python循环 1-11节字典的核心操作 1-12节Set结构 1-13节赋值机制 1-14节判断结构 1-15节循环结构 1-16节函数定义 1-17节模块与包 1-18节异常处理模块 1-19节文件操作 1-20节类的基本定义 1-21节类的属性操作 1-22节时间操作 1-23节Python练习题-1 1-24节Python练习题-2 1-25节 科学计算库-Numpy 1-26节 数据分析处理库-Pandas 1-27节 可视化库-Matplotlib 1-28节 可视化库-seaborn | 掌握python |
| AutogenStudio(本地化智能体) | 1.Python环境说明 2.AutoGenStudio框架安装与介绍 3.动作API配置方法 4.国内常用API配置方法 5.API接口在线测试 6.工作流配置 7.执行流程与结果 8.API生成方法 9.GroupChat模块 10.执行流程分析 11.外接本地支持库配置方法 12.加入RAG技能 13.LMStudio本地下载部署模型. 14.调用本地模型方法与配置. 15.AutogenStudio本地化部署流程 16.本地化部署接入应用实例 17.调用SD-API完成设计 18.Ollama环境配置与安装. 19.autogen接入本地模型 20.论文概述分析 21.整体框架逻辑介绍 22.项目环境配置 23.基础解读-动作定义方式 24.基础解读-角色定义 25.单动作智能体实现方法 26.多动作配置方法. 27.定时器任务环境配置 28.定时器任务流程解读分析 29.基本Agent的组成 30.Agent要完成的任务和业务逻辑定义 31.问题拆解与执行流程 32.检索得到重要的URL 33.子问题生成总结结果 34.总结与结果输出 35.-案例实战演示与整体架构分析 36.后端GPT项目部署启动 37.前端助手API与流程图配置 38.接入外部API的方法与流程 39.引入API方法解读 40.指令提示构建 | 自己搭建AutogenStudio智能体平台 |
| 知识库与应用拓展 | 1.RAGFLOW介绍和特点 2.RAGFLOW接入本地模型 3.Chat与Embedding模型接入 4.知识库构建实例 5.封装成API调用 6.RAG要完成的任务解读 7.RAG整体流程解读 8.召回优化策略分析 9.召回改进方案解读 10.评估工具RAGAS 11.外接本地数据库工具 12.整体故事解读 13.要解决的问题和整体框架分析 14.论文基本框架分析 15.Agent的记忆信息 16.感知与反思模块构建流程 17.计划模块实现细节 18.整体流程框架图 19.感知模块解读 20.思考模块解读 | 掌握Agent和RAG,并自己搭建独立的知识库系统 |
| 本地大模型微调 | 1.llama3模型下载与配置安装 2.环境相关配置解读 3.工具调用流程拆解 4.功能调用方法实例 5.RAG环境配置搭建 6.LLAMA3应用-RAG搭建方法 7.RAG基本流程分析 8.LORA微调方法 9.指令微调所需数据与模型下载 10.llama3模型微调实例 11.llama3微调后进行量化 12.llama.cpp量化实例 13.部署应用 | 了解并掌握微调,以及微调相关数据LORA等 |
| 5.应用拓展分析 | 1.项目需求分析流程 2.数据与特征库准备 3.模型准备与项目分析 4.模型选择方法总结 5.项目经验总结与优化方法 6.数据挖掘要解决的问题 7.数据处理与清洗分析 8.特征工程的作用与流程 9.机器学习算法分析 10.模板到哪去找 11.知识图谱要解决的问题与流程分析 12.知识图谱项目实际应用分析 13.知识图谱实战应用项目解读 14.大模型要解决的问题和应用分析 15.工具总结分析 16.MOE概述分析 17.MOE模块实现方法解读 18.效果分析与总结 19.RAG与微调可以解决与无法解决的问题 20.RAG实践策略 21.微调要解决的问题 | 企业应用实施经验分享、以及复杂场景下的多维度能力的补充 |
| 从0到1实现AI大模型及各类开源组件的环境部署 |||
| 从0到1实现AI大模型及各类开源组件的环境部署 | 1. Anacnda环境管理工具的安装视频教程 2. Pycharm环境安装与破解及整合Anaconda 3. Pycharm+OpenAI运行第一个大模型案例 4. Hanlp本地运行出现的问题及操作步骤分析 5. Ollama+Deepseek+Anythingllm 6. Window环境Deepseek+Ollama+Dify搭建个人旅行助手 7. Ubuntu+Deepseek-R1+Ollama+Dify实现旅行助手Agent 8. DeepSeek-R1+VLLM本地部署保姆级攻略 9. Ubuntu24环境下部署Video-LLaVA-2视频理解大模型 10. Window环境下LangChain_ChatChat+Deepseek-R1搭建本地知识库 11. AnythingLLM+Ollama基于本地私有化大模型搭建RAG知识库 | 学会独立完成大模型相关应用生态的部署 |
| LangChain零基础入门到企业级应用实战 |||
| LangChain入门到精通 | 1. Langchain简介 2. api_key设置 3. Langchain中的基本数据结构 4. 模型种类 5. 提示 6. 示例选择器 7. 输出解析part1 8. 输出解析part2 9. 文档加载器 10. 文档分割器 11. 文档检索 12. 记忆 13. 链-简单顺序链 14. 链-总结链 15. Agent智能体简介 | LangChain 是一个用于开发由语言模型驱动的应用程序的框架。他主要拥有 2 个能力: 1. 可以将 LLM 模型与外部数据源进行连接 2. 允许与 LLM 模型进行交互 这一章节快速帮大家实现LangChain的基础入门,并熟练使用LangChian的各种API和组件 |
| LangChain应用实战 | 1. 总结摘要 2. 上下文问答 3. 结构化提取 4. 评估 5. SQL 查询 6. 代码理解 7. api交互 8. 聊天机器人 9. Agent | LangChain是一个强大的框架,主要帮助开发人员使用语言模型构建端到端的应用程序。 它提供了一套工具、组件和接口,可简化创建由大型语言模型 (LLM) 和聊天模型提供支持的应用程序的过程。 通过这一阶段的学习,可以用LangChain结合场景实现应用的开发落地 |
| LangGraph入门到精通 | 1. 简单的图 2. langraph中的链 3. 路由 4. react agent 5. agent和记忆 6. 图状态一览 7. 图状态更新 8. 多重状态 9. 修剪过滤消息 10. 流式输出 11. 断点 12. 外部控制修改图状态 13. 动态断点 14. 并行运行 15. 子图 16. Map reduce控制流 | LangGraph 是一个有用于构建有状态和多角色的 Agents 应用,它并不是一个独立于 Langchain 的新框架,而是基于 Langchain 之上构建的一个扩展库,可以与 Langchain 现有的链(Chains)、LangChain Expression Language(LCEL)等无缝协作。 |
| RAG入门到精通 | 1. 介绍 2. 索引part1 3. 索引part2 4. 索引part3_词嵌入-案例实战 5. 索引part4_总结 6. 索引全流程-案例实战 7. 检索 8. 索引 9. 生成 10. 生成_-案例实战 11. 问题改写 12. 问题改写_-案例实战 13. 问题改写_rerank_-案例实战 14. 问题分解 15. 问题分解_-案例实战 16. 问题回退 17. 问题回退-案例实战 18. 虚拟文档 19. 虚拟文档-案例实战 20. 路由 21. 路由-案例实战 22. 结构化搜索 23. 结构化搜索-案例实战 | 检索增强生成 (RAG) 是一种使用来自私有或专有数据源的信息来补充文本生成的技术。它将检索模型(设计用于搜索大型数据集或知识库)和生成模型(例如大型语言模型 (LLM),此类模型会使用检索到的信息生成可供阅读的文本回复)结合在一起。 通过从更多数据源添加背景信息,以及通过训练来补充 LLM 的原始知识库,检索增强生成能够提高搜索体验的相关性。 企业级大模型应用必备能力。 |

相关推荐
yangpipi-2 小时前
第二章 语言模型基础
人工智能·语言模型·自然语言处理
2501_941507942 小时前
鱼类图像识别与分类改进YOLO13-C3k2-FMB实现ikan和mulut检测
人工智能·分类·数据挖掘
2501_942191772 小时前
手部姿态识别与数字手势分类:Cascade RCNN_R101_FPN模型在COCO数据集上的实践与优化_3
人工智能·分类·数据挖掘
iceslime2 小时前
HENU2025OS操作系统期末考试
大数据·人工智能
努力的小白o(^▽^)o2 小时前
回归实战(小白版本)
人工智能·数据挖掘·回归
居7然10 小时前
ChatGPT是怎么学会接龙的?
深度学习·语言模型·chatgpt·性能优化·transformer
5Gcamera10 小时前
4G body camera BC310/BC310D user manual
人工智能·边缘计算·智能安全帽·执法记录仪·smarteye
爱喝可乐的老王10 小时前
机器学习中常用交叉验证总结
人工智能·机器学习
公链开发11 小时前
2026 Web3机构级风口:RWA Tokenization + ZK隐私系统定制开发全解析
人工智能·web3·区块链