我在网上看见一门课程《AI科技应用课》课程时长1.5小时,我想知道课程的主要内容,于是让AI生成一个课程稿,内容如下:
课程内容
-
人工智能发展历史与大模型典型应用
-
智能体基础原理与动手制作
-
AI项目实战与成果展示
-
科技前沿趋势分享
课程亮点
两大核心模块,带你从理论到实践玩转AI!拆解AI底层逻辑,看懂前沿技术,从0到1完成AI实操,把理论变成看得见的成果。

《AI科技应用课》课程稿
课程导语:欢迎来到AI的世界
各位同学,大家好!欢迎来到「科技探索」AI科技应用课。我是本节课的授课老师黄艳清。非常荣幸能和大家一起,开启一场从理论到实践、从零基础到能独立完成AI实操的科技探索之旅。(综合自多份)
在接下来的学习旅程中,我们将共同完成一次从"AI使用者"到"AI创造者"的蜕变。无论你是否有编程基础,无论你是否曾对人工智能感到遥不可及,这门课都将为你拆开技术的"黑箱",让你亲手点亮AI的第一盏灯。(综合自多份)
课程核心理念:从"数字原住民"到"AI创变者"
本课程不仅仅是一次知识传递,更是一场思维范式的迁移。我们不再满足于仅仅使用 AI应用(如聊天、绘画),而是要理解其脉络、掌握其原理、驾驭其创造。我们的终极目标是让你获得一种新的生产力语言------用AI的思维发现问题、拆解问题并解决问题,最终将"AI赋能"从一个流行词,转变为你的内在能力。(综合自多份)
课程总览:两大核心模块,打通AI学习全链路
这门课程的核心优势,就在于"从理论到实践,从基础到进阶"的完整设计,我们将通过两大核心模块,帮大家实现AI认知与实操能力的双重提升,彻底告别"懂理论、不会用"的困境。(综合自多份)
第一个核心模块是「AI理论拆解模块」。在这个模块中,我们会跳出复杂的公式和代码,用通俗易懂的语言,拆解AI的底层逻辑------比如AI是如何"思考"的、大模型的核心原理是什么、人工智能从诞生到如今的发展历程中,有哪些关键节点和标志性技术。我们不会追求晦涩的理论深度,而是聚焦"实用化认知",让大家明白每一项AI技术的核心作用,以及它在我们生活、工作中的应用逻辑。(综合自多份)
第二个核心模块是「AI实操落地模块」。这是我们课程的重点,也是最具趣味性的部分。在掌握了基础理论之后,我们会带领大家从0到1完成AI实操,手把手教大家动手制作智能体、开展AI项目实战,最终完成属于自己的AI成果展示。整个实操过程,我们会避开复杂的编程门槛,采用简单易上手的工具和方法,确保零基础的同学也能跟上节奏,每一节课都能掌握一个实操技能,每一个阶段都能获得看得见的进步。(综合自多份)
简单来说,这两大模块的逻辑是:先帮大家"看懂AI",再教大家"用好AI";先建立系统的认知框架,再通过实操巩固知识、提升能力,让大家真正做到"学完能用、用会能用好"。(综合自多份)
授课师资:用通俗的语言,带你轻松入门AI
很多同学可能会担心,AI技术听起来很高深,自己零基础,会不会跟不上?在这里,大家完全可以放心。本节课由黄艳清老师授课,深耕AI领域多年,积累了丰富的行业经验和教学经验,始终坚信"复杂技术,皆可通俗讲解"。(综合自多份)
黄艳清老师的教学理念中,AI不是"高高在上"的科技名词,而是我们可以轻松掌握、为我们所用的工具。因此,在授课过程中,她会避开晦涩难懂的专业术语,用生活化的案例、通俗的语言,把复杂的AI原理拆解成一个个简单易懂的知识点。比如,讲解大模型的工作原理时,会用"人脑思考"的逻辑做类比;讲解智能体制作时,会结合日常场景,告诉大家每一个步骤的核心作用和操作技巧。(综合自多份)
同时,老师会全程关注大家的学习节奏,针对零基础学员的特点,放慢讲解速度,重点突出、反复强调关键知识点,每一个实操步骤都会手把手演示,遇到大家容易出错的地方,会及时提醒、耐心解答。(综合自多份)
学习建议与注意事项
第一,保持好奇心和学习热情。AI是一门不断发展、不断创新的学科,只有保持好奇心,主动探索,才能更好地掌握AI知识和技能。在学习过程中,不要害怕遇到困难,不要因为自己零基础就退缩,每一个知识点、每一个实操步骤,我们都会一起慢慢学习、慢慢掌握。(综合自多份)
第二,注重理论与实践结合。这门课程的核心是"实操",因此,大家在学习理论知识的同时,一定要积极参与实操练习,多动手、多尝试。只有通过实际操作,才能真正理解理论知识,掌握实操技巧,把理论转化为实际成果。(综合自多份)
第三,积极提问、主动交流。在学习过程中,遇到不懂的问题、实操过程中遇到困难,一定要及时提出,不要积累问题。老师会全程为大家解答疑问,同时,也鼓励大家相互交流、相互学习,分享自己的学习心得和实操经验,共同进步。(综合自多份)
第四,循序渐进、稳步提升。AI学习是一个循序渐进的过程,不要急于求成。我们会按照"理论---实操---进阶"的节奏,一步步推进课程,大家只要跟上课程进度,认真学习每一个知识点、完成每一次实操练习,就一定能有所收获。(综合自多份)
心态准备(至关重要):
-
保持"为什么"的好奇:面对AI的神奇表现,多问一句"它可能是怎么做到的?"。这种追问是深入理解的起点。
-
拥抱"动手做"的勇气:实践环节可能会遇到环境报错、效果不佳,这正是学习的核心环节。调试的过程就是知识内化的过程。
-
建立"系统化"的视角:努力将每个知识点串联起来,思考历史、理论、应用、趋势之间的关联,构建你自己的AI认知图谱。(综合自多份)
预习任务(选做):
-
注册一个免费的AI Agent搭建平台账号(如Coze、Dify Cloud)。
-
想一想:如果你有一个万能AI助手,你最想让它帮你完成哪个具体任务?把答案写下来,带到课堂上分享。
-
积极体验各类主流AI产品:ChatGPT、Claude、Midjourney、Suno等,并记录下让你惊喜和困惑的时刻,这将是课堂上最好的学习素材。(综合自多份)
第一部分:人工智能发展历史------从逻辑到学习的演进脉络
一、AI的"前世今生":四个关键阶段
人工智能并非突然降临的魔法。它的历史可以追溯到1950年图灵测试的提出。我们将沿着时间轴,回顾AI经历的多个阶段。(综合自多份)
1. 萌芽期(1950年前及1950s-1970s):从理论构想到初步实践
人工智能的思想雏形,最早可以追溯到古希腊时期的自动机神话,但真正的科学起点,要从20世纪中叶说起。(综合自多份)
关键理论与模型奠基:
-
1943年:神经学家麦卡洛克与数学家皮茨提出了M-P神经元模型,首次用数学公式模拟生物神经元的突触连接,证明了神经网络可以实现与、或、非等基础逻辑运算,这成为了人工智能发展的重要理论基石。(保留自课程讲义)
-
1950年 :英国数学家艾伦·图灵发表了《计算机器与智能》论文,提出了著名的"图灵测试"。他设想通过一个"模仿游戏"来判断机器是否具备智能:如果在人与机器的对话中,有30%的人类裁判无法区分对话对象是机器还是人类,那么就可以认为这台机器具备了智能。图灵测试的提出,为人工智能研究提供了可操作化的评估标准,推动AI从哲学思辨转向了科学实践。(保留自课程讲义,含30%标准细节)
-
1951年:首台神经网络计算机SNARC问世。(保留自课程讲义)
-
1956年:逻辑推理程序LogicTheorist成功证明了《数学原理》中的38条定理,展现了机器在逻辑推理方面的能力。(保留自课程讲义)
学科正式诞生:
- 1956年:在美国达特茅斯学院,麦卡锡、明斯基等十位学者召开了夏季研讨会,在这次会议上,"人工智能"(Artificial Intelligence)这一术语被正式提出,标志着人工智能作为一门独立学科的诞生。会议确立了自然语言处理、神经网络、抽象推理等七大研究方向,点燃了AI研究的热潮。(综合自多份)
早期实践与挫折:
- 1957年 :罗森布拉特发明了感知机(Perceptron),它能够实现简单的图像分类任务。但感知机很快被证明无法处理异或问题(即判断两个输入是否不同)。这一缺陷被放大后,导致神经网络研究陷入了长达二十年的寒冬,大多数研究者转而投向了专家系统的研究。(保留自课程讲义,含"异或问题"技术细节)
行为主义机器人:
- 50年代:格雷·沃尔特研制出了机械乌龟,它通过光电管和模拟电路实现了避障、寻光等行为,虽然没有采用计算机控制,但开创了"感知-动作"的智能体研究范式,为后续机器人技术的发展奠定了基础。(保留自课程讲义)
第一次AI寒冬:
- 1970s:第一次AI寒冬来临,由于计算能力限制和过高期望,政府资助大幅削减。当时的AI技术受限于算力和数据,很多项目的实际效果远低于预期。比如机器翻译项目,原本期望实现不同语言之间的精准转换,但实际输出的内容常常漏洞百出,引发了人们对AI技术的质疑。(综合自多份)
2. 专家系统与知识驱动期(1980s-1990s)
专家系统兴起:
- 1980年:专家系统兴起,费根鲍姆开发的DENDRAL化学分析系统,采用规则库+推理引擎的架构,能够根据质谱数据推断分子结构,在化学领域取得了商业成功。随后,MYCIN医疗诊断系统等一系列专家系统相继出现,它们在特定领域展现出了强大的问题解决能力,但由于依赖人工编写的规则库,泛化能力有限,无法适应复杂多变的现实场景。(保留自课程讲义)
算法突破:
-
1986年:反向传播算法(Backpropagation)重新流行,多层神经网络训练成为可能,解决了多层神经网络的训练难题。(保留自学习稿,含具体年份)
-
这一时期特点:依赖人工编写规则,知识表示为核心,系统脆弱且难以扩展。(综合自多份)
标志性事件:
- 1997年:IBM深蓝(Deep Blue)击败国际象棋世界冠军卡斯帕罗夫,标志计算机在特定领域超越人类。(综合自多份)
3. 机器学习崛起与深度学习爆发期(2000s-2020)
深度学习概念提出:
- 2006年:杰弗里·辛顿提出"深度学习"概念,多层神经网络训练取得突破。(综合自多份)
ImageNet革命:
- 2012年:AlexNet在ImageNet图像识别竞赛中以压倒性优势获胜,错误率较传统方法下降了超过10个百分点,深度学习革命爆发。这一事件标志着深度学习时代的正式开启。(保留自学习稿与课程讲义,含具体数据)
生成式AI开端:
- 2014年:生成对抗网络(GAN)提出,开启AI生成内容新纪元。(综合自多份)
AlphaGo里程碑:
- 2016年:AlphaGo击败围棋世界冠军李世石,强化学习+深度学习展现强大威力。(综合自多份)
Transformer革命:
- 2017年:Transformer架构论文《Attention Is All You Need》发表,彻底革新自然语言处理。(综合自多份)
在自然语言处理领域,Transformer架构成为了里程碑式的突破。Transformer摒弃了传统循环神经网络的序列处理方式,采用自注意力机制来捕捉输入序列中各个元素之间的关系,能够更高效地处理长文本数据。基于Transformer架构,BERT、GPT等预训练大模型相继问世,使得机器在语言理解和生成方面的能力达到了前所未有的高度,甚至在某些任务上超越了人类水平。(综合自多份)
4. 大模型时代与加速落地期(2020s至今)
GPT系列突破:
-
2020年:GPT-3发布,1750亿参数,展现惊人少样本学习能力。(综合自多份)
-
2022年11月:ChatGPT发布,引发全球生成式AI浪潮,月活用户破亿仅用2个月。(综合自多份)
-
2023年:GPT-4、Claude、文心一言、通义千问等大模型百花齐放。(综合自多份)
-
2024-2025年:多模态大模型、推理模型(如o1)、AI Agent爆发式增长。(综合自多份)
国产化大模型发展 :
大模型的普及,正在推动AI技术向各个行业深度渗透。与此同时,国产化大模型也迎来了快速发展。国内科技企业和科研机构纷纷推出了自己的大模型产品,如百度的文心一言、阿里的通义千问、腾讯的混元等,这些大模型在中文处理和本土场景适配方面具有独特优势,为我国AI产业的自主发展奠定了基础。(综合自多份)
二、从"辨别式"到"生成式"的范式转移
在深入大模型之前,我们需要先厘清人工智能发展的历史脉络。过去几十年,我们处于"辨别式人工智能"时代。那时的AI擅长做选择题,比如人脸识别(判断是不是同一个人)、垃圾邮件过滤(判断是或不是垃圾邮件)。其核心逻辑是基于历史数据进行分类和预测。(保留自预习通识稿)
然而,随着2017年Transformer架构的提出,我们跨入了"生成式人工智能"时代。AI不再仅仅是做选择题,而是开始做"问答题"和"创作题"。它通过学习海量数据的概率分布,能够生成全新的文本、图像、代码甚至视频。这种从"理解世界"到"创造世界"的跨越,是本次技术革命的核心。(保留自预习通识稿)
类比说明 :
传统AI像一个只会做选择题的考生,而大模型是一个读过整个互联网图书馆、能够自己写作文、画画、甚至编代码的"通才"。(综合自多份)
第二部分:大语言模型(LLM)------底层逻辑与典型应用
一、大模型到底是什么?
简单理解:大模型是一个通过海量文本、图像、代码等数据训练出来的巨型神经网络。它的核心能力是"预测下一个最合理的输出"。(综合自多份)
大模型,指的是使用大规模数据和强大计算能力训练出来的具有"大参数"的机器学习模型,其核心特征可以概括为以下几点:(综合自多份)
-
庞大的参数规模:大模型的参数数量通常在数十亿到数千亿之间,海量的参数使得模型能够学习到数据中复杂的模式和规律。比如GPT-4的参数规模达到了万亿级别,能够处理各种复杂的语言任务。(综合自多份)
-
复杂的计算结构:大模型通常采用深度神经网络架构,通过多层网络结构在不同层次上提取特征,实现从简单到复杂的特征表示。例如Transformer架构中的编码器和解码器,通过多层自注意力机制和前馈神经网络,能够捕捉文本中的语义信息和上下文关系。(综合自多份)
-
预训练与微调:大模型通常采用预训练+微调的训练策略。在预训练阶段,模型在大规模无标注数据上进行训练,学习通用的语言知识和特征表示;在微调阶段,针对特定任务,使用少量标注数据对模型进行调整,使其适应具体的应用场景。这种训练方式既提高了模型的泛化能力,又降低了特定任务的训练成本。(综合自多份)
-
多任务学习能力:大模型能够同时学习并执行多个任务,这得益于其强大的特征表示能力。例如,一个大模型可以同时完成文本分类、情感分析、机器翻译等多种任务,无需为每个任务单独训练模型。(综合自多份)
二、大语言模型的工作原理:下一个词的概率游戏
大语言模型之所以能像人一样对话,其本质是一个极其复杂的"接龙游戏"。(保留自预习通识稿)
1. 基础架构:Transformer
-
自注意力机制(Self-Attention):让模型在处理每个词时,都能关注句子中所有其他词,捕捉长距离依赖关系。(综合自多份)
-
多头注意力(Multi-Head Attention):并行计算多组注意力,捕捉不同维度的语义关系。(综合自多份)
-
位置编码(Positional Encoding):为模型注入序列顺序信息。(综合自多份)
-
编码器-解码器结构:BERT(仅编码器,擅长理解)、GPT(仅解码器,擅长生成)、T5(编码器-解码器)。(综合自多份)
2. 预训练与微调范式
-
预训练(Pre-training):在海量无标注文本上通过自监督学习训练,学习语言通用表示。模型阅读了互联网上数以万亿计的文本(书籍、网页、代码),学习词汇之间的关联。它并不是在"思考",而是在计算:给定前面的词,下一个词出现的概率是多少?
-
GPT系列:自回归语言建模,预测下一个token
-
BERT:掩码语言建模,预测被遮盖的词(综合自多份)
-
-
微调(Fine-tuning):在特定任务标注数据上调整模型参数。(综合自多份)
-
提示学习(Prompt Learning):通过设计提示词引导预训练模型完成特定任务,减少微调成本。(综合自多份)
-
上下文学习(In-Context Learning):在提示中提供示例,模型无需更新参数即可学习新任务。(综合自多份)
-
人类反馈强化学习:为了让模型更符合人类的价值观和指令,工程师会对模型进行"微调"。这就像教一个博学的孩子懂礼貌、守规矩。(保留自预习通识稿)
3. 模型规模与涌现能力
-
涌现现象(Emergence):当模型参数达到某一阈值(通常数百亿),突然展现出小模型不具备的能力(如思维链推理、指令遵循)。这是大模型最迷人的特性。(综合自多份)
-
Scaling Laws:模型性能随参数规模、数据量、计算量幂律增长。(综合自多份)
-
当前主流规模:从7B(70亿)到数百B参数不等。(综合自多份)
三、大模型典型应用场景
大模型正在如何改变世界?以下是主要应用领域:(综合自多份)
1. 自然语言处理领域
-
智能客服、会议纪要自动生成、法律文书辅助写作
-
机器翻译、摘要生成、情感分析、舆情监测
-
文本分类、信息抽取
2. 代码生成
-
GitHub Copilot帮助程序员自动补全函数,甚至生成整个模块
-
让程序员从"写代码"转变为"审查代码",大幅降低编程门槛
-
Cursor等代码辅助工具
3. 多模态理解与生成
-
输入一张图片,大模型能描述场景、分析情感、识别异常
-
文生图:DALL-E 3、Midjourney、Stable Diffusion
-
文生视频:Sora、可灵、Runway Gen-3
-
图文理解:视觉问答、图像描述生成
4. 知识检索
-
传统的搜索是给你一堆链接,AI搜索(如Perplexity AI)是直接给你整理好的答案和来源
-
搜索引擎增强
5. 垂直领域专用模型
-
金融:财报分析、风险评估、智能投顾
-
医疗:辅助诊断、医学文献分析、药物发现
-
教育:个性化辅导、自动批改、课程生成
-
法律:合同审查、案例检索、法律咨询
-
教育、医疗、金融等垂直领域:定制化大模型正在成为行业专家的"副驾驶"
本节思考任务:列举你最近一周中使用过的三个AI应用,思考它们背后是否有大模型的影子。(保留自预习课程稿)
第三部分:智能体(AI Agent)------基础原理与动手制作
一、什么是智能体(Agent)?
如果说大模型是"大脑",那么智能体就是"大脑+手+脚+感官"。大模型本身只能处理文本输入输出,是被动的。而智能体是具备自主决策与任务执行能力的智能系统,它能够感知环境信息,根据预设的目标和策略做出决策,并执行相应的动作,最终实现与环境的交互和任务的完成。(综合自多份)
核心特征(综合自多份):
-
自主性(Autonomy):无需人类持续干预,自主运行
-
反应性(Reactivity):感知环境变化并实时响应
-
主动性(Pro-activeness):主动追求目标,不只是被动等待指令
-
社会性(Social Ability):可与其他Agent或人类协作交互
智能体 vs 传统聊天机器人的区别:(保留自预习课程稿)
| 维度 | 聊天机器人 | 智能体 |
|---|---|---|
| 目标 | 单轮/多轮对话 | 完成一个复杂任务 |
| 工具使用 | 基本没有 | 可调用多种外部工具 |
| 规划能力 | 依赖预设流程 | 动态拆解步骤 |
| 自主性 | 被动响应 | 主动执行并反馈 |
举例说明:
-
聊天机器人:你问"今天天气如何",它回答"晴天"。
-
智能体:你对它说"明晚想约朋友吃火锅,预算人均150元,帮我订一家离地铁站近的",它会自动调用天气API、地图API、餐厅预订API,并返回最终方案。(保留自预习课程稿)
形象的公式:
智能体 = 大模型(大脑) + 记忆 + 规划能力 + 工具使用(综合自多份)
二、智能体的核心架构解析
智能体的技术架构通常分为感知层、决策层和执行层三个部分,形成一个"感知-决策-执行"的闭环。具体包含以下四个核心组件:(综合自多份)
1. 感知模块(Perception)
-
负责处理多模态数据输入,包括文本、图像、语音等多种形式
-
能够理解环境,通过摄像头、麦克风或API接口获取信息
-
感知层的核心是多模态数据融合技术,需要将不同类型的数据转换为统一的特征表示,以便后续的决策处理
-
例如,一个智能客服智能体,感知层需要将用户的语音输入转换为文本,同时理解文本中的语义信息;一个自动驾驶智能体,感知层需要处理摄像头、雷达等传感器收集到的图像和数据,识别道路、车辆、行人等目标(保留自课程讲义)
2. 记忆模块(Memory)
-
不仅有大模型的预训练知识,还有短期记忆(上下文)和长期记忆(向量数据库)
-
能记住用户的偏好和历史操作
-
短期记忆:对话上下文
-
长期记忆:知识库、经验总结(综合自多份)
3. 规划模块(Planning)
-
这是智能体的核心。面对一个复杂指令(如"帮我策划一次去云南的旅行"),它能将其拆解为"查天气"、"订机票"、"找酒店"、"做攻略"等子任务
-
主流规划技术:
-
Chain-of-Thought (CoT,思维链):引导模型逐步推理,"Let's think step by step"
-
Tree-of-Thought (ToT,思维树):探索多条推理路径,评估后选择最优解
-
ReAct (Reasoning + Acting):推理与行动交替进行,观察环境反馈调整策略
-
Reflexion:让Agent自我反思错误,从失败中学习改进(综合自多份)
-
4. 工具使用/执行模块(Tools/Action)
-
智能体可以调用外部工具,如搜索引擎、计算器、地图API、天气API、数据库等,甚至控制你的电脑操作
-
执行层的核心挑战在于工具API的语义理解、任务分解与子目标规划,以及异常处理与容错机制(保留自课程讲义)
三、从单智能体到多智能体协作
初步探索智能体社会的雏形------多个具有不同角色(分析师、执行者、审查员)的智能体如何通过分工、辩论与协作,完成更复杂的任务。这将是AI应用的前沿形态。(保留自预习课程稿/深度全景预习稿)
四、主流Agent开发框架
1. LangChain
-
最流行的LLM应用开发框架
-
核心概念:Chains(链)、Prompts(提示)、Models(模型)、Memory(记忆)、Agents(代理)
-
提供大量预构建组件,快速搭建复杂应用(综合自学习稿)
2. LangGraph
-
LangChain的扩展,支持构建多Agent工作流
-
基于图结构定义Agent状态流转
-
支持循环、条件分支等复杂逻辑(综合自学习稿)
3. AutoGPT / BabyAGI
-
早期自主Agent代表
-
给定目标后自动分解任务、执行、迭代
-
局限性:容易陷入循环、成本不可控(综合自学习稿)
4. 国产框架
-
扣子(Coze):字节跳动,低代码Agent搭建平台
-
Dify:开源LLM应用开发平台
-
FastGPT:知识库问答系统(综合自学习稿)
五、动手制作一个极简智能体------课堂实战指南
我们将使用无代码/低代码平台(如Coze、Dify或类似的AI Agent搭建工具),不需要编程基础。(综合自多份)
步骤一:定义角色与目标
为你的智能体设置一个身份,例如"旅行规划助手"。(综合自多份)
明确智能体的核心问题、服务对象和交互方式。我们的旅行规划智能体,核心任务是为用户提供一站式的旅行规划服务,包括搜索机票、预订酒店、生成行程安排等;服务对象是有旅行需求的用户,包括个人旅行者和家庭旅行者;交互方式可以采用文字对话的形式。(保留自课程讲义)
步骤二:配置技能
-
添加"联网搜索"工具,用于查找景点信息
-
添加"计算器"工具,用于预算计算
-
添加"知识库"工具,上传一份你常去的餐厅列表(综合自预习课程稿)
步骤三:编写提示词(Prompt)
示例提示词(保留自预习课程稿):
"你是一个贴心的旅行规划助手。当用户提出旅行需求时,请按以下步骤执行:
询问出发地、目的地、天数、人数、预算。
调用搜索工具推荐3个必去景点。
用计算器工具估算总花费。
最终输出一份包含交通、住宿、餐饮建议的旅行计划。"
设计并优化提示词的技巧:我们需要从角色明确、场景具体的提示词开始,不断调整语气、风格,优化提示词的效果。例如,我们可以设计这样的提示词:"你是一名专业的旅行规划师,擅长根据用户的需求制定个性化的旅行方案。请根据用户提供的出发地、目的地、出行时间、预算等信息,为用户生成一份详细的旅行规划,包括机票推荐、酒店预订建议、每日行程安排、美食推荐和预算明细。要求行程安排合理,符合用户的偏好,预算控制在用户指定范围内。"(保留自课程讲义)
步骤四:测试与迭代
输入一个真实需求,观察智能体是否按步骤执行。如果出错,就调整提示词或工具配置。在实际使用中,我们可以根据智能体的输出结果,不断调整提示词的细节。比如,如果智能体生成的行程安排过于紧凑,我们可以在提示词中加入"行程安排要劳逸结合,每天的活动量不宜过大";如果智能体推荐的酒店价格超出了用户预算,我们可以在提示词中明确"酒店推荐的价格区间为XX-XX元/晚"。(综合自多份)
步骤五(进阶):添加推理与外部工具调用------代码示例
为了让智能体能够与外部世界交互,我们需要添加推理与外部工具调用的功能。我们可以使用ReAct等框架,让智能体实现"思考+行动"的结合。(保留自课程讲义)
环境准备(保留自学习稿):
python
# 基础依赖
pip install langchain openai langchain-openai
# 可选:向量数据库
pip install chromadb faiss-cpu
简单ReAct Agent示例(保留自学习稿):
python
from langchain.agents import Tool, AgentExecutor, create_react_agent
from langchain_openai import ChatOpenAI
from langchain import hub
# 1. 定义工具
tools = [
Tool(
name="Search",
func=search_function, # 自定义搜索函数
description="用于搜索实时信息"
),
Tool(
name="Calculator",
func=calculator_function,
description="用于数学计算"
)
]
# 2. 加载提示模板
prompt = hub.pull("hwchase17/react")
# 3. 初始化模型
llm = ChatOpenAI(model="gpt-4", temperature=0)
# 4. 创建Agent
agent = create_react_agent(llm, tools, prompt)
# 5. 执行
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)
result = agent_executor.invoke({"input": "查询北京今天天气,并计算25摄氏度的华氏度"})
带记忆的Agent(保留自学习稿):
python
from langchain.memory import ConversationBufferMemory
memory = ConversationBufferMemory(memory_key="chat_history")
agent_executor = AgentExecutor(
agent=agent,
tools=tools,
memory=memory,
verbose=True
)
RAG(检索增强生成)Agent(保留自学习稿):
python
# 构建知识库
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings
# 文档加载与切分
documents = load_documents() # 加载PDF/网页等
texts = split_documents(documents) # 切分文本块
# 构建向量数据库
vectordb = Chroma.from_documents(texts, OpenAIEmbeddings())
# 检索器作为工具
retriever = vectordb.as_retriever()
tools.append(Tool(
name="KnowledgeBase",
func=retriever.get_relevant_documents,
description="查询公司内部知识库"
))
步骤六:处理记忆与上下文
为了让智能体"记得之前的事",实现连贯的对话和任务处理,我们需要处理记忆与上下文。我们可以将记忆分为"短期记忆"和"长期记忆"。短期记忆主要存储对话的上下文信息,比如用户在之前的对话中提到的出行偏好、预算等;长期记忆则存储用户的历史旅行记录、偏好设置等信息。(保留自课程讲义)
我们可以使用嵌入(Embedding)技术来检索上下文。嵌入技术能够将文本、图像等数据转换为向量表示,通过计算向量之间的相似度,快速找到与当前问题相关的上下文信息。例如,当用户询问"推荐一些上海的美食"时,智能体可以通过检索短期记忆,了解用户是否有饮食禁忌(如不吃辣),然后根据这些信息推荐合适的美食。(保留自课程讲义)
我们可以使用Pinecone、ChromaDB等向量数据库来存储和检索记忆信息。这些数据库能够高效地处理向量数据,支持快速的相似度查询,为智能体的记忆功能提供支持。(保留自课程讲义)
步骤七:部署与测试智能体
完成智能体的开发后,我们需要将其部署到服务器上,让用户能够通过网页、APP等方式访问。我们可以使用FastAPI等API框架来搭建智能体的接口,使用Streamlit、Gradio等工具来开发网页界面。(保留自课程讲义)
在部署之前,我们需要对智能体进行充分的测试。我们可以模拟不同的用户场景,输入各种类型的请求,检查智能体的输出是否符合预期。例如,测试用户输入不同的预算、出行时间、偏好,查看智能体生成的旅行方案是否合理;测试用户提出的特殊需求(如需要接送机服务、需要安排宠物寄养),查看智能体是否能够正确处理。(保留自课程讲义)
本节动手目标:课堂结束时,你将拥有第一个自己配置的、可对话的AI智能体。(保留自预习课程稿)
第四部分:AI项目实战方法论------从0到1的落地指南
一、提示词工程:与AI对话的艺术
高质量的输出源于高质量的输入。一个完美的提示词通常包含以下要素:(综合自预习通识稿)
-
立人设:"你是一位资深的市场营销专家......"
-
给背景:"我们要推出一款针对大学生的低糖饮料......"
-
定目标:"请为我写5条小红书风格的种草文案......"
-
设约束:"语气要活泼,多用Emoji,字数在100字以内。"
-
举例子:(可选)提供一两个范例,让AI模仿风格。
二、项目导向学习模式("迷你黑客松")
本模块采用"迷你黑客松"形式。你将分组(或独立)完成一个从0到1的AI小项目。(保留自预习课程稿)
项目选题方向建议(综合自多份)
-
智能办公助手:自动生成周报、邮件智能起草、日程智能安排、会议纪要自动生成。技术栈:LLM + RAG + 日历API。亮点:对接企业微信/钉钉,实现工作流自动化。
-
个性化学习辅导Agent:根据学生水平定制学习计划、自动出题、错题分析。技术栈:LLM + 知识图谱 + 学习数据分析。亮点:自适应难度调整,千人千面。
-
电商智能客服:7×24小时回答咨询、推荐商品、处理售后。技术栈:LLM + 产品知识库 + 订单系统API。亮点:多轮对话理解意图,自动转人工。
-
内容创作助手:短视频脚本生成、配图建议、标题优化。技术栈:LLM + 文生图API + 数据分析。亮点:一键生成完整内容方案。
-
数据分析Agent:自然语言查询数据、自动生成图表、洞察报告。技术栈:LLM + SQL生成 + 可视化库。亮点:零代码数据分析。
-
一个为古诗词配图的创意画板(保留自预习课程稿)
-
一个能够解释专业名词的个性化学习助教(保留自预习课程稿)
-
一个根据心情推荐音乐或电影的娱乐智能体(保留自预习课程稿)
三、典型项目开发流程
Phase 1:需求分析(1-2天)
-
明确目标用户和使用场景
-
梳理核心功能清单(MVP)
-
评估技术可行性与资源需求(综合自学习稿)
-
你想解决什么具体问题?为谁服务?(保留自预习课程稿)
Phase 2:技术选型(1天)
-
模型选择:GPT-4/Claude/国产大模型(考虑成本、中文效果、合规性)
-
框架选择:LangChain/扣子/Dify
-
基础设施:云服务、向量数据库、API网关(综合自学习稿)
Phase 3:原型搭建(60分钟)
-
在平台上配置智能体或调用API
-
搭建基础架构
-
实现核心功能模块
-
集成外部工具与API(综合自多份)
Phase 4:测试与优化(2-3天)
-
输入5个以上测试用例,记录失败场景并改进
-
提示词工程优化
-
边界case处理
-
性能与成本优化(综合自多份)
Phase 5:准备展示(30分钟)
-
制作1-2页演示文稿,录屏或准备现场演示
-
准备答辩材料(综合自多份)
四、项目实战全流程拆解------以"AI辅助撰写行业分析报告"为例
第一步:需求分析
明确报告的主题、受众、核心观点。(保留自预习通识稿)
第二步:信息搜集
利用联网型AI搜索最新的行业数据、竞品动态、政策导向。(保留自预习通识稿)
第三步:大纲构建
让AI生成报告大纲,并人工进行逻辑修正。(保留自预习通识稿)
第四步:分块写作
不要试图让AI一次写完。按章节(如"市场现状"、"未来趋势")逐一生成内容。(保留自预习通识稿)
第五步:润色与图表
让AI优化语言风格,并使用AI工具(如Gamma)生成PPT演示文稿。(保留自预习通识稿)
五、成果展示技巧
1. 演示结构(综合自学习稿与预习课程稿)
-
痛点引入:用真实场景说明为什么要做这个项目。不要只讲"我做了什么",更要讲"用户遇到了什么痛点,我是如何用AI解决的"。
-
方案展示:系统架构图 + 核心流程演示
-
亮点突出:技术创新点、用户体验优化
-
数据支撑:准确率、响应速度、用户反馈
-
未来规划:迭代方向、商业化可能
-
演示时尽量真实运行,允许出现小bug,重点是展示你的调试思路
2. 成果展示的形式与方法(保留自课程讲义)
-
演示视频:制作一个演示视频,展示项目的功能和使用流程。视频可以包括系统的界面展示、实际操作演示、效果对比等内容,让观众直观地了解项目的成果。
-
PPT报告:制作一份详细的PPT报告,包括项目背景、需求分析、技术方案、成果展示、应用效果、未来规划等内容。PPT要简洁明了,重点突出,使用图表、数据等方式增强说服力。
-
现场演示:在会议、展会等场合进行现场演示,与观众进行互动,解答观众的问题。现场演示能够让观众更深入地了解项目的功能和优势,增强项目的影响力。
-
案例分析报告:撰写一份案例分析报告,详细介绍项目的实施过程、遇到的问题、解决方案以及最终的成果。案例分析报告可以作为项目的文档资料,也可以用于行业交流和分享。
3. 技术文档要点(保留自学习稿)
-
项目背景与目标
-
系统架构设计图
-
技术栈与依赖说明
-
核心算法/提示词设计
-
测试用例与结果
-
部署运维指南
六、常见陷阱与避坑指南(综合自预习通识稿)
-
幻觉问题:AI会一本正经地胡说八道。大模型可能自信地给出错误答案,对于事实性数据(如财报数字、法律条文),必须进行人工核查,你需要学会验证。
-
上下文限制:AI的记忆是有限的。在长对话中,它可能会忘记开头的指令。关键信息需要适时重申。
-
数据隐私:在使用公共AI平台时,切勿上传公司的机密数据或个人敏感信息。
-
偏见与公平:AI可能继承训练数据中的偏见,批判性使用至关重要。
七、AI项目实战案例:基于大模型的智能客服系统开发(保留自课程讲义)
项目背景与需求分析
在当今的商业环境中,客户服务的效率和质量直接影响着企业的竞争力。传统的客服模式需要大量的人工客服人员,不仅成本高,而且在高峰期容易出现等待时间长、回复不及时等问题。基于大模型的智能客服系统,能够24小时不间断地为客户提供服务,快速响应客户的咨询,提高客户满意度,同时降低企业的运营成本。
项目功能需求
我们的项目目标是开发一个智能客服系统,能够处理用户的常见咨询,如产品介绍、订单查询、售后问题等。系统需要具备以下功能:
-
自然语言理解:能够理解用户的自然语言提问,准确识别用户的意图
-
智能回复:根据用户的问题,提供准确、专业的回答,对于复杂问题能够转接人工客服
-
多渠道支持:支持网页、APP、微信公众号等多种渠道的接入
-
学习与优化:能够从与用户的交互中学习,不断提升回答的准确性和质量
项目开发流程
数据收集与预处理:首先,我们需要收集大量的客服对话数据,包括历史的客服记录、常见问题与解答等。然后,对数据进行预处理,包括清洗数据(去除重复、无效的数据)、标注数据(标注用户的意图和对应的回答)、分词等,为模型的训练做准备。
模型选择与微调:我们可以选择一个预训练的大模型(如GPT-3.5、文心一言等)作为基础模型,然后使用标注好的客服对话数据对模型进行微调。微调的过程中,我们需要调整模型的参数,让模型适应客服对话的场景,提高模型在客服领域的语言理解和生成能力。
系统架构设计:智能客服系统的架构通常包括用户接口层、意图识别层、回答生成层、知识库层和人工客服转接层。用户接口层负责接收用户的提问;意图识别层负责识别用户的意图;回答生成层根据用户的意图和知识库中的信息生成回答;知识库层存储常见问题与解答、产品信息等;人工客服转接层负责将复杂问题转接给人工客服。
系统开发与集成:我们使用Python、FastAPI等技术开发系统的后端接口,使用Vue.js、React等技术开发前端界面。同时,将大模型集成到系统中,实现自然语言理解和智能回复的功能。此外,我们还需要将系统与企业的订单系统、产品数据库等进行对接,实现订单查询、产品介绍等功能。
测试与优化:在系统开发完成后,我们需要进行充分的测试,包括功能测试、性能测试、用户体验测试等。根据测试结果,对系统进行优化,如调整模型的参数、优化回答的内容、提升系统的响应速度等。
项目成果展示
经过一段时间的开发和优化,我们的智能客服系统已经能够稳定运行。系统能够准确理解用户的提问,提供专业的回答。例如,当用户询问"你们的产品支持7天无理由退货吗?",系统会回答"是的,我们的产品支持7天无理由退货。如果您需要退货,请在收到产品后的7天内联系我们的客服人员,提供订单号和退货原因,我们会为您办理退货手续。"
在实际应用中,智能客服系统已经为企业节省了大量的人力成本,客户的等待时间从原来的平均5分钟缩短到了10秒以内,客户满意度提升了30%。同时,系统还能够收集用户的常见问题,为企业的产品优化和服务改进提供数据支持。
成果展示的核心要素
在展示AI项目成果时,我们需要突出以下几个核心要素:
-
问题解决能力:说明项目解决了什么实际问题,带来了哪些价值
-
技术创新性:介绍项目中采用的新技术、新方法,以及这些技术如何提升了项目的性能
-
实际应用效果:用数据和案例来说明项目的实际应用效果
-
可扩展性与未来规划:说明项目的可扩展性,以及未来的发展规划
第五部分:科技前沿趋势分享
一、2024-2025年AI关键趋势
1. 多模态是下一个主战场
单一文本模型正在被"能看、能听、能说、能画"的多模态模型取代。例如GPT-4o、Gemini、Claude 3等已经实现实时图像-语音-文本混合理解。未来AI将像人类一样自然地融合多种信息。多模态意味着AI能像人类一样,通过看、听、说来理解世界。未来的AI不再局限于文字。文本生成视频、图片生成3D模型、语音克隆等技术正在爆发。(综合自多份)
多模态融合技术的深化:目前的大模型已经能够处理文本、图像、语音等多种模态的数据,但在模态间的语义对齐、跨模态推理等方面还有待提升。未来的大模型将实现更加深入的多模态融合,能够更好地理解和处理复杂的多模态信息。例如,一个AI系统能够根据用户提供的文字描述和图片,生成与之匹配的视频;或者根据一段语音,生成对应的文字描述和图像。(保留自课程讲义)
2. AI Agent将重塑软件形态
业内预测:未来不再有"App",而是"Agent"。你只需要告诉AI你的目标,它会自动调用各种服务。软件从"用户操作界面"演变为"AI执行任务"。从单Agent到多Agent协作系统,自主执行复杂任务(如Manus、Devin),与操作系统、浏览器深度集成。(综合自多份)
3. 端侧AI与隐私保护
大模型正在从云端走向手机、PC甚至嵌入式设备(如高通、苹果的端侧模型)。好处:无需上传数据,响应更快,隐私更强。你的下一部手机将内置个人AI助理。模型压缩技术:量化、剪枝、蒸馏。手机、PC本地运行大模型,隐私保护与低延迟优势。(综合自多份)
随着AI技术的普及,越来越多的应用场景需要在边缘设备(如手机、智能家居设备、工业传感器等)上运行AI模型。大模型虽然性能强大,但对计算资源和内存的要求较高,不适合在边缘设备上运行。未来,小模型与边缘计算的结合将成为趋势。小模型具有体积小、计算量低、响应速度快等优点,能够在边缘设备上高效运行。同时,边缘计算技术能够实现数据的本地处理,提高数据的安全性和隐私性。(保留自课程讲义)
4. 推理能力增强
OpenAI o1/o3系列:强化学习+思维链,数学、编程、科学推理大幅提升。DeepSeek-R1:开源推理模型,低成本高性能。趋势:从"快思考"到"慢思考",解决复杂问题。(综合自学习稿)
5. AI for Science
AlphaFold3:蛋白质结构预测。材料发现、药物设计、气候模拟。科学研究范式变革。AI技术正在深刻改变科学研究的方式。在生物医学领域,AI可以用于药物研发、基因测序分析、疾病预测等;在物理学领域,AI可以用于模拟复杂的物理现象、发现新的物理规律;在天文学领域,AI可以用于分析天文数据、发现新的天体。未来,AI将与更多的学科领域进行深度融合,推动科学研究的突破和创新。(综合自多份)
6. 具身智能
将大模型的大脑装入机器人的身体。未来的机器人不再是只会重复动作的机械臂,而是能听懂自然语言指令、在复杂环境中自主行动的助手(如特斯拉的Optimus)。(保留自预习通识稿)
二、中国AI发展特色(保留自学习稿)
国产大模型进展:
-
百度文心一言:最早发布,持续迭代
-
阿里通义千问:开源生态活跃,Qwen系列全球受欢迎
-
字节豆包:C端应用创新,语音交互领先
-
DeepSeek:技术硬核,成本极低,全球开源社区影响力大
-
智谱GLM:学术背景深厚,Agent能力突出
应用创新优势:
-
庞大用户基数推动场景创新
-
电商、短视频、社交领域AI应用全球领先
-
制造业AI质检、农业AI监测等实体经济融合
政策与治理:
-
《生成式人工智能服务管理暂行办法》规范行业发展
-
强调数据安全、算法备案、内容合规
-
算力基础设施建设加速
三、AI伦理、安全与人的定位(综合自多份)
随着AI技术的广泛应用,人工智能的伦理与安全问题越来越受到关注。
-
版权争议:AI生成的画作版权归谁?训练数据是否侵犯了原作者权益?
-
就业影响:重复性、规则性的工作将被替代,但具备创造力、同理心和复杂决策能力的工作将更加珍贵。
-
算法偏见:AI可能会继承训练数据中的偏见(如性别、种族歧视),我们需要保持警惕,做技术的主人而非奴隶。
-
幻觉问题:大模型可能自信地给出错误答案,你需要学会验证。
-
不可替代的能力:提出好问题的能力、跨领域联想能力、情感共鸣能力------这些仍然是人类的领地。
AI的"对齐问题"、幻觉缓解、数据隐私、版权争议以及对社会就业结构的潜在影响,需要我们培养作为一名负责任的AI创变者的科技伦理观。(综合自多份)
四、未来展望与职业建议(综合自学习稿)
短期(1-2年):
-
Agent成为主流交互方式
-
AI编程助手普及,开发效率翻倍
-
垂直领域专用模型成熟
中期(3-5年):
-
具身智能(机器人)突破
-
AI科学家辅助重大科研发现
-
个性化AI伴侣/助手常态化
长期(5-10年):
-
通用人工智能(AGI)可能性讨论
-
人机协作社会形态演变
-
伦理、法律、经济体系重构
对学习者的建议:
-
技术层:掌握Python、LLM API调用、RAG、Agent框架
-
应用层:深入一个垂直领域,理解业务痛点
-
思维层:培养AI思维,学会用AI解决问题
-
伦理层:关注AI安全、偏见、隐私问题
给学习者的行动建议(保留自预习课程稿):
-
每周至少亲手配置一个AI小工具(哪怕只有10行提示词)
-
关注AI领域的"开源模型"和"轻量级框架",不必只依赖付费大厂API
-
建立自己的"AI工具箱"文档,记录哪些任务适合用AI完成,哪些不适合
第六部分:课程总结与展望
通过这门课,你将不再是AI的被动消费者,而是AI的主动设计者。你了解了AI从哪里来、大模型能做什么、智能体如何思考,并且亲手制作了属于自己的AI项目。更重要的是,你获得了持续学习AI的能力------因为在这个领域,今天的"前沿"可能在半年后就成为"常识"。(综合自多份)
在AI时代,最重要的能力不再是记忆知识,而是提问的能力 、鉴别信息的能力 以及整合资源解决问题的能力。(保留自预习通识稿)
最后的鼓励:AI不会替代你,但会用AI的人可能会。而今天,你正在成为那个人。(保留自预习课程稿)
带着以下问题进入课堂,你将收获更多(保留自预习通识稿):
-
我所在的行业,哪些环节可以被AI重构?
-
如何构建一个属于我个人的、能长期使用的专属智能体?
-
在AI辅助下,我如何从繁琐的工作中解脱出来,去从事更具创造性的活动?
最终成果预期 (保留自深度全景预习稿):
完成本课程后,你收获的将不仅仅是:
-
一个属于你自己的、可运行的AI智能体应用原型(你的"毕业作品")
-
一套理解、评估和探讨AI技术的基本框架
-
一份将AI思维应用于自身领域,提出创新解决方案的初步能力
祝你在「科技探索」AI科技应用课中学有所获,玩得开心!
附录:学习资源推荐(保留自学习稿)
官方文档
-
OpenAI API文档:platform.openai.com
-
LangChain文档:python.langchain.com
-
扣子Coze文档:www.coze.cn
在线课程
-
DeepLearning.AI《LangChain for LLM Application Development》
-
吴恩达《AI For Everyone》
实践平台
-
扣子Coze:快速搭建Bot
-
Dify:开源LLM应用平台
-
Hugging Face:模型与数据集社区
社区与资讯
-
机器之心、量子位(中文AI媒体)
-
Paper With Code(最新论文与代码)
-
GitHub Trending(热门开源项目)