当我还在上大学时,2010 ~ 2014 年,当时的机器学习,略显枯燥,我依稀记得,似乎最多的就是基于标注的识别能力(苹果,香蕉,梨),以及将一句话进行分词,比如我喜欢吃苹果和香蕉,能够分成我,喜欢,吃,苹果,和,香蕉,那时的我是很不屑的,觉得这不妥妥的人工智障嘛,可是太无聊了。
虽然我觉得无聊,可是实际上有一些人抓住了这一波的机会(当然是在比2010年更早的时候,可能2005年左右),举个例子,车牌识别,可能当时的红绿灯系统并没有统一的标准,很多地方安了红绿灯和摄像头需要人工识别哪些号牌违章了,这个场景用机器学习就特别的合适。一套系统在那个年代卖几w元,还是相当舒服的。
虽然没有考究过,但我主观的认为,例如扫描全能王之类的ocr识别软件,就是基于有一定壁垒的数据训练和精心调制了这么多年的算法,在当今依然能够赚的盆满钵满。
直到 ChatGPT 出现前,主流的机器学习我认为一直还是以学习与推理为主的,比如 2016 年惊艳一时的 AlphaGo,击败了李世石,后面又击败了柯洁。后面 ai 圈仿佛就沉寂了,科技界都是搞什么区块链,web3,元宇宙。不过这几个技术我也是一头雾水的,我成功在需要大量互联网的开发人员的时候,搭上了班车,通过了10年的开发,也仅仅是学会了全栈开发,诸如linux部署,nignx,前后端开发,数据库,redis 等。
再次聊到机器学习,AI,我只觉得时间过的好快,我对 AI 的认识依然肤浅的可怕。
我分不清,机器学习,深度学习,卷积网络,神经网络,CNN ,RNN ,transformer,NLP,CV 到底什么是什么,他们是交叉的,还是包含的,这波大火的 AIGC 们到底利用了这其中的几层功力。
种下一棵树,最好的时间是 10 年前,其次是当下,那就话不多说,开始学习吧,先来了解下 AI 里面的一些术语和里程碑事件吧。
一、AI 发展里程碑(部分)
阶段 | 架构 | 核心贡献 | 主要缺陷 |
---|---|---|---|
1943 | MP 理论 | 最早的神经元模型 | 只能处理简单的逻辑运算 |
1958 | 感知机 | 可以学习权重 | 仍然无法处理非线性问题 |
1980s | MLP | 通过隐藏层处理非线性问题 | 训练难、梯度消失 |
1990s | RNN | 可以处理序列数据 | 梯度消失、训练慢 |
1997 | LSTM | 解决梯度消失问题 | 仍然是逐步计算,训练慢 |
2014 | CNN(在 NLP) | 计算效率高,可并行 | 不能处理长序列 |
2014 | 注意力机制 | 让模型关注重要信息 | 仍然依赖 RNN |
2017 | Transformer | 彻底抛弃 RNN,全并行计算 | 计算复杂度较高 |
2018-2023 | GPT/BERT | 预训练大模型 | 计算资源需求高 |
PS:1. 列表呈现的主要是处理 NLP (自然语言)领域的,很多重要的计算机视觉处理架构(如 GAN),不在其中。
- CNN 很早就有了,在 NLP(自然语言处理) 领域是 2014 年开始使用的
二、架构演变
我们用一个"门卫判断是否放行"的场景,贯穿 MP 理论到 Transformer 架构的整个演进过程,看看每一代架构是如何改进这个任务的。
🔹 场景设定:
门卫需要根据访客的特征(如姓名、衣着、通行证等)判断是否放行。不同模型会以不同方式处理这个任务。
1️⃣ MP(1943) 🏛️
规则:
访客有通行证 ✅ → 放行
访客没有通行证 ❌ → 拦住
特点:只能做简单的二分类判断(YES or NO)。
不能学习,只能手工设定规则(类似于 if-else)。
例如:门卫只能检查是否持有通行证,不能根据其他条件(如衣着、行为)做出复杂决策。
❌ 局限性:
- 如果有 VIP 访客但忘带通行证,MP 也会拒绝,不能灵活调整。
- 不能适应新情况,比如一个熟悉的访客但无通行证。
2️⃣ 感知机(1958) 🏛️
规则:
访客有通行证 ✅ → +1 分
访客穿着整洁 ✅ → +1 分
访客是门卫认识的人 ✅ → +1 分
总分 ≥ 1:放行,否则拦住。
特点:权重可学习 ,但仍然是线性分类器(无法处理复杂的多层逻辑)。
例如:可以区分"有通行证的普通人"和"没有通行证但穿着整洁且熟悉的访客"。
❌ 局限性:
- 仍然无法处理非线性情况,如:"VIP 访客必须同时满足熟悉和穿着整洁,否则不能放行。"
3️⃣ 多层感知机(MLP, 1980s) 🏛️
规则:
访客有通行证 ✅ → +2 分
访客穿着整洁 ✅ → +1 分
访客是 VIP ✅ → +3 分
访客行为可疑 ❌ → -2 分
通过
隐藏层计算更复杂的条件
,比如:
- 如果是 VIP,即使行为稍微可疑,也可能被放行。
- 如果是普通访客但衣着得体 + 有通行证 → 也可能放行。
特点:可以通过隐藏层 学习非线性关系。
适用于更复杂的放行规则。
❌ 局限性:
- 仍然只能处理静态输入,比如无法记住访客的历史行为。
- 计算每个访客时是独立的,不会参考之前放行的访客。
4️⃣ RNN(1980s-1990s) 🏛️
规则:
访客今天表现良好,但上周曾经试图闯入 ❌ → 需要特别检查。
访客之前多次正常通行 ✅ → 更容易获得放行。
特点:可以记住访客的历史行为(短期记忆)。
适用于时间序列数据,比如"这个人之前是否来过?"
例如:如果某人过去几次来访时都表现正常,门卫可能会更放心地让他通过。
❌ 局限性:
- 记忆能力有限,只能记住近期信息,长时间的信息容易丢失(梯度消失问题)。
- 仍然是逐步处理,每次判断都依赖前一步的计算,计算效率低。
5️⃣ LSTM(1997) 🏛️
规则:
访客过去 6 个月的行为都会被记录(长期记忆)。
如果访客 3 个月前有可疑行为,但最近一直守规矩,门卫可能仍然允许放行。
特点:长期记忆能力,能够保存更长时间的访客信息。
例如:一个访客曾经多次试图违规,但最近 10 次表现正常,LSTM 可能会允许他通过,而 RNN 可能已经遗忘过去的信息。
❌ 局限性:
- 计算效率仍然低,无法并行计算,处理多个访客时仍然慢。
6️⃣ Transformer(2017) 🏛️
规则:
访客的所有历史行为 一次性 处理,无需依赖逐步计算。
门卫可以同时考虑多个访客的行为模式,而不是单独判断每个人。
例如:
- 某人 A 过去表现正常,但今天突然和一个可疑访客 B 结伴出现 → 可能要特别检查。
- 门卫可以分析所有访客的模式,发现一群人经常在相同时间出入,可能存在团伙作案的风险。
特点:自注意力机制(Self-Attention) :可以同时分析所有访客,不受时间顺序限制。
并行计算,比 RNN/LSTM 处理速度快得多。
长距离依赖:可以看到很久之前的访客行为,而不会遗忘。
✅ 优势:
- 可以同时分析所有访客的行为模式,不仅是个体行为,而是全局性分析。
- 适用于复杂场景,比如机场安检、海关检查等大规模安全分析。
🔹 总结:模型能力对比
架构 | 是否能处理非线性逻辑? | 是否能记住历史访客? | 是否能并行处理多个访客? |
---|---|---|---|
MP | ❌ 只能做简单二分类 | ❌ 记不住 | ✅ 并行(但能力极弱) |
感知机 | ❌ 只能线性分类 | ❌ 记不住 | ✅ 并行 |
MLP | ✅ 复杂非线性逻辑 | ❌ 记不住 | ✅ 并行 |
RNN | ✅ 复杂非线性逻辑 | ✅ 但记忆力差 | ❌ 只能顺序处理 |
LSTM | ✅ 复杂非线性逻辑 | ✅ 长期记忆 | ❌ 只能顺序处理 |
Transformer | ✅ 复杂非线性逻辑 | ✅ 长期记忆 | ✅ 并行处理多个访客 |
🔹 结论
门卫的放行逻辑,从 MP 时代的"看有没有通行证"这种简单判断,逐步演变到 Transformer 时代的"全局分析访客行为模式",反映了AI 从线性到非线性,从短期记忆到长期记忆,从单线程到并行计算的发展过程。
如果未来 AI 门卫采用 Transformer,它甚至可以预测可能发生的安全风险,主动调整放行规则,比如:
- 某个时间段访客行为异常增多,可能有风险 → 提高检查力度。
- 一群可疑人物频繁靠近大楼入口但不进入 → 可能有踩点嫌疑。
🚀 从 MP 到 Transformer,不只是让"门卫更智能",而是让 AI 具备真正的推理和预测能力!
三、学习感受
翻阅了一些资料,也用 ai 提出了一些有疑惑的问题,自我判断以上大部分应该说的还是比较准确的,但因为本人确实是 ai 领域的小白,所以也不具备纠错的能力,大家可以甄别的看。
可能有些激进的做法是直接学习 transformer
,因为目前火热的 aigc
们都是基于 transformer
架构开发的。但是我也是怕一口吃不成一个胖子,还是慢慢的学习吧,循序渐进,可能也会有不同的体会。
习惯编程的人阅读上面的案例可能有一种这样的感受,在 transformer
前,所有的机器学习,都能用编码实现,不管是最简单MP,直接用 if else,还是后面复杂的判断时间序列上的行为,可以用数据库存储+逻辑判断。但是如果不从机器学习的角度去思考怎么实现,那依旧依靠的是人脑智能,而非人工智能。
整个学习的过程中,我认为编码会占一定的比重,这也是我最熟悉的部分,但是应用和如何更好的使用,也会在我的关注范围里,在 AI 的学习里,我不只想把自己定义为一个程序员,而是作为一个使用者。
我让豆包给我制定了一个90天的学习计划。
四、学习计划
我准备每天花6个小时的时间来进行学习和写作,有些内容可能可以合并,有些内容可能太难需要不止1天的时间,希望经过系统的学习后,我对AI的认识可以上一个台阶。
天数 | 学习内容 | 要点 |
---|---|---|
1 | 了解 AI 基本概念,如什么是人工智能、AI 的发展历程重大里程碑事件 | 从学术研究角度,阐述 AI 概念的起源与演变,结合早期图灵测试等经典理论,说明 AI 发展不同阶段标志性成果的意义 |
2 | 认识 AI 基础术语,如机器学习、深度学习、神经网络 | 详细讲解各术语的学术定义,对比机器学习中监督学习、无监督学习等不同范式,引用经典论文中对这些术语的界定 |
3 | 学习搭建简单 AI 开发环境,如安装 Python 及相关 AI 库 | 指导小白选择合适的 AI 库,依据学术研究中对不同库应用场景的分析,讲解 TensorFlow、PyTorch 等库在不同研究方向的优势 |
4 | 学习传统机器学习基础算法原理,如线性回归 | 深入剖析线性回归算法数学原理,引用统计学领域经典研究成果,说明其在数据建模中的作用及局限性 |
5 | 通过实践案例理解线性回归算法应用 | 结合实际数据集,指导小白运用线性回归解决预测问题,参考学术论文中案例分析方法,评估模型性能指标 |
6 | 学习逻辑回归算法 | 讲解逻辑回归在分类问题中的应用,从数学推导层面解释其与线性回归的联系与区别,引用相关学术文献结论 |
7 | 用逻辑回归完成简单分类任务 | 分析不同评估指标在逻辑回归模型中的适用性,依据学术研究中对模型评估的标准,指导小白优化模型 |
8 | 学习决策树算法 | 介绍决策树构建原理,引用信息论中熵等概念,说明决策树如何通过信息增益等准则进行节点分裂 |
9 | 实践决策树算法并进行调优 | 结合实际案例,参考学术研究中决策树调优策略,如剪枝操作等,指导小白提升决策树模型性能 |
10 | 对比传统机器学习算法优缺点 | 从学术研究成果出发,对比线性回归、逻辑回归、决策树等算法在不同数据规模、数据特征下的表现 |
11 | 学习深度学习基础,了解神经网络结构 | 讲解神经网络基本组成单元神经元,介绍前馈神经网络结构,引用早期神经网络研究经典文献 |
12 | 学习神经网络反向传播算法原理 | 深入剖析反向传播算法数学推导过程,从学术研究角度说明其在神经网络训练中的核心作用 |
13 | 搭建简单神经网络模型解决分类问题 | 指导小白使用框架搭建模型,依据学术研究中对模型超参数设置的经验,帮助小白确定合适的超参数 |
14 | 学习卷积神经网络(CNN)基础 | 讲解 CNN 中卷积层、池化层等结构设计原理,引用图像识别领域经典 CNN 模型研究成果 |
15 | 利用 CNN 进行图像分类实践 | 结合实际图像数据集,参考学术论文中 CNN 模型训练技巧,指导小白训练 CNN 模型 |
16 | 学习循环神经网络(RNN)及 LSTM | 介绍 RNN 处理序列数据原理,讲解 LSTM 如何解决 RNN 梯度消失问题,引用自然语言处理领域相关研究 |
17 | 用 RNN 或 LSTM 处理文本序列数据 | 指导小白基于文本数据构建 RNN 或 LSTM 模型,依据学术研究中对文本预处理方法的探讨,帮助小白优化数据处理 |
18 | 对比传统机器学习与深度学习应用场景 | 从学术研究成果出发,分析在不同任务如语音识别、图像生成等场景下,传统机器学习与深度学习的适用性 |
19 | 学习 AI 写作基础,了解语言模型原理 | 介绍基于 Transformer 架构的语言模型,如 GPT 系列,讲解自注意力机制在其中的作用,引用相关学术论文 |
20 | 使用简单语言模型进行文本生成实践 | 指导小白调用 API 进行文本生成,依据学术研究中对文本生成质量评估指标,帮助小白评估生成结果 |
21 | 学习 AI 写作优化技巧,如提示词优化 | 结合学术研究中对提示工程的探讨,指导小白如何设计更有效的提示词,提升语言模型生成文本质量 |
22 | 学习 AI 绘画基础,了解生成对抗网络(GAN)原理 | 讲解 GAN 中生成器与判别器对抗训练机制,引用计算机视觉领域关于 GAN 的经典研究 |
23 | 使用 AI 绘画工具进行创作实践 | 指导小白选择合适的 AI 绘画工具,依据学术研究中对不同风格绘画生成模型的分析,帮助小白生成特定风格画作 |
24 | 学习 AI 绘画风格迁移技术 | 介绍风格迁移算法原理,引用相关学术论文中对风格特征提取与融合的研究,指导小白进行风格迁移实践 |
25 | 学习 AI 视频基础,了解视频生成模型原理 | 讲解基于深度学习的视频生成模型,如 VQ - VAE 等,引用多媒体领域相关研究成果 |
26 | 使用 AI 视频工具生成简单视频 | 指导小白使用 AI 视频工具,依据学术研究中对视频生成质量评估方法,帮助小白提升视频生成效果 |
27 | 学习 AI 视频编辑技巧,如视频剪辑、特效添加 | 结合学术研究中对视频内容编辑的算法研究,指导小白利用 AI 进行视频后期处理 |
28 | 学习 AI 编程基础,了解代码生成模型 | 介绍基于 Transformer 架构的代码生成模型,如 Codex,讲解其在代码生成任务中的应用,引用软件工程领域相关研究 |
29 | 使用 AI 编程工具辅助开发 | 指导小白使用 AI 编程工具,依据学术研究中对代码生成准确性和效率的评估,帮助小白提升开发效率 |
30 | 学习利用 AI 进行代码优化与调试 | 结合学术研究中对代码优化算法的研究,指导小白利用 AI 工具进行代码优化和调试 |
31 | 深入学习 AI 基础数学知识,如概率论在 AI 中的应用 | 从学术研究角度,讲解概率论中贝叶斯定理等在 AI 模型不确定性估计等方面的应用,引用相关论文 |
32 | 学习线性代数在 AI 中的应用,如矩阵运算 | 结合神经网络中权重矩阵等应用,讲解线性代数中矩阵运算等知识,引用深度学习算法中数学原理的研究 |
33 | 学习最优化方法在 AI 模型训练中的应用 | 介绍梯度下降等优化算法,从数学原理层面深入分析,引用机器学习优化算法研究文献 |
34 | 学习传统机器学习中的集成学习方法,如随机森林 | 讲解随机森林构建原理,从学术研究角度分析其在提高模型泛化能力方面的优势,引用相关研究成果 |
35 | 实践随机森林算法并与其他算法对比 | 指导小白进行实验,对比随机森林与其他算法性能,依据学术研究中对算法对比实验的标准,分析结果 |
36 | 学习提升树算法,如 Adaboost、GBDT | 深入讲解 Adaboost、GBDT 算法原理,引用机器学习集成学习领域相关学术论文 |
37 | 用提升树算法解决实际问题 | 指导小白应用提升树算法,结合学术研究中对提升树调优的方法,帮助小白优化模型 |
38 | 学习聚类算法,如 K-Means | 讲解 K-Means 算法原理,从数据分布角度分析其适用场景,引用聚类分析领域学术研究 |
39 | 实践 K-Means 算法并进行结果评估 | 指导小白进行 K-Means 聚类实验,依据学术研究中对聚类结果评估指标,帮助小白分析聚类效果 |
40 | 学习密度聚类算法,如 DBSCAN | 介绍 DBSCAN 算法原理,对比其与 K-Means 在处理不同形状数据簇方面的优势,引用相关学术研究 |
41 | 用 DBSCAN 算法处理实际数据集 | 结合实际数据集,指导小白运用 DBSCAN 算法,依据学术研究中对 DBSCAN 参数设置的经验,优化算法 |
42 | 对比不同聚类算法优缺点及应用场景 | 从学术研究成果出发,全面分析 K-Means、DBSCAN 等聚类算法在不同数据特点下的表现及适用场景 |
43 | 深入学习深度学习中的注意力机制 | 讲解 Transformer 架构中自注意力机制变体,如多头注意力机制,引用相关学术论文中对注意力机制改进的研究 |
44 | 学习 Transformer 架构在自然语言处理中的多种应用 | 介绍 BERT 等模型在文本分类、问答系统等任务中的应用,引用自然语言处理领域相关研究成果 |
45 | 实践基于 Transformer 的自然语言处理任务 | 指导小白基于预训练模型进行任务微调,依据学术研究中对模型微调策略的探讨,提升模型性能 |
46 | 学习 Transformer 架构在计算机视觉中的应用,如 Vision Transformer(ViT) | 讲解 ViT 将 Transformer 应用于图像领域的创新点,引用计算机视觉领域相关研究 |
47 | 用 ViT 进行图像分类等任务实践 | 结合图像数据集,指导小白训练 ViT 模型,依据学术研究中对 ViT 模型优化的方法,提升模型效果 |
48 | 对比 Transformer 在自然语言处理与计算机视觉应用中的异同 | 从学术研究角度,分析 Transformer 在不同领域应用时结构设计、训练方法等方面的异同 |
49 | 学习生成式 AI 中的变分自编码器(VAE)原理 | 讲解 VAE 中编码器与解码器结构及变分推断原理,引用生成式模型领域相关学术论文 |
50 | 用 VAE 进行图像生成等实践 | 指导小白搭建 VAE 模型进行图像生成实验,依据学术研究中对 VAE 模型评估指标,分析生成结果 |
51 | 学习扩散模型原理,如 DDPM | 深入剖析 DDPM 等扩散模型数学原理,从数据生成角度讲解其创新之处,引用相关学术研究 |
52 | 使用扩散模型进行图像生成实践 | 指导小白使用扩散模型相关工具,依据学术研究中对扩散模型生成效果优化方法,提升图像质量 |
53 | 对比 VAE、GAN、扩散模型在图像生成方面的优缺点 | 从学术研究成果出发,全面对比不同生成式模型在图像生成任务中的性能、生成质量等方面的差异 |
54 | 学习 AI 写作中的文本摘要技术 | 介绍基于抽取式和生成式的文本摘要方法,引用自然语言处理领域关于文本摘要研究成果 |
55 | 实践基于 AI 的文本摘要任务 | 指导小白使用相关工具或模型进行文本摘要,依据学术研究中对文本摘要质量评估指标,优化摘要结果 |
56 | 学习 AI 写作中的情感分析技术 | 讲解情感分析算法原理,如基于机器学习和深度学习的方法,引用自然语言处理领域相关研究 |
57 | 用 AI 进行文本情感分析实践 | 指导小白基于文本数据集训练情感分析模型,依据学术研究中对情感分析模型评估方法,提升模型准确率 |
58 | 学习 AI 绘画中的 3D 模型生成技术基础 | 介绍基于深度学习的 3D 模型生成方法,如基于体素、点云等表示的生成模型,引用计算机图形学领域相关研究 |
59 | 了解 AI 绘画与 3D 建模结合应用案例 | 结合实际案例,讲解 AI 绘画在 3D 建模前期概念设计等方面的应用,参考学术研究中对跨领域应用的分析 |
60 | 学习 AI 视频中的目标检测与跟踪技术 | 讲解基于深度学习的目标检测与跟踪算法,如 YOLO 系列、SORT 等,引用计算机视觉领域相关研究成果 |
61 | 实践 AI 视频目标检测与跟踪任务 | 指导小白使用相关工具或模型进行视频目标检测与跟踪,依据学术研究中对检测与跟踪性能评估指标,优化结果 |
62 | 学习 AI 视频中的视频超分辨率技术 | 介绍基于深度学习的视频超分辨率算法原理,引用多媒体领域相关研究 |
63 | 用 AI 实现视频超分辨率处理 | 指导小白使用 AI 工具进行视频超分辨率处理,依据学术研究中对视频超分辨率效果评估方法,提升视频质量 |
64 | 学习 AI 编程中的代码理解与重构技术 | 介绍基于 AI 的代码理解模型,如 CodeBERT 在代码重构任务中的应用,引用软件工程领域相关研究 |
65 | 实践 AI 辅助代码重构 | 指导小白利用 AI 工具进行代码重构,依据学术研究中对代码重构质量评估方法,优化代码 |
66 | 学习 AI 编程中的自动化测试技术 | 讲解基于 AI 的自动化测试工具原理,如利用机器学习生成测试用例,引用软件工程领域相关研究 |
67 | 用 AI 进行自动化测试实践 | 指导小白使用 AI 自动化测试工具,依据学术研究中对测试用例覆盖率等评估指标,提升测试效果 |
68 | 学习 AI 伦理与安全相关知识,如数据隐私问题 | 从学术研究角度,讲解 AI 数据收集、使用过程中的隐私保护原则,引用相关伦理研究文献 |
69 | 学习 AI 算法偏见与公平性问题 | 介绍 AI 算法中偏见产生原因及对公平性影响,引用机器学习公平性领域相关研究成果 |
70 | 探讨 AI 在不同行业应用中的伦理与安全挑战 | 结合医疗、金融等行业,分析 AI 应用面临的伦理与安全问题,参考学术研究中对行业应用风险的分析 |
71 | 学习 AI 模型压缩与加速技术基础 | 讲解模型剪枝、量化等压缩技术原理,引用深度学习模型优化领域相关学术论文 |
72 | 实践 AI 模型压缩操作 | 指导小白对已训练模型进行压缩,依据学术研究中对模型压缩后性能评估方法,平衡模型大小与性能 |
73 | 学习 AI 模型部署技术,如在移动端部署 | 介绍将 AI 模型部署到移动端的流程与技术,如 TensorFlow Lite 等,引用相关研究成果 |
74 | 将简单 AI 模型部署到移动端实践 | 指导小白进行模型移动端部署,依据学术研究中对移动端模型性能优化方法,提升部署效果 |
75 | 学习联邦学习基础概念与原理 | 讲解联邦学习在保护数据隐私前提下协同训练模型的机制,引用分布式机器学习领域相关研究 |
76 | 了解联邦学习应用场景与案例 | 结合医疗、金融等行业案例,分析联邦学习应用优势,参考学术研究中对行业应用的分析 |
77 | 学习强化学习基础概念与原理 | 介绍强化学习中智能体、环境、奖励等要素,讲解 Q 学习、深度 Q 网络等算法,引用强化学习领域相关学术论文 |
78 | 实践简单强化学习任务 | 指导小白基于强化学习环境进行任务训练,依据学术研究中对强化学习算法评估指标,优化训练效果 |
79 | 学习强化学习在机器人控制等领域应用 | 结合机器人控制案例,讲解强化学习在动态环境决策中的应用,引用相关研究成果 |
80 | 学习多模态 AI 基础,如融合文本与图像信息 | 介绍多模态融合方法,如早期拼接、注意力机制融合等,引用多模态学习领域相关学术研究 |
81 | 实践多模态 AI 任务,如图文检索 | 指导小白搭建多模态图文检索模型,依据学术研究中对多模态任务评估指标,提升模型性能 |
82 | 学习多模态 AI 在智能客服等场景应用 | 结合智能客服案例,分析多模态 AI 在提升用户体验方面的优势,参考学术研究中对行业应用的分析 |
83 | 学习 AI 可解释性相关知识,如解释神经网络决策 | 介绍基于特征重要性分析、可视化等可解释性方法,引用人工智能可解释性领域相关研究成果 |
84 | 实践对简单 AI 模型进行可解释性分析 | 指导小白使用可解释性工具对模型进行分析,依据学术研究中对可解释性评估标准,理解模型决策过程 |
85 | 学习 AI 与物联网结合应用案例与技术 | 讲解 AI 在物联网设备数据处理、智能决策等方面应用,引用物联网与 AI 融合领域相关研究 |
86 | 学习 AI 与区块链结合应用案例与技术 | 介绍区块链在保障 AI 数据安全、模型版权等方面应用,引用区块链与 AI 融合领域相关研究成果 |
87 | 回顾总结前 86 天学习内容,梳理知识体系 | 帮助小白构建完整 AI 知识框架,从学术研究角度强调各知识点联系与应用场景 |
88 | 进行综合项目实践,如结合 AI 多种技术开发智能应用 | 指导小白确定项目方案,依据学术研究中对综合项目开发流程与方法,协助小白完成项目设计 |
89 | 项目开发与优化 | 在项目开发过程中,依据学术研究中对项目技术选型、性能优化等方面的经验,指导小白解决遇到的问题 |
90 | 项目总结与成果展示 | 指导小白总结项目经验,从学术研究成果展示角度,帮助小白整理项目文档与成果汇报材料 |