AI 学习之路(一)- 重新认识 AI

当我还在上大学时,2010 ~ 2014 年,当时的机器学习,略显枯燥,我依稀记得,似乎最多的就是基于标注的识别能力(苹果,香蕉,梨),以及将一句话进行分词,比如我喜欢吃苹果和香蕉,能够分成我,喜欢,吃,苹果,和,香蕉,那时的我是很不屑的,觉得这不妥妥的人工智障嘛,可是太无聊了。

虽然我觉得无聊,可是实际上有一些人抓住了这一波的机会(当然是在比2010年更早的时候,可能2005年左右),举个例子,车牌识别,可能当时的红绿灯系统并没有统一的标准,很多地方安了红绿灯和摄像头需要人工识别哪些号牌违章了,这个场景用机器学习就特别的合适。一套系统在那个年代卖几w元,还是相当舒服的。

虽然没有考究过,但我主观的认为,例如扫描全能王之类的ocr识别软件,就是基于有一定壁垒的数据训练和精心调制了这么多年的算法,在当今依然能够赚的盆满钵满。

直到 ChatGPT 出现前,主流的机器学习我认为一直还是以学习与推理为主的,比如 2016 年惊艳一时的 AlphaGo,击败了李世石,后面又击败了柯洁。后面 ai 圈仿佛就沉寂了,科技界都是搞什么区块链,web3,元宇宙。不过这几个技术我也是一头雾水的,我成功在需要大量互联网的开发人员的时候,搭上了班车,通过了10年的开发,也仅仅是学会了全栈开发,诸如linux部署,nignx,前后端开发,数据库,redis 等。

再次聊到机器学习,AI,我只觉得时间过的好快,我对 AI 的认识依然肤浅的可怕。

我分不清,机器学习,深度学习,卷积网络,神经网络,CNN ,RNN ,transformer,NLP,CV 到底什么是什么,他们是交叉的,还是包含的,这波大火的 AIGC 们到底利用了这其中的几层功力。

种下一棵树,最好的时间是 10 年前,其次是当下,那就话不多说,开始学习吧,先来了解下 AI 里面的一些术语和里程碑事件吧。

一、AI 发展里程碑(部分)

阶段 架构 核心贡献 主要缺陷
1943 MP 理论 最早的神经元模型 只能处理简单的逻辑运算
1958 感知机 可以学习权重 仍然无法处理非线性问题
1980s MLP 通过隐藏层处理非线性问题 训练难、梯度消失
1990s RNN 可以处理序列数据 梯度消失、训练慢
1997 LSTM 解决梯度消失问题 仍然是逐步计算,训练慢
2014 CNN(在 NLP) 计算效率高,可并行 不能处理长序列
2014 注意力机制 让模型关注重要信息 仍然依赖 RNN
2017 Transformer 彻底抛弃 RNN,全并行计算 计算复杂度较高
2018-2023 GPT/BERT 预训练大模型 计算资源需求高

PS:1. 列表呈现的主要是处理 NLP (自然语言)领域的,很多重要的计算机视觉处理架构(如 GAN),不在其中。

  1. CNN 很早就有了,在 NLP(自然语言处理) 领域是 2014 年开始使用的

二、架构演变

我们用一个"门卫判断是否放行"的场景,贯穿 MP 理论到 Transformer 架构的整个演进过程,看看每一代架构是如何改进这个任务的。


🔹 场景设定:

门卫需要根据访客的特征(如姓名、衣着、通行证等)判断是否放行。不同模型会以不同方式处理这个任务。


1️⃣ MP(1943) 🏛️

规则:

  • 访客有通行证 ✅ → 放行

  • 访客没有通行证 ❌ → 拦住
    特点:

  • 只能做简单的二分类判断(YES or NO)。

  • 不能学习,只能手工设定规则(类似于 if-else)。

  • 例如:门卫只能检查是否持有通行证,不能根据其他条件(如衣着、行为)做出复杂决策。

局限性:

  • 如果有 VIP 访客但忘带通行证,MP 也会拒绝,不能灵活调整。
  • 不能适应新情况,比如一个熟悉的访客但无通行证。

2️⃣ 感知机(1958) 🏛️

规则:

  • 访客有通行证 ✅ → +1 分

  • 访客穿着整洁 ✅ → +1 分

  • 访客是门卫认识的人 ✅ → +1 分

  • 总分 ≥ 1:放行,否则拦住。
    特点:

  • 权重可学习 ,但仍然是线性分类器(无法处理复杂的多层逻辑)。

  • 例如:可以区分"有通行证的普通人"和"没有通行证但穿着整洁且熟悉的访客"。

局限性:

  • 仍然无法处理非线性情况,如:"VIP 访客必须同时满足熟悉和穿着整洁,否则不能放行。"

3️⃣ 多层感知机(MLP, 1980s) 🏛️

规则:

  • 访客有通行证 ✅ → +2 分

  • 访客穿着整洁 ✅ → +1 分

  • 访客是 VIP ✅ → +3 分

  • 访客行为可疑 ❌ → -2 分

  • 通过

    隐藏层计算更复杂的条件

    ,比如:

    • 如果是 VIP,即使行为稍微可疑,也可能被放行。
    • 如果是普通访客但衣着得体 + 有通行证 → 也可能放行。
      特点:
  • 可以通过隐藏层 学习非线性关系

  • 适用于更复杂的放行规则。

局限性:

  • 仍然只能处理静态输入,比如无法记住访客的历史行为
  • 计算每个访客时是独立的,不会参考之前放行的访客

4️⃣ RNN(1980s-1990s) 🏛️

规则:

  • 访客今天表现良好,但上周曾经试图闯入 ❌ → 需要特别检查。

  • 访客之前多次正常通行 ✅ → 更容易获得放行。
    特点:

  • 可以记住访客的历史行为(短期记忆)。

  • 适用于时间序列数据,比如"这个人之前是否来过?"

  • 例如:如果某人过去几次来访时都表现正常,门卫可能会更放心地让他通过。

局限性:

  • 记忆能力有限,只能记住近期信息,长时间的信息容易丢失(梯度消失问题)。
  • 仍然是逐步处理,每次判断都依赖前一步的计算,计算效率低。

5️⃣ LSTM(1997) 🏛️

规则:

  • 访客过去 6 个月的行为都会被记录(长期记忆)。

  • 如果访客 3 个月前有可疑行为,但最近一直守规矩,门卫可能仍然允许放行。
    特点:

  • 长期记忆能力,能够保存更长时间的访客信息。

  • 例如:一个访客曾经多次试图违规,但最近 10 次表现正常,LSTM 可能会允许他通过,而 RNN 可能已经遗忘过去的信息。

局限性:

  • 计算效率仍然低,无法并行计算,处理多个访客时仍然慢。

6️⃣ Transformer(2017) 🏛️

规则:

  • 访客的所有历史行为 一次性 处理,无需依赖逐步计算。

  • 门卫可以同时考虑多个访客的行为模式,而不是单独判断每个人。

  • 例如:

    • 某人 A 过去表现正常,但今天突然和一个可疑访客 B 结伴出现 → 可能要特别检查。
    • 门卫可以分析所有访客的模式,发现一群人经常在相同时间出入,可能存在团伙作案的风险。
      特点:
  • 自注意力机制(Self-Attention) :可以同时分析所有访客,不受时间顺序限制

  • 并行计算,比 RNN/LSTM 处理速度快得多。

  • 长距离依赖:可以看到很久之前的访客行为,而不会遗忘。

优势:

  • 可以同时分析所有访客的行为模式,不仅是个体行为,而是全局性分析。
  • 适用于复杂场景,比如机场安检、海关检查等大规模安全分析。

🔹 总结:模型能力对比

架构 是否能处理非线性逻辑? 是否能记住历史访客? 是否能并行处理多个访客?
MP ❌ 只能做简单二分类 ❌ 记不住 ✅ 并行(但能力极弱)
感知机 ❌ 只能线性分类 ❌ 记不住 ✅ 并行
MLP ✅ 复杂非线性逻辑 ❌ 记不住 ✅ 并行
RNN ✅ 复杂非线性逻辑 ✅ 但记忆力差 ❌ 只能顺序处理
LSTM ✅ 复杂非线性逻辑 ✅ 长期记忆 ❌ 只能顺序处理
Transformer ✅ 复杂非线性逻辑 ✅ 长期记忆 ✅ 并行处理多个访客

🔹 结论

门卫的放行逻辑,从 MP 时代的"看有没有通行证"这种简单判断,逐步演变到 Transformer 时代的"全局分析访客行为模式",反映了AI 从线性到非线性,从短期记忆到长期记忆,从单线程到并行计算的发展过程。

如果未来 AI 门卫采用 Transformer,它甚至可以预测可能发生的安全风险,主动调整放行规则,比如:

  • 某个时间段访客行为异常增多,可能有风险 → 提高检查力度。
  • 一群可疑人物频繁靠近大楼入口但不进入 → 可能有踩点嫌疑。

🚀 从 MP 到 Transformer,不只是让"门卫更智能",而是让 AI 具备真正的推理和预测能力!

三、学习感受

翻阅了一些资料,也用 ai 提出了一些有疑惑的问题,自我判断以上大部分应该说的还是比较准确的,但因为本人确实是 ai 领域的小白,所以也不具备纠错的能力,大家可以甄别的看。

可能有些激进的做法是直接学习 transformer ,因为目前火热的 aigc 们都是基于 transformer 架构开发的。但是我也是怕一口吃不成一个胖子,还是慢慢的学习吧,循序渐进,可能也会有不同的体会。

习惯编程的人阅读上面的案例可能有一种这样的感受,在 transformer 前,所有的机器学习,都能用编码实现,不管是最简单MP,直接用 if else,还是后面复杂的判断时间序列上的行为,可以用数据库存储+逻辑判断。但是如果不从机器学习的角度去思考怎么实现,那依旧依靠的是人脑智能,而非人工智能。

整个学习的过程中,我认为编码会占一定的比重,这也是我最熟悉的部分,但是应用和如何更好的使用,也会在我的关注范围里,在 AI 的学习里,我不只想把自己定义为一个程序员,而是作为一个使用者。

我让豆包给我制定了一个90天的学习计划。

四、学习计划

我准备每天花6个小时的时间来进行学习和写作,有些内容可能可以合并,有些内容可能太难需要不止1天的时间,希望经过系统的学习后,我对AI的认识可以上一个台阶。

天数 学习内容 要点
1 了解 AI 基本概念,如什么是人工智能、AI 的发展历程重大里程碑事件 从学术研究角度,阐述 AI 概念的起源与演变,结合早期图灵测试等经典理论,说明 AI 发展不同阶段标志性成果的意义
2 认识 AI 基础术语,如机器学习、深度学习、神经网络 详细讲解各术语的学术定义,对比机器学习中监督学习、无监督学习等不同范式,引用经典论文中对这些术语的界定
3 学习搭建简单 AI 开发环境,如安装 Python 及相关 AI 库 指导小白选择合适的 AI 库,依据学术研究中对不同库应用场景的分析,讲解 TensorFlow、PyTorch 等库在不同研究方向的优势
4 学习传统机器学习基础算法原理,如线性回归 深入剖析线性回归算法数学原理,引用统计学领域经典研究成果,说明其在数据建模中的作用及局限性
5 通过实践案例理解线性回归算法应用 结合实际数据集,指导小白运用线性回归解决预测问题,参考学术论文中案例分析方法,评估模型性能指标
6 学习逻辑回归算法 讲解逻辑回归在分类问题中的应用,从数学推导层面解释其与线性回归的联系与区别,引用相关学术文献结论
7 用逻辑回归完成简单分类任务 分析不同评估指标在逻辑回归模型中的适用性,依据学术研究中对模型评估的标准,指导小白优化模型
8 学习决策树算法 介绍决策树构建原理,引用信息论中熵等概念,说明决策树如何通过信息增益等准则进行节点分裂
9 实践决策树算法并进行调优 结合实际案例,参考学术研究中决策树调优策略,如剪枝操作等,指导小白提升决策树模型性能
10 对比传统机器学习算法优缺点 从学术研究成果出发,对比线性回归、逻辑回归、决策树等算法在不同数据规模、数据特征下的表现
11 学习深度学习基础,了解神经网络结构 讲解神经网络基本组成单元神经元,介绍前馈神经网络结构,引用早期神经网络研究经典文献
12 学习神经网络反向传播算法原理 深入剖析反向传播算法数学推导过程,从学术研究角度说明其在神经网络训练中的核心作用
13 搭建简单神经网络模型解决分类问题 指导小白使用框架搭建模型,依据学术研究中对模型超参数设置的经验,帮助小白确定合适的超参数
14 学习卷积神经网络(CNN)基础 讲解 CNN 中卷积层、池化层等结构设计原理,引用图像识别领域经典 CNN 模型研究成果
15 利用 CNN 进行图像分类实践 结合实际图像数据集,参考学术论文中 CNN 模型训练技巧,指导小白训练 CNN 模型
16 学习循环神经网络(RNN)及 LSTM 介绍 RNN 处理序列数据原理,讲解 LSTM 如何解决 RNN 梯度消失问题,引用自然语言处理领域相关研究
17 用 RNN 或 LSTM 处理文本序列数据 指导小白基于文本数据构建 RNN 或 LSTM 模型,依据学术研究中对文本预处理方法的探讨,帮助小白优化数据处理
18 对比传统机器学习与深度学习应用场景 从学术研究成果出发,分析在不同任务如语音识别、图像生成等场景下,传统机器学习与深度学习的适用性
19 学习 AI 写作基础,了解语言模型原理 介绍基于 Transformer 架构的语言模型,如 GPT 系列,讲解自注意力机制在其中的作用,引用相关学术论文
20 使用简单语言模型进行文本生成实践 指导小白调用 API 进行文本生成,依据学术研究中对文本生成质量评估指标,帮助小白评估生成结果
21 学习 AI 写作优化技巧,如提示词优化 结合学术研究中对提示工程的探讨,指导小白如何设计更有效的提示词,提升语言模型生成文本质量
22 学习 AI 绘画基础,了解生成对抗网络(GAN)原理 讲解 GAN 中生成器与判别器对抗训练机制,引用计算机视觉领域关于 GAN 的经典研究
23 使用 AI 绘画工具进行创作实践 指导小白选择合适的 AI 绘画工具,依据学术研究中对不同风格绘画生成模型的分析,帮助小白生成特定风格画作
24 学习 AI 绘画风格迁移技术 介绍风格迁移算法原理,引用相关学术论文中对风格特征提取与融合的研究,指导小白进行风格迁移实践
25 学习 AI 视频基础,了解视频生成模型原理 讲解基于深度学习的视频生成模型,如 VQ - VAE 等,引用多媒体领域相关研究成果
26 使用 AI 视频工具生成简单视频 指导小白使用 AI 视频工具,依据学术研究中对视频生成质量评估方法,帮助小白提升视频生成效果
27 学习 AI 视频编辑技巧,如视频剪辑、特效添加 结合学术研究中对视频内容编辑的算法研究,指导小白利用 AI 进行视频后期处理
28 学习 AI 编程基础,了解代码生成模型 介绍基于 Transformer 架构的代码生成模型,如 Codex,讲解其在代码生成任务中的应用,引用软件工程领域相关研究
29 使用 AI 编程工具辅助开发 指导小白使用 AI 编程工具,依据学术研究中对代码生成准确性和效率的评估,帮助小白提升开发效率
30 学习利用 AI 进行代码优化与调试 结合学术研究中对代码优化算法的研究,指导小白利用 AI 工具进行代码优化和调试
31 深入学习 AI 基础数学知识,如概率论在 AI 中的应用 从学术研究角度,讲解概率论中贝叶斯定理等在 AI 模型不确定性估计等方面的应用,引用相关论文
32 学习线性代数在 AI 中的应用,如矩阵运算 结合神经网络中权重矩阵等应用,讲解线性代数中矩阵运算等知识,引用深度学习算法中数学原理的研究
33 学习最优化方法在 AI 模型训练中的应用 介绍梯度下降等优化算法,从数学原理层面深入分析,引用机器学习优化算法研究文献
34 学习传统机器学习中的集成学习方法,如随机森林 讲解随机森林构建原理,从学术研究角度分析其在提高模型泛化能力方面的优势,引用相关研究成果
35 实践随机森林算法并与其他算法对比 指导小白进行实验,对比随机森林与其他算法性能,依据学术研究中对算法对比实验的标准,分析结果
36 学习提升树算法,如 Adaboost、GBDT 深入讲解 Adaboost、GBDT 算法原理,引用机器学习集成学习领域相关学术论文
37 用提升树算法解决实际问题 指导小白应用提升树算法,结合学术研究中对提升树调优的方法,帮助小白优化模型
38 学习聚类算法,如 K-Means 讲解 K-Means 算法原理,从数据分布角度分析其适用场景,引用聚类分析领域学术研究
39 实践 K-Means 算法并进行结果评估 指导小白进行 K-Means 聚类实验,依据学术研究中对聚类结果评估指标,帮助小白分析聚类效果
40 学习密度聚类算法,如 DBSCAN 介绍 DBSCAN 算法原理,对比其与 K-Means 在处理不同形状数据簇方面的优势,引用相关学术研究
41 用 DBSCAN 算法处理实际数据集 结合实际数据集,指导小白运用 DBSCAN 算法,依据学术研究中对 DBSCAN 参数设置的经验,优化算法
42 对比不同聚类算法优缺点及应用场景 从学术研究成果出发,全面分析 K-Means、DBSCAN 等聚类算法在不同数据特点下的表现及适用场景
43 深入学习深度学习中的注意力机制 讲解 Transformer 架构中自注意力机制变体,如多头注意力机制,引用相关学术论文中对注意力机制改进的研究
44 学习 Transformer 架构在自然语言处理中的多种应用 介绍 BERT 等模型在文本分类、问答系统等任务中的应用,引用自然语言处理领域相关研究成果
45 实践基于 Transformer 的自然语言处理任务 指导小白基于预训练模型进行任务微调,依据学术研究中对模型微调策略的探讨,提升模型性能
46 学习 Transformer 架构在计算机视觉中的应用,如 Vision Transformer(ViT) 讲解 ViT 将 Transformer 应用于图像领域的创新点,引用计算机视觉领域相关研究
47 用 ViT 进行图像分类等任务实践 结合图像数据集,指导小白训练 ViT 模型,依据学术研究中对 ViT 模型优化的方法,提升模型效果
48 对比 Transformer 在自然语言处理与计算机视觉应用中的异同 从学术研究角度,分析 Transformer 在不同领域应用时结构设计、训练方法等方面的异同
49 学习生成式 AI 中的变分自编码器(VAE)原理 讲解 VAE 中编码器与解码器结构及变分推断原理,引用生成式模型领域相关学术论文
50 用 VAE 进行图像生成等实践 指导小白搭建 VAE 模型进行图像生成实验,依据学术研究中对 VAE 模型评估指标,分析生成结果
51 学习扩散模型原理,如 DDPM 深入剖析 DDPM 等扩散模型数学原理,从数据生成角度讲解其创新之处,引用相关学术研究
52 使用扩散模型进行图像生成实践 指导小白使用扩散模型相关工具,依据学术研究中对扩散模型生成效果优化方法,提升图像质量
53 对比 VAE、GAN、扩散模型在图像生成方面的优缺点 从学术研究成果出发,全面对比不同生成式模型在图像生成任务中的性能、生成质量等方面的差异
54 学习 AI 写作中的文本摘要技术 介绍基于抽取式和生成式的文本摘要方法,引用自然语言处理领域关于文本摘要研究成果
55 实践基于 AI 的文本摘要任务 指导小白使用相关工具或模型进行文本摘要,依据学术研究中对文本摘要质量评估指标,优化摘要结果
56 学习 AI 写作中的情感分析技术 讲解情感分析算法原理,如基于机器学习和深度学习的方法,引用自然语言处理领域相关研究
57 用 AI 进行文本情感分析实践 指导小白基于文本数据集训练情感分析模型,依据学术研究中对情感分析模型评估方法,提升模型准确率
58 学习 AI 绘画中的 3D 模型生成技术基础 介绍基于深度学习的 3D 模型生成方法,如基于体素、点云等表示的生成模型,引用计算机图形学领域相关研究
59 了解 AI 绘画与 3D 建模结合应用案例 结合实际案例,讲解 AI 绘画在 3D 建模前期概念设计等方面的应用,参考学术研究中对跨领域应用的分析
60 学习 AI 视频中的目标检测与跟踪技术 讲解基于深度学习的目标检测与跟踪算法,如 YOLO 系列、SORT 等,引用计算机视觉领域相关研究成果
61 实践 AI 视频目标检测与跟踪任务 指导小白使用相关工具或模型进行视频目标检测与跟踪,依据学术研究中对检测与跟踪性能评估指标,优化结果
62 学习 AI 视频中的视频超分辨率技术 介绍基于深度学习的视频超分辨率算法原理,引用多媒体领域相关研究
63 用 AI 实现视频超分辨率处理 指导小白使用 AI 工具进行视频超分辨率处理,依据学术研究中对视频超分辨率效果评估方法,提升视频质量
64 学习 AI 编程中的代码理解与重构技术 介绍基于 AI 的代码理解模型,如 CodeBERT 在代码重构任务中的应用,引用软件工程领域相关研究
65 实践 AI 辅助代码重构 指导小白利用 AI 工具进行代码重构,依据学术研究中对代码重构质量评估方法,优化代码
66 学习 AI 编程中的自动化测试技术 讲解基于 AI 的自动化测试工具原理,如利用机器学习生成测试用例,引用软件工程领域相关研究
67 用 AI 进行自动化测试实践 指导小白使用 AI 自动化测试工具,依据学术研究中对测试用例覆盖率等评估指标,提升测试效果
68 学习 AI 伦理与安全相关知识,如数据隐私问题 从学术研究角度,讲解 AI 数据收集、使用过程中的隐私保护原则,引用相关伦理研究文献
69 学习 AI 算法偏见与公平性问题 介绍 AI 算法中偏见产生原因及对公平性影响,引用机器学习公平性领域相关研究成果
70 探讨 AI 在不同行业应用中的伦理与安全挑战 结合医疗、金融等行业,分析 AI 应用面临的伦理与安全问题,参考学术研究中对行业应用风险的分析
71 学习 AI 模型压缩与加速技术基础 讲解模型剪枝、量化等压缩技术原理,引用深度学习模型优化领域相关学术论文
72 实践 AI 模型压缩操作 指导小白对已训练模型进行压缩,依据学术研究中对模型压缩后性能评估方法,平衡模型大小与性能
73 学习 AI 模型部署技术,如在移动端部署 介绍将 AI 模型部署到移动端的流程与技术,如 TensorFlow Lite 等,引用相关研究成果
74 将简单 AI 模型部署到移动端实践 指导小白进行模型移动端部署,依据学术研究中对移动端模型性能优化方法,提升部署效果
75 学习联邦学习基础概念与原理 讲解联邦学习在保护数据隐私前提下协同训练模型的机制,引用分布式机器学习领域相关研究
76 了解联邦学习应用场景与案例 结合医疗、金融等行业案例,分析联邦学习应用优势,参考学术研究中对行业应用的分析
77 学习强化学习基础概念与原理 介绍强化学习中智能体、环境、奖励等要素,讲解 Q 学习、深度 Q 网络等算法,引用强化学习领域相关学术论文
78 实践简单强化学习任务 指导小白基于强化学习环境进行任务训练,依据学术研究中对强化学习算法评估指标,优化训练效果
79 学习强化学习在机器人控制等领域应用 结合机器人控制案例,讲解强化学习在动态环境决策中的应用,引用相关研究成果
80 学习多模态 AI 基础,如融合文本与图像信息 介绍多模态融合方法,如早期拼接、注意力机制融合等,引用多模态学习领域相关学术研究
81 实践多模态 AI 任务,如图文检索 指导小白搭建多模态图文检索模型,依据学术研究中对多模态任务评估指标,提升模型性能
82 学习多模态 AI 在智能客服等场景应用 结合智能客服案例,分析多模态 AI 在提升用户体验方面的优势,参考学术研究中对行业应用的分析
83 学习 AI 可解释性相关知识,如解释神经网络决策 介绍基于特征重要性分析、可视化等可解释性方法,引用人工智能可解释性领域相关研究成果
84 实践对简单 AI 模型进行可解释性分析 指导小白使用可解释性工具对模型进行分析,依据学术研究中对可解释性评估标准,理解模型决策过程
85 学习 AI 与物联网结合应用案例与技术 讲解 AI 在物联网设备数据处理、智能决策等方面应用,引用物联网与 AI 融合领域相关研究
86 学习 AI 与区块链结合应用案例与技术 介绍区块链在保障 AI 数据安全、模型版权等方面应用,引用区块链与 AI 融合领域相关研究成果
87 回顾总结前 86 天学习内容,梳理知识体系 帮助小白构建完整 AI 知识框架,从学术研究角度强调各知识点联系与应用场景
88 进行综合项目实践,如结合 AI 多种技术开发智能应用 指导小白确定项目方案,依据学术研究中对综合项目开发流程与方法,协助小白完成项目设计
89 项目开发与优化 在项目开发过程中,依据学术研究中对项目技术选型、性能优化等方面的经验,指导小白解决遇到的问题
90 项目总结与成果展示 指导小白总结项目经验,从学术研究成果展示角度,帮助小白整理项目文档与成果汇报材料
相关推荐
少说多想勤做16 分钟前
【前沿 热点 顶会】CVPR 2025 录用的与图像|视频恢复、抠图、超分辨率、3D生成有关的论文
人工智能·3d·音视频·视频·超分辨率重建·图像恢复
浪九天1 小时前
决策树(Decision Tree)详细解释(带示例)
人工智能·python·决策树
clownAdam1 小时前
通俗易懂的分类算法之K近邻详解
人工智能·算法·分类·数据挖掘·knn·k邻近
灏瀚星空1 小时前
用Python+Flask打造可视化武侠人物关系图生成器:从零到一的实战全记录
开发语言·人工智能·经验分享·笔记·python·flask
atbigapp.com2 小时前
AI数据分析:deepseek生成SQL
人工智能·sql·ai·数据分析·提示词
我们的五年2 小时前
ChatGPT与DeepSeek:开源与闭源的AI模型之争
人工智能·chatgpt
xiaosenyouli2 小时前
政务信息化项目命名有什么门道?
大数据·人工智能
找方案2 小时前
黑龙江省地标-DB31/T 862-2021 “一网通办”政务服务中心建设和运行规范
大数据·人工智能·政务
北京青翼科技4 小时前
【PCIE737】基于全高PCIe x8总线的KU115 FPGA高性能硬件加速卡
图像处理·人工智能·信号处理·智能硬件