人工智能、机器学习、深度学习定义与联系

人工智能、机器学习、深度学习定义与联系目录

  • [一、人工智能(Artificial Intelligence, AI)](#一、人工智能(Artificial Intelligence, AI))
    • 1、定义
    • 2、特征:
    • 3、关键阶段的概述:
      • [1. 萌芽期(1940s--1950s):理论奠基](#1. 萌芽期(1940s–1950s):理论奠基)
      • [2. 形成期(1950s--1970s):符号主义与早期探索](#2. 形成期(1950s–1970s):符号主义与早期探索)
      • [3. 寒冬期(1970s--1980s):技术与资金的瓶颈](#3. 寒冬期(1970s–1980s):技术与资金的瓶颈)
      • [4. 复苏期(1980s--2000s):统计学习与算力突破](#4. 复苏期(1980s–2000s):统计学习与算力突破)
      • [5. 繁荣期(2010s至今):深度学习与通用AI探索](#5. 繁荣期(2010s至今):深度学习与通用AI探索)
      • [6. 当代趋势(2020s--未来):规模化与伦理挑战](#6. 当代趋势(2020s–未来):规模化与伦理挑战)
    • 4、关键驱动因素
    • 5、人工智能的子领域
      • 5.1、核心子领域
        • [1. 机器学习(Machine Learning, ML)](#1. 机器学习(Machine Learning, ML))
        • [2. 自然语言处理(Natural Language Processing, NLP)](#2. 自然语言处理(Natural Language Processing, NLP))
        • [3. 计算机视觉(Computer Vision, CV)](#3. 计算机视觉(Computer Vision, CV))
        • [4. 机器人学(Robotics)](#4. 机器人学(Robotics))
        • [5. 知识表示与推理(Knowledge Representation & Reasoning)](#5. 知识表示与推理(Knowledge Representation & Reasoning))
        • [6. 规划与决策(Planning & Decision-Making)](#6. 规划与决策(Planning & Decision-Making))
    • 5.2、交叉与应用子领域
      • [1. 强化学习(Reinforcement Learning, RL)](#1. 强化学习(Reinforcement Learning, RL))
      • [2. 多模态学习(Multimodal Learning)](#2. 多模态学习(Multimodal Learning))
      • [3. 联邦学习(Federated Learning)](#3. 联邦学习(Federated Learning))
      • [4. 认知计算(Cognitive Computing)](#4. 认知计算(Cognitive Computing))
      • [5. 生成式人工智能(Generative AI)](#5. 生成式人工智能(Generative AI))
    • 5.2、前沿探索领域
      • [1. 通用人工智能(Artificial General Intelligence, AGI)](#1. 通用人工智能(Artificial General Intelligence, AGI))
      • [2. 神经符号人工智能(Neuro-Symbolic AI)](#2. 神经符号人工智能(Neuro-Symbolic AI))
      • [3. 类脑计算(Brain-Inspired Computing)](#3. 类脑计算(Brain-Inspired Computing))
      • [4. 伦理与可解释性AI(AI Ethics & XAI)](#4. 伦理与可解释性AI(AI Ethics & XAI))
    • 5.4、总结:子领域关系图
  • [二、机器学习(Machine Learning, ML)](#二、机器学习(Machine Learning, ML))
    • 1、定义
    • 2、特征:
    • 3、机器学习的子领域
      • 3.1、核心子领域
        • [1. 监督学习(Supervised Learning)](#1. 监督学习(Supervised Learning))
        • [2. 无监督学习(Unsupervised Learning)](#2. 无监督学习(Unsupervised Learning))
        • [3. 半监督学习(Semi-Supervised Learning)](#3. 半监督学习(Semi-Supervised Learning))
        • [4. 强化学习(Reinforcement Learning, RL)](#4. 强化学习(Reinforcement Learning, RL))
      • 3.2、扩展子领域
        • [1. 迁移学习(Transfer Learning)](#1. 迁移学习(Transfer Learning))
        • [2. 在线学习(Online Learning)](#2. 在线学习(Online Learning))
        • [3. 自监督学习(Self-Supervised Learning)](#3. 自监督学习(Self-Supervised Learning))
        • [4. 元学习(Meta-Learning / "Learning to Learn")](#4. 元学习(Meta-Learning / "Learning to Learn"))
      • 3.3、技术方法分类
        • [1. 基于模型类型](#1. 基于模型类型)
        • [2. 基于学习范式](#2. 基于学习范式)
    • 4、子领域关系图
    • 5、总结
  • [三、 深度学习(Deep Learning, DL)](#三、 深度学习(Deep Learning, DL))
    • 1、定义:
    • 2、特征:
    • 3、深度学习的子领域
      • 3.1、核心子领域
        • [1. 卷积神经网络(Convolutional Neural Networks, CNN)](#1. 卷积神经网络(Convolutional Neural Networks, CNN))
        • [2. 循环神经网络(Recurrent Neural Networks, RNN)](#2. 循环神经网络(Recurrent Neural Networks, RNN))
        • [3. 生成对抗网络(Generative Adversarial Networks, GAN)](#3. 生成对抗网络(Generative Adversarial Networks, GAN))
        • [4. Transformer](#4. Transformer)
      • 3.2、扩展与交叉子领域
        • [1. 图神经网络(Graph Neural Networks, GNN)](#1. 图神经网络(Graph Neural Networks, GNN))
        • [2. 深度强化学习(Deep Reinforcement Learning, DRL)](#2. 深度强化学习(Deep Reinforcement Learning, DRL))
        • [3. 自编码器(Autoencoder)](#3. 自编码器(Autoencoder))
        • [4. 元学习与少样本学习(Meta-Learning / Few-Shot Learning)](#4. 元学习与少样本学习(Meta-Learning / Few-Shot Learning))
        • [5. 神经架构搜索(Neural Architecture Search, NAS)](#5. 神经架构搜索(Neural Architecture Search, NAS))
      • 3.3、新兴与前沿方向
        • [1. 扩散模型(Diffusion Models)](#1. 扩散模型(Diffusion Models))
        • [2. 脉冲神经网络(Spiking Neural Networks, SNN)](#2. 脉冲神经网络(Spiking Neural Networks, SNN))
        • [3. 多模态学习(Multimodal Learning)](#3. 多模态学习(Multimodal Learning))
    • 4、子领域关系图
    • 5、总结
  • 三者的区别与联系

一、人工智能(Artificial Intelligence, AI)

1、定义

人工智能(AI)的发展历程是一个跨越近一个世纪的科技探索与突破,融合了数学、计算机科学、神经科学等多学科成果。让机器模拟人类智能行为的科学与技术,目标是使机器具备推理、学习、规划、感知、语言理解等能力。

2、特征:

广泛的目标:涵盖从简单规则系统(如自动扫地机器人)到复杂认知任务(如自然语言对话)。

多领域应用:如自动驾驶、医疗诊断、游戏AI(AlphaGo)、推荐系统等。

方法论多样:包括规则引擎、专家系统、统计方法、机器学习等。

3、关键阶段的概述:

1. 萌芽期(1940s--1950s):理论奠基

2. 形成期(1950s--1970s):符号主义与早期探索

3. 寒冬期(1970s--1980s):技术与资金的瓶颈

4. 复苏期(1980s--2000s):统计学习与算力突破

5. 繁荣期(2010s至今):深度学习与通用AI探索

6. 当代趋势(2020s--未来):规模化与伦理挑战

大模型时代:参数规模指数级增长(如GPT-4、PaLM),涌现出逻辑推理、上下文理解等能力。

AI伦理与安全:偏见、隐私、失业风险、自主武器等问题引发全球讨论,各国推进AI治理框架。

技术融合:AI与量子计算、脑机接口、生物技术结合,探索通用人工智能(AGI)。

开源与平民化:Hugging Face、Stable Diffusion等开源社区推动技术普惠。

4、关键驱动因素

数据:互联网、传感器、数字化产生的海量数据。

算法:深度学习、强化学习、注意力机制等突破。

算力:GPU/TPU等硬件与云计算的支持。

资本:科技巨头与风险投资推动技术落地。

5、人工智能的子领域

5.1、核心子领域

1. 机器学习(Machine Learning, ML)
细分方向:

监督学习(分类、回归,如房价预测、垃圾邮件识别)。

无监督学习(聚类、降维,如客户分群、数据压缩)。

强化学习(通过试错优化策略,如游戏AI、机器人控制)。

应用:推荐系统、金融风控、医学诊断。

2. 自然语言处理(Natural Language Processing, NLP)
细分方向:

文本理解(情感分析、实体识别)。

语言生成(机器翻译、对话系统、文本摘要)。

语音处理(语音识别、语音合成)。

应用:智能客服(如ChatGPT)、搜索引擎、语音助手(如Siri)。

3. 计算机视觉(Computer Vision, CV)
细分方向:

图像分类(识别物体类别)。

目标检测(定位并识别图像中的物体,如YOLO算法)。

图像生成(GAN生成逼真图像)。

三维视觉(SLAM技术用于机器人导航)。

应用:人脸识别、自动驾驶、医学影像分析。

4. 机器人学(Robotics)
细分方向:

运动控制(路径规划、机械臂操作)。

人机交互(协作机器人、服务机器人)。

自主系统(无人机、工业机器人)。

应用:工业自动化、仓储物流、手术机器人。

5. 知识表示与推理(Knowledge Representation & Reasoning)
核心内容:

将知识编码为机器可处理的形式,并进行逻辑推理。

技术方向:

知识图谱(如Google搜索的知识面板)。

专家系统(基于规则的推理,如医疗诊断系统)。

本体论(定义领域概念关系)。

应用:智能问答、法律咨询、故障诊断。

6. 规划与决策(Planning & Decision-Making)
核心内容:

在复杂环境中制定最优行动序列。

技术方向:

动态规划(如资源调度)。

博弈论(多智能体协作与竞争)。

马尔可夫决策过程(MDP)。

应用:交通调度、军事仿真、供应链优化。

5.2、交叉与应用子领域

1. 强化学习(Reinforcement Learning, RL)

特点:通过奖励机制让机器在动态环境中学习最优策略。

应用:游戏AI(如AlphaGo)、机器人控制、广告投放优化。

2. 多模态学习(Multimodal Learning)

特点:融合文本、图像、语音等多种模态数据。

应用:视频内容理解、跨模态检索(如"用文字搜索图片")。

3. 联邦学习(Federated Learning)

特点:在保护隐私的前提下,分布式训练模型。

应用:医疗数据联合建模、移动设备个性化推荐。

4. 认知计算(Cognitive Computing)

特点:模拟人类思维过程(如IBM Watson)。

应用:复杂决策支持、情感分析。

5. 生成式人工智能(Generative AI)

特点:生成新内容(文本、图像、视频)。

技术:生成对抗网络(GAN)、扩散模型(如Stable Diffusion)。

应用:艺术创作、虚拟角色生成、药物分子设计。

5.2、前沿探索领域

1. 通用人工智能(Artificial General Intelligence, AGI)

目标:实现与人类水平相当的通用智能(尚未实现)。

挑战:跨领域推理、自我意识、常识理解。

2. 神经符号人工智能(Neuro-Symbolic AI)

特点:结合深度学习(神经)与符号推理(符号)。

应用:解决需逻辑推理的复杂任务(如数学证明)。

3. 类脑计算(Brain-Inspired Computing)

特点:模拟人脑结构与工作机制(如脉冲神经网络)。

应用:低功耗智能芯片、仿生机器人。

4. 伦理与可解释性AI(AI Ethics & XAI)

目标:确保AI公平性、透明性、可解释性。

技术:模型可解释性工具(如LIME)、偏见检测算法。

5.4、总结:子领域关系图

人工智能(AI)

├─ 机器学习(ML) → 深度学习(DL)、强化学习(RL)

├─ 自然语言处理(NLP)

├─ 计算机视觉(CV)

├─ 机器人学(Robotics)

├─ 知识表示与推理

├─ 规划与决策

└─ 交叉领域(联邦学习、生成式AI等)

二、机器学习(Machine Learning, ML)

1、定义

机器学习是人工智能(AI)的一个分支,其核心目标是让计算机系统通过从数据中学习规律和经验,从而具备自动改进和预测的能力,而无需依赖明确的程序指令。简单来说,机器不是通过"死记硬背"的编程来完成特定任务,而是通过分析大量数据,自己发现模式并做出决策。

2、特征:

数据驱动:依赖大量数据训练模型(如预测房价、分类图像)。

自动优化:通过算法(如线性回归、决策树、SVM)自动调整模型参数。

任务明确:需预先定义输入输出(如监督学习中的标签数据)。

3、机器学习的子领域

3.1、核心子领域

1. 监督学习(Supervised Learning)

定义:基于带标签(Labeled)的数据训练模型,学习输入到输出的映射关系。

特点:

数据要求:输入(特征)和对应的输出(标签)。

目标:预测未知数据的标签。

典型任务:

分类(离散标签,如垃圾邮件识别、图像分类)。

回归(连续值预测,如房价预测、销量预测)。

常用算法:

线性回归、逻辑回归、支持向量机(SVM)、决策树、随机森林、神经网络。

2. 无监督学习(Unsupervised Learning)

定义:从无标签数据中发现隐藏模式或结构。

特点:

数据要求:仅输入(无标签)。

目标:探索数据内在关系或降维。

典型任务:

聚类(将数据分组,如客户分群、社交网络分析)。

降维(压缩数据维度,如主成分分析 PCA、t-SNE)。

关联规则挖掘(发现变量间关系,如购物篮分析)。

常用算法:

K均值聚类(K-Means)、层次聚类、DBSCAN、自编码器(Autoencoder)。

3. 半监督学习(Semi-Supervised Learning)

定义:结合少量带标签数据和大量无标签数据训练模型。

特点:

数据要求:混合标签与无标签数据。

目标:利用未标注数据提升模型性能。

典型应用:

医学图像分类(标注成本高,未标注数据多)。

文本分类(如利用未标注网页数据增强模型)。

常用方法:

标签传播(Label Propagation)、自训练(Self-Training)。

4. 强化学习(Reinforcement Learning, RL)

定义:通过与环境交互,以奖励信号为指导,学习最优策略。

特点:

数据要求:动态环境中的试错反馈(状态、动作、奖励)。

目标:最大化长期累积奖励。

典型任务:

游戏AI(如AlphaGo、Dota 2 AI)。

机器人控制(如行走、抓取物体)。

资源调度(如云计算资源分配)。

核心算法:

Q学习(Q-Learning)、深度强化学习(DQN)、策略梯度(Policy Gradient)。

3.2、扩展子领域

1. 迁移学习(Transfer Learning)

定义:将已学知识(模型参数或特征)迁移到新任务中。

特点:

数据要求:源领域(已有数据)和目标领域(新任务数据)。

目标:解决目标领域数据不足的问题。

应用场景:

图像分类(如用ImageNet预训练模型迁移到医疗影像识别)。

自然语言处理(如BERT预训练模型用于文本情感分析)。

典型方法:

微调(Fine-tuning)、特征提取(Feature Extraction)。

2. 在线学习(Online Learning)

定义:模型在数据流中逐步更新,适应动态变化的环境。

特点:

数据要求:实时或连续到达的数据流。

目标:快速适应新数据,避免重新训练。

应用场景:

广告点击率预测(实时更新用户行为)。

金融欺诈检测(快速响应新型欺诈模式)。

常用算法:

在线梯度下降(Online Gradient Descent)、感知机(Perceptron)。

3. 自监督学习(Self-Supervised Learning)

定义:通过设计自动生成标签的任务,利用无标签数据学习。

特点:

数据要求:无需人工标注,自动构造监督信号。

目标:学习通用数据表示。

典型应用:

自然语言处理(如BERT通过掩码预测学习词向量)。

计算机视觉(如对比学习SimCLR)。

常用方法:

预测任务(如补全图像缺失部分)、对比学习(Contrastive Learning)。

4. 元学习(Meta-Learning / "Learning to Learn")

定义:训练模型快速适应新任务,解决"小样本学习"问题。

特点:

数据要求:多任务数据,少量新任务样本。

目标:学习如何高效学习。

应用场景:

小样本图像分类(如Few-Shot Learning)。

机器人快速适应新环境。

典型方法:

模型无关元学习(MAML)、基于记忆的元学习(如MetaNet)。

3.3、技术方法分类

1. 基于模型类型

统计模型:线性回归、贝叶斯网络。

树模型:决策树、随机森林、梯度提升树(XGBoost、LightGBM)。

神经网络:深度学习(CNN、RNN、Transformer)、强化学习中的深度网络。

2. 基于学习范式

批量学习(Batch Learning):一次性用全量数据训练。

增量学习(Incremental Learning):逐步加入新数据更新模型。

集成学习(Ensemble Learning):结合多个模型提升性能(如随机森林、Stacking)。

4、子领域关系图

机器学习(ML)

├─ 监督学习 (分类、回归)

├─ 无监督学习 (聚类、降维)

├─ 强化学习 (动态决策)

├─ 半监督学习 (混合标签与无标签数据)

├─ 迁移学习 (跨任务知识迁移)

├─ 元学习 (小样本快速适应)

└─ 其他扩展(在线学习、自监督学习等)

5、总结

核心区别:

监督学习依赖标签,解决预测问题。

无监督学习探索数据内在结构。

强化学习关注动态环境中的策略优化。

交叉应用:

深度强化学习(DL+RL)用于复杂游戏AI。

自监督学习+迁移学习提升小样本任务性能。

选择依据:根据数据量、任务目标(预测、聚类、决策)和资源限制选择合适的子领域。

实际应用中,这些子领域常结合使用(如用无监督学习预处理数据,再用监督学习训练模型),共同构建强大的机器学习系统。

三、 深度学习(Deep Learning, DL)

1、定义:

DL 是 ML 的一个分支,基于人工神经网络(尤其是深层结构),擅长从原始数据中自动提取复杂特征。

2、特征:

多层神经网络:包含输入层、多个隐藏层("深度"来源)、输出层。

自动特征提取:无需人工设计特征(如直接从像素识别图像中的猫)。

大数据依赖:需大量数据和算力(GPU/TPU加速训练)。

端到端学习:直接从输入到输出建模,中间过程自动化。

3、深度学习的子领域

3.1、核心子领域

1. 卷积神经网络(Convolutional Neural Networks, CNN)

定义:专为处理网格数据(如图像、视频)设计的神经网络,利用卷积操作提取局部特征。

特点:

局部感知:卷积核捕捉局部空间特征(如边缘、纹理)。

参数共享:减少参数量,提升计算效率。

层次化特征提取:浅层学习边缘,深层学习语义(如物体部件)。

典型模型:

LeNet(手写数字识别)、AlexNet(ImageNet突破)、ResNet(残差连接解决梯度消失)。

应用场景:

图像分类(如医学影像诊断)、目标检测(如YOLO)、人脸识别。

2. 循环神经网络(Recurrent Neural Networks, RNN)

定义:处理序列数据(文本、语音、时间序列)的神经网络,具有时序记忆能力。

特点:

循环结构:隐藏层传递时序信息(如上下文依赖)。

短期记忆:传统RNN存在梯度消失问题。

改进模型:

LSTM(长短期记忆网络)、GRU(门控循环单元)、BiRNN(双向RNN)。

应用场景:

机器翻译(早期Seq2Seq模型)、语音识别、股票预测。

3. 生成对抗网络(Generative Adversarial Networks, GAN)

定义:通过生成器(Generator)和判别器(Discriminator)对抗训练,生成逼真数据。

特点:

对抗学习:生成器伪造数据,判别器区分真伪。

无监督生成:无需标注数据即可生成新样本。

典型变体:

DCGAN(深度卷积GAN)、CycleGAN(跨域转换,如马→斑马)、StyleGAN(高分辨率人脸生成)。

应用场景:

图像生成(艺术创作)、数据增强、图像修复。

4. Transformer

定义:基于自注意力机制(Self-Attention)的模型,彻底改变了序列建模。

特点:

并行计算:摆脱RNN的时序依赖,训练更快。

全局依赖捕捉:自注意力机制关联远距离特征。

典型模型:

BERT(双向文本编码)、GPT系列(生成式预训练)、ViT(视觉Transformer)。

应用场景:

自然语言处理(如ChatGPT)、图像分类(ViT)、语音合成。

3.2、扩展与交叉子领域

1. 图神经网络(Graph Neural Networks, GNN)

定义:处理图结构数据(节点与边关系)的深度学习模型。

特点:

图嵌入:将节点、边或整图映射为向量。

消息传递:通过邻居节点聚合信息。

典型模型:

GCN(图卷积网络)、GraphSAGE、GAT(图注意力网络)。

应用场景:

社交网络分析、分子结构预测、推荐系统。

2. 深度强化学习(Deep Reinforcement Learning, DRL)

定义:结合深度学习与强化学习,解决复杂环境中的决策问题。

特点:

端到端学习:从原始输入(如像素)直接输出动作。

高维状态空间:深度网络处理复杂环境信息。

典型模型:

DQN(深度Q网络)、PPO(近端策略优化)、AlphaGo(围棋AI)。

应用场景:

游戏AI(如Dota 2)、机器人控制、自动驾驶决策。

3. 自编码器(Autoencoder)

定义:通过压缩与重建数据学习高效表示的无监督模型。

特点:

编码-解码结构:瓶颈层提取关键特征。

降维与去噪:可用于数据压缩或修复。

变体模型:

VAE(变分自编码器,生成新数据)、Denoising Autoencoder(去噪)。

应用场景:

图像去噪、异常检测、生成低维特征。

4. 元学习与少样本学习(Meta-Learning / Few-Shot Learning)

定义:训练模型快速适应新任务,仅需少量样本。

特点:

学习如何学习:优化模型初始化参数或调整策略。

小样本泛化:解决数据稀缺问题。

典型方法:

MAML(模型无关元学习)、Prototypical Networks(原型网络)。

应用场景:

医疗影像诊断(标注数据少)、个性化推荐冷启动。

5. 神经架构搜索(Neural Architecture Search, NAS)

定义:自动化设计神经网络结构,替代人工调参。

特点:

搜索策略:强化学习、进化算法或梯度优化。

计算成本高:需大量GPU资源。

典型应用:

AutoML(自动机器学习)、轻量化模型设计(如MobileNetV3)。

3.3、新兴与前沿方向

1. 扩散模型(Diffusion Models)

定义:通过逐步去噪过程生成高质量数据,近期超越GAN。

特点:

渐进生成:从噪声逐步重建目标数据。

高保真输出:生成图像更逼真、多样。

典型模型:

DALL-E 2、Stable Diffusion(文本生成图像)。

应用场景:

艺术创作、视频生成、分子设计。

2. 脉冲神经网络(Spiking Neural Networks, SNN)

定义:模拟生物神经元脉冲传递的第三代神经网络。

特点:

事件驱动:低功耗,适合边缘计算。

时序编码:利用脉冲时间编码信息。

应用场景:

类脑芯片(如Intel Loihi)、动态视觉传感器(DVS)数据处理。

3. 多模态学习(Multimodal Learning)

定义:融合文本、图像、语音等多模态数据的深度学习。

典型模型:

CLIP(图文跨模态匹配)、Flamingo(多模态对话)。

应用场景:

视频内容理解、跨模态检索(如"用文字搜图")。

4、子领域关系图

深度学习(DL)

├─ 核心架构

│ ├─ CNN(图像/视频)

│ ├─ RNN/LSTM(序列数据)

│ ├─ Transformer(全局依赖)

│ └─ GAN(生成模型)

├─ 扩展方向

│ ├─ GNN(图结构数据)

│ ├─ DRL(决策与控制)

│ └─ Autoencoder(无监督表示)

└─ 前沿探索

├─ 扩散模型(高质量生成)

├─ 脉冲神经网络(类脑计算)

└─ 多模态学习(跨模态融合)

5、总结

核心区别:

CNN 专精空间数据(如图像),RNN/Transformer 擅长序列建模,GAN 侧重生成,GNN 处理关系数据。

交叉应用:

Transformer 跨界视觉(ViT)与语言(GPT),扩散模型挑战GAN的生成霸权。

趋势:

模型轻量化(如MobileNet)、多模态融合(如CLIP)、自动化(NAS)和生物启发(SNN)是未来重点。

三者的区别与联系

层级关系

AI ⊃ ML ⊃ DL:

AI 是最大的概念,ML 是实现 AI 的核心方法之一,而 DL 是 ML 的一种技术手段。

关键区别

维度 人工智能(AI) 机器学习(ML) 深度学习(DL)
范围 最广(包含所有方法) AI 的子集 ML 的子集
数据依赖 可基于规则或数据 必须依赖数据 需海量数据
特征处理 可能人工设计特征 部分依赖人工特征工程 自动学习特征
复杂度 多样化(简单到复杂) 中等(传统算法) 极高(深层非线性模型)

联系

技术递进:DL 的突破(如 AlphaGo、ChatGPT)推动了 AI 的快速发展。

互补性:AI 可能结合传统规则与 ML/DL(如医疗诊断系统同时使用专家规则和图像识别模型)。

应用重叠:三者常结合使用(如自动驾驶中,DL处理视觉数据,ML优化路径规划,整体属于AI系统)。

相关推荐
NAGNIP43 分钟前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab2 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab2 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP6 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年6 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼6 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS6 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区7 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈7 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang8 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx