机器学习全家族模型详解 + 关系梳理

机器学习(ML)是人工智能(AI)的核心分支,所有你听过的模型,无论是传统的线性回归、XGBoost,还是深度学习里的 CNN、Transformer、GNN,全都是机器学习家族的成员,只是分属不同的分支、适配不同的场景。

下面我会从「顶层分类逻辑→核心范式→两大技术路线→具体模型家族→模型间的纵向 / 横向 / 演进关系」逐层拆解,帮你彻底理清脉络,再也不会混乱。

一、模型分类的 3 个核心维度

分类维度 核心分类标准 核心类别
【顶层核心】学习范式 模型学习时用什么样的数据、靠什么反馈优化 监督学习、无监督学习、强化学习(半监督 / 自监督为中间态)
【技术路线】模型结构与复杂度 是人工设计特征,还是模型自动提取特征;是浅层结构,还是深层神经网络 传统机器学习(浅层模型)、深度学习(深层神经网络模型)
【落地场景】解决的任务类型 模型最终用来做什么事 分类、回归、聚类、降维、生成、序列建模、图建模、决策优化等

二、第一层级:机器学习的 3 大核心学习范式(顶层承重墙,所有模型都归属于此)

这是机器学习最顶层、最核心的分类,所有模型都必须先归到这个框架里,没有例外。

1. 监督学习(工业界最常用,80% 落地场景都用它)

  • 核心定义:用「带标签的训练数据」学习,目标是拟合「输入→输出」的映射关系。简单说,就是老师提前给了标准答案,模型照着学,学会了再做新题。
  • 数据要求:必须有输入特征 + 对应的标签(比如 "用户特征" 对应 "是否违约"、"图片像素" 对应 "猫 / 狗分类")
  • 核心任务:分类(预测离散标签)、回归(预测连续数值)
  • 代表模型:线性回归、逻辑回归、决策树、随机森林、XGBoost、SVM、CNN、Transformer、GNN(监督训练模式)

2. 无监督学习(挖掘数据本身的规律,无标准答案)

  • 核心定义:用「完全无标签的数据」学习,目标是找到数据本身的分布、结构、内在关联。简单说,就是没有老师给答案,模型自己给数据 "找规律、分圈子、做压缩"。
  • 数据要求:只有输入特征,无任何标签
  • 核心任务:聚类(给数据分群)、降维(给高维数据做压缩)、异常检测、关联规则挖掘、无监督生成
  • 代表模型:K-Means、PCA、DBSCAN、GAN、扩散模型、自编码器、GNN(无监督训练模式)

3. 强化学习(靠环境反馈的奖励学习,学最优决策)

  • 核心定义:既没有固定标签,也没有标准答案,模型通过和环境交互,靠「动作获得的奖励 / 惩罚」优化自己的行为,目标是找到长期收益最大化的决策序列。简单说,就是像玩游戏一样,做对了加分,做错了扣分,模型自己摸索怎么拿最高分。
  • 核心场景:游戏 AI(AlphaGo)、机器人控制、自动驾驶、推荐系统、大模型 RLHF 对齐
  • 代表模型:Q-Learning、DQN、PPO、SAC、A3C

补充:2 个关键中间态(现在大模型的核心)

  • 半监督学习:少量带标签数据 + 大量无标签数据结合训练,兼顾标注成本和模型效果,工业界非常常用。
  • 自监督学习:无监督学习的一个分支,从无标签数据里自己 "造标签" 训练(比如 GPT 的下一个词预测、BERT 的掩码词预测),是现在所有大语言模型、多模态模型的核心训练范式,本质是用无监督的方式,学到监督任务需要的能力。

三、第二层级:两大技术路线 ------ 传统机器学习 vs 深度学习(彻底分清两大阵营)

很多人会把 "深度学习" 和 "机器学习" 并列,这是完全错误的。深度学习是机器学习的一个核心分支,和传统机器学习是并列的两大技术路线,同属机器学习的大框架下

维度 传统机器学习(浅层模型) 深度学习(深层神经网络模型)
特征提取 极度依赖人工设计特征,模型只负责拟合 自动从数据里学习特征,无需人工干预,端到端训练
模型结构 浅层结构,无多层非线性神经网络,参数规模小 深层神经网络(多层非线性变换),参数规模从百万到万亿级
适配数据 结构化表格数据、小样本数据 非结构化数据(文本、图像、音频、视频、图)、大样本大数据
可解释性 强,能清晰知道模型为什么做出这个预测 弱,黑盒属性强,很难解释内部决策逻辑
算力要求 低,普通 CPU 就能训练 高,极度依赖 GPU/AI 芯片加速

下面,我会分两大路线,把所有主流模型的家族、演进、相互关系讲透。

模块 1:传统机器学习全家族模型 + 亲缘关系

传统机器学习的所有模型,都可以按「监督 / 无监督」范式清晰划分,每个家族都有明确的根模型和演进逻辑,不会混乱。

1. 监督学习下的传统核心模型(工业界落地顶流)
① 线性模型家族(所有机器学习的入门基础,根模型)
  • 核心演进逻辑:从最基础的线性拟合,逐步解决分类、过拟合、多重共线性、非线性问题
  • 核心模型 & 关系
    1. 线性回归:整个机器学习的起点,最基础的回归模型,拟合输入特征和连续输出的线性关系,核心是最小化均方误差。
    2. 逻辑回归:线性回归 + Sigmoid 激活函数,把线性输出映射到 0-1 区间,专门解决二分类问题,是金融风控、推荐系统的基线模型。
    3. 岭回归 / Lasso 回归:线性回归 + 正则化,岭回归用 L2 正则、Lasso 用 L1 正则,专门解决线性回归的过拟合、特征多重共线性问题,Lasso 还能自动做特征筛选。
    4. 弹性网络:岭回归 + Lasso 的结合体,兼顾两者的优势,适配高维稀疏特征场景。
  • 家族关系:所有模型都基于线性假设,核心都是最小化损失函数,区别只在于损失函数、正则化方式、适配的任务(回归 / 分类)不同。
② 树模型家族(结构化数据之王,传统模型里的绝对顶流)
  • 核心演进逻辑:从单棵决策树,分化出「Bagging 并行集成」和「Boosting 串行集成」两大分支,逐步解决单棵树的过拟合、泛化能力差、计算效率低的问题
  • 根模型:决策树(从 ID3→C4.5→CART 逐步演进,核心是用信息增益 / 信息增益比 / 基尼系数做节点分裂,同时支持分类和回归任务,是所有树模型的祖宗)
  • 两大分支 & 核心模型
    1. Bagging 分支(并行集成,核心是降低方差,解决过拟合)
      • 随机森林(RF):并行训练多棵相互独立的决策树,随机采样样本和特征,最终结果取众数 / 均值,完美解决单棵决策树的过拟合问题,泛化能力极强,是工业界最常用的基线模型。
    2. Boosting 分支(串行集成,核心是降低偏差,提升拟合能力)
      • AdaBoost:Boosting 的初代模型,给错分的样本不断加权重,串行训练多棵弱分类器,逐步优化模型效果。
      • GBDT(梯度提升决策树):用梯度下降替代权重更新,每一棵树都拟合上一棵树的残差,效果远超 AdaBoost,是树模型的里程碑。
      • XGBoost:GBDT 的工业级优化版,加入了正则化、缺失值自动处理、二阶泰勒展开、并行计算,精度和效率全面碾压 GBDT,曾是数据竞赛的 "冠军神器"。
      • LightGBM:XGBoost 的进阶优化版,用直方图优化、单边梯度采样、按叶子生长策略,速度更快、内存占用更小,现在是工业界结构化数据的首选模型。
      • CatBoost:专门优化类别特征处理的 Boosting 模型,自动处理类别变量,避免过拟合,适配高维类别特征的场景。
  • 家族关系:所有树模型的根都是决策树,分为 Bagging 和 Boosting 两大并行 / 串行集成路线,XGBoost、LightGBM、CatBoost 都是 GBDT 的工程优化和算法升级版本,一脉相承。
③ 核方法家族(解决线性模型无法处理的非线性问题)
  • 核心逻辑:通过核函数,把低维线性不可分的数据,映射到高维特征空间,变成线性可分,让线性模型能处理非线性问题。
  • 核心模型
    1. 支持向量机(SVM):核方法的集大成者,核心是找到分类的最大间隔超平面,小样本、非线性数据上效果极佳,曾是深度学习爆发前的顶流模型。
    2. 核岭回归:岭回归 + 核函数,把线性岭回归扩展到非线性回归场景。
  • 家族关系:所有模型都基于核技巧,把线性模型的能力扩展到非线性场景,SVM 是这个家族的绝对代表。
④ 其他经典监督模型
  • K 近邻(KNN):惰性学习模型,不训练模型,预测时靠样本之间的距离做分类 / 回归,简单易解释,适合小样本场景。
  • 朴素贝叶斯:基于贝叶斯定理和条件独立假设的概率模型,训练速度极快,是文本分类、垃圾邮件识别的经典基线模型。
2. 无监督学习下的传统核心模型
① 聚类家族(给无标签数据自动分群)
  • 核心模型 & 关系
    1. K-Means:最经典、最常用的划分式聚类模型,基于样本距离分群,速度快,适合大数据量场景,是聚类的基线模型。
    2. 层次聚类:基于树状结构做聚类,不用提前指定簇的数量,适合小样本、需要看层级关系的场景。
    3. DBSCAN:基于密度的聚类模型,能发现任意形状的簇,自动识别噪声点,不用提前定簇数,适合密度不均的数据集。
    4. 高斯混合模型(GMM):基于概率分布的软聚类模型,给每个样本分配属于每个簇的概率,比 K-Means 更灵活,适配非球形分布的数据。
  • 家族关系:核心目标都是给无标签数据分群,区别只在于聚类的核心逻辑(距离 / 密度 / 概率 / 层次)不同,适配不同的数据分布。
② 降维家族(解决维度灾难,给高维数据做压缩)
  • 核心模型 & 关系
    1. 主成分分析(PCA):最经典的线性降维模型,核心是最大化数据方差,把高维数据映射到低维,保留核心信息,是降维的基线模型。
    2. 线性判别分析(LDA):带监督信息的降维模型,最大化类间差异、最小化类内差异,适合分类任务的前置降维。
    3. t-SNE:非线性降维模型,专门用于高维数据的可视化,能完美保留数据的局部结构,缺点是计算量大,不适合大数据量。
    4. UMAP:非线性降维模型,比 t-SNE 速度更快,同时保留数据的全局和局部结构,现在是高维数据可视化的首选。
  • 家族关系:核心目标都是解决维度灾难,分为线性和非线性两大分支,PCA 是所有降维模型的基础。
③ 其他经典无监督模型
  • 关联规则挖掘(Apriori、FP-Growth):专门挖掘数据中的频繁项集和关联规则,经典场景是超市购物篮分析(买了啤酒的人大概率买尿布)。
  • 异常检测(孤立森林、One-Class SVM):专门识别数据中的异常点 / 离群点,用于金融欺诈检测、设备故障预警等场景。

模块 2:深度学习全家族模型 + 亲缘关系

深度学习的根是人工神经网络(ANN),所有深度学习模型,都是神经网络针对不同数据类型、不同任务,做的结构优化和变体,核心都是通过多层非线性变换,自动提取数据特征。

先给你讲清楚深度学习的根与演进逻辑:根模型:多层感知机(MLP,也叫全连接神经网络)→ 针对不同数据类型的缺陷,设计不同的网络结构,分化出 CNN、RNN、Transformer、GNN 等家族 → 不同家族相互融合,形成现在的多模态、大模型体系。

下面逐个拆解核心家族,讲清每个模型的定位、演进、和其他家族的关系。

1. 基础神经网络家族(所有深度学习的根)
  • 核心模型:多层感知机(MLP / 全连接神经网络)
  • 核心定位:所有深度学习模型的祖宗,由输入层、隐藏层、输出层组成,通过反向传播算法训练,是深度学习的基础。
  • 适用场景:结构化数据的分类 / 回归、其他深度学习模型的输出头(比如 CNN、Transformer 的最后一层,基本都是 MLP)
  • 家族关系:所有其他深度学习模型,都是在 MLP 的基础上,加入了特定的结构(卷积、循环、注意力、图卷积等),解决 MLP 的缺陷(参数爆炸、无法捕捉局部 / 时序 / 结构特征)。
2. 卷积神经网络(CNN)家族(CV 领域之王,处理网格结构数据)
  • 核心逻辑:用卷积核提取局部特征,权重共享,完美解决 MLP 处理图像时参数爆炸、无法捕捉局部空间特征的问题。
  • 核心适配数据:网格结构数据(图像、视频、语音频谱图)
  • 演进逻辑:从初代 CNN,到解决梯度消失、加深网络、提升精度、轻量化,逐步迭代。
  • 核心模型 & 关系
    1. 开山之作:LeNet-5(CNN 的鼻祖,1998 年提出,用于手写数字识别,奠定了 CNN 的核心结构:卷积 + 池化 + 全连接)
    2. 里程碑:AlexNet(2012 年提出,深度学习爆发的起点,首次用 ReLU 激活、Dropout、GPU 加速,在 ImageNet 竞赛上碾压传统模型,开启深度学习时代)
    3. 进阶优化:VGGNet(统一用 3x3 小卷积核,通过加深网络提升精度,结构极简)、GoogLeNet(Inception 结构,用多尺度卷积捕捉不同粒度的特征,减少参数量)
    4. 核心突破:ResNet(残差连接结构,完美解决深层网络的梯度消失问题,让网络可以堆到上百甚至上千层,是现在计算机视觉任务的基础骨干网络)
    5. 后续变体:DenseNet(密集连接,进一步缓解梯度消失)、MobileNet(轻量化模型,适配移动端 / 边缘设备)、EfficientNet(通过缩放网络维度,平衡精度和速度)
  • 横向关系:现在和 Transformer 深度融合,诞生了 ViT(视觉 Transformer),成为 CV 领域的新主流。
3. 循环神经网络(RNN)家族(序列建模的初代王者,处理时序 / 文本数据)
  • 核心逻辑:循环结构,保留时序信息,处理变长序列数据,解决 MLP 无法捕捉序列时序依赖的问题。
  • 核心适配数据:序列数据(文本、时间序列、语音)
  • 演进逻辑:解决基础 RNN 的长序列梯度消失问题,逐步优化门控结构。
  • 核心模型 & 关系
    1. 基础 RNN:初代循环神经网络,只能处理短序列,长序列会出现严重的梯度消失 / 爆炸问题。
    2. 里程碑:LSTM(长短期记忆网络),加入遗忘门、输入门、输出门三大门控机制,完美解决长序列依赖问题,是 Transformer 出现之前,NLP、时间序列任务的绝对主流。
    3. 优化版:GRU(门控循环单元),简化 LSTM 的门控结构,把三个门合并成更新门和重置门,速度更快,效果和 LSTM 接近。
    4. 双向变体:BiLSTM/BiGRU,同时捕捉序列的前文和后文信息,比单向 LSTM 效果更好,是 Transformer 出现之前,NLP 理解任务的核心模型。
  • 横向关系:现在已经被 Transformer 全面超越,只有小样本、低算力的场景还会使用,大模型体系里已经完全被 Transformer 替代。
4. Transformer 家族(现在的绝对主流,大模型的核心,全场景通吃)
  • 核心逻辑:自注意力机制,能并行计算,同时捕捉序列的全局依赖,完美解决 RNN 无法并行计算、长序列依赖效果差的核心缺陷。
  • 核心适配数据:通吃序列、图像、音频、视频、图等几乎所有数据类型
  • 归属:深度学习→神经网络→序列建模模型,核心用自监督 / 监督学习范式训练
  • 演进逻辑:从完整的 Encoder-Decoder 结构,分化出 Encoder-only、Decoder-only、Encoder-Decoder 三大分支,成为现在 AI 大模型的绝对核心。
  • 核心模型 & 关系
    1. 开山之作:Transformer(2017 年《Attention is All You Need》论文提出,完整的 Encoder-Decoder 结构,最初用于机器翻译,彻底改变了整个 AI 领域)
    2. Encoder-only 分支(双向注意力,适合理解类任务):BERT 及其变体(RoBERTa、ALBERT、DeBERTa),核心是双向注意力,能同时看前文和后文,是文本分类、命名实体识别、语义匹配等 NLP 理解任务的基础。
    3. Decoder-only 分支(单向因果注意力,适合生成类任务):GPT 系列(GPT-1 到 GPT-4o)、LLaMA、文心一言、通义千问等所有大语言模型(LLM),全都是这个分支的变体,核心是自回归生成,一个词一个词地预测输出。
    4. Encoder-Decoder 分支(Seq2Seq 结构,适合翻译、摘要、条件生成):T5、BART、GLM 等,兼顾理解和生成能力,适合机器翻译、文本摘要、对话生成等任务。
  • 横向扩展:已经渗透到所有 AI 领域,ViT(视觉 Transformer)、Speech Transformer(语音)、TimeSformer(时间序列)、Graph Transformer(图结构),实现了全场景通吃。
  • 和其他模型的关系:替代了 RNN/LSTM 成为序列建模的首选,和 CNN、GNN 深度融合,取长补短,是现在所有 AI 大模型的核心底座。
5. 图神经网络(GNN)家族(图结构数据的唯一王者)
  • 核心逻辑:在图结构上做消息传递,捕捉节点和边的拓扑关系,自动提取图特征,解决 CNN/RNN 无法处理非欧几里得图数据的问题。
  • 核心适配数据:图结构数据(社交网络、分子结构、知识图谱、推荐系统、交通路网)
  • 归属:深度学习→神经网络→图建模模型,支持监督 / 无监督 / 半监督学习范式
  • 演进逻辑:从基础图卷积,到解决过平滑、异构图、动态图、大尺度图等问题,逐步迭代。
  • 核心模型 & 关系
    1. 开山之作:GCN(图卷积神经网络),把卷积操作扩展到图结构上,通过邻接矩阵实现节点间的消息传递,是所有 GNN 的基础。
    2. 核心进阶:GAT(图注意力网络),把 Transformer 的自注意力机制引入 GNN,给不同的邻居节点分配不同的注意力权重,效果远超 GCN,是现在最常用的 GNN 模型。
    3. 主流变体:GraphSAGE(归纳式学习,支持动态图、未见过的节点,适合工业界大尺度图)、GIN(图同构网络,理论上表达能力最强的 GNN)、HAN(异构图注意力网络,处理多类型节点、多类型边的复杂异构图)
  • 横向关系:和 Transformer 融合诞生了 Graph Transformer,和 CNN 结合处理图 + 图像数据,是处理不规则图结构数据的唯一主流方案。
  • 和其他模型的关系:MLP/CNN/RNN 只能处理规则的网格、序列数据,GNN 专门处理不规则的图结构数据,是互补关系,而非替代关系。
6. 生成式深度学习家族(AIGC 的核心)
  • 核心逻辑:学习真实数据的分布,生成和真实数据分布一致的全新数据,是现在文生图、文生视频、语音生成的核心。
  • 核心模型 & 关系
    1. 经典分支:GAN(生成对抗网络),由生成器和判别器对抗训练,是图像生成的开山之作,变体有 DCGAN、CycleGAN、StyleGAN(超逼真人脸生成)。
    2. 概率分支:VAE(变分自编码器),基于概率建模的生成模型,适合可控生成、特征提取。
    3. 现在的主流:扩散模型(Diffusion Model),通过逐步加噪、反向去噪的方式生成数据,生成效果、可控性、多样性全面超越 GAN,是 Stable Diffusion、Midjourney、Sora 的核心底座。
    4. 自回归生成:GPT 系列、LLaMA 等大语言模型,本质也是生成式模型,通过自回归的方式生成文本序列。
  • 横向关系:现在基本都和 CNN/Transformer 深度融合,比如主流的扩散模型,核心结构都是 U-Net+Transformer。

四、终极梳理:所有模型的全维度关系,彻底终结混乱

1. 纵向层级关系(父集→子集,绝对不能乱)

plaintext

复制代码
人工智能(AI)
└── 机器学习(ML):AI的核心分支,让机器从数据中学习规律
    ├── 传统机器学习(浅层模型):人工特征工程,浅层结构
    │   ├── 监督学习:线性模型、树模型、核方法、SVM、KNN、朴素贝叶斯
    │   ├── 无监督学习:K-Means、PCA、DBSCAN、孤立森林、关联规则
    │   └── 半监督学习:上述模型的半监督变体
    ├── 深度学习(深层模型):自动特征提取,深层神经网络
    │   ├── 监督/自监督学习:MLP、CNN、RNN/LSTM、Transformer、GNN
    │   ├── 无监督学习:自编码器、GAN、扩散模型、无监督GNN
    │   └── 生成式学习:GAN、扩散模型、GPT等自回归大模型
    └── 强化学习(RL):独立学习范式,可结合传统/深度模型
        └── 深度强化学习(DRL):DQN、PPO,AlphaGo、大模型RLHF的核心

2. 横向互补关系(同层级,适配不同场景,互补而非替代)

模型家族 核心适配数据 不可替代的优势场景
树模型(XGBoost/LightGBM) 结构化表格数据 金融风控、医疗诊断、小样本结构化数据、高可解释性要求场景
CNN 图像、视频等网格数据 计算机视觉、图像分类、目标检测、边缘设备轻量化部署
Transformer 文本、多模态、全场景数据 大语言模型、文本生成 / 理解、多模态 AI、长序列全局建模
GNN 社交网络、分子、知识图谱等图数据 推荐系统、药物研发、知识图谱推理、交通路网预测
扩散模型 图像、视频、音频生成 AIGC、文生图、文生视频、数字内容创作
强化学习 动态环境、序列决策 游戏 AI、机器人控制、自动驾驶、大模型对齐

3. 演进迭代关系(后浪推前浪,解决前一代的核心缺陷)

  • 序列建模:基础 RNN → LSTM/GRU → Transformer(解决长序列依赖、无法并行计算的问题,全面替代 RNN)
  • 树模型:决策树 → 随机森林 → GBDT → XGBoost → LightGBM(解决过拟合、泛化能力差、计算效率低的问题)
  • CV 模型:LeNet → AlexNet → VGG → ResNet → ViT/Transformer(解决梯度消失、无法捕捉全局特征的问题)
  • 生成模型:VAE → GAN → 扩散模型 → 大语言模型(解决生成效果差、可控性低、多样性不足的问题)
  • 图建模:传统图算法 → GCN → GAT → Graph Transformer(解决无法自动提取特征、泛化能力差的问题)

4. 融合共生关系(现在的行业主流,取长补短)

  • Transformer + CNN:ViT、ConvNeXt,结合 CNN 的局部特征提取和 Transformer 的全局建模能力
  • Transformer + GNN:Graph Transformer,结合 GNN 的图结构建模和 Transformer 的注意力机制
  • 树模型 + 深度学习:Wide&Deep、DeepFM,结合树模型的可解释性和深度学习的拟合能力,推荐系统主流
  • 深度学习 + 强化学习:DRL、RLHF,大语言模型的核心对齐技术
  • 生成模型 + Transformer:扩散模型 + Transformer,Sora、Stable Diffusion XL 的核心

五、常见误区澄清(彻底解决你的残留困惑)

  1. 误区 1:深度学习不是机器学习纠正:深度学习是机器学习的一个核心分支,就像苹果是水果的一种,不是和水果并列的关系。
  2. 误区 2:Transformer、GNN 是独立于机器学习的模型纠正:Transformer 和 GNN 都属于深度学习,深度学习属于机器学习,所以它们都是机器学习模型,是机器学习里的高阶模型。
  3. 误区 3:大语言模型(LLM)不是机器学习纠正:所有大语言模型都是基于 Transformer 架构的深度学习模型,自然属于机器学习,是机器学习技术的集大成者。
  4. 误区 4:传统机器学习已经被深度学习淘汰了纠正:完全没有。在结构化表格数据、小样本、低算力、高可解释性要求的场景,XGBoost/LightGBM 依然是工业界的首选,深度学习反而不是最优解。
  5. 误区 5:一个模型只能属于一个分类纠正:不是。分类维度不同,归属就不同。比如逻辑回归,既属于监督学习,也属于线性模型,也属于分类模型,完全不冲突。

总结

机器学习是一个大家族,三大学习范式是房子的承重墙,传统机器学习和深度学习是两大房间,每个房间里的模型家族是家具,具体的模型变体是家具的不同款式。它们的核心目标都是「从数据中学习规律,解决实际问题」,区别只是适配的场景、数据类型、算力要求不同,没有绝对的好坏,只有合不合适。

相关推荐
乐迪信息2 小时前
乐迪信息:智慧港口AI防爆摄像机实现船舶流量精准统计
大数据·人工智能·物联网·安全·目标跟踪
海兰2 小时前
使用 Spring AI 打造企业级 RAG 知识库第三部分:企业部署与优化
java·人工智能·spring
煜bart2 小时前
适合自动化任务的编程语言分类和分析
人工智能·机器人·ai编程
K姐研究社2 小时前
阿里国际Accio Work实测:电商版OpenClaw,一键自动化运营
运维·人工智能·自动化
刘 大 望2 小时前
RAG相关技术介绍及Spring AI中使用--第二期
java·人工智能·spring·ai·chatgpt·aigc·etl
davidson14712 小时前
Ubuntu配置Claude
linux·人工智能·ubuntu·claude
小布的学习手记2 小时前
拒绝“传话游戏”!DenseNet 如何让神经网络开启“群聊”模式
人工智能·神经网络·游戏
甄心爱学习2 小时前
【自然语言处理】三种典型的词向量学习方法
人工智能·自然语言处理·学习方法