机器学习入门(十一)常见的神经网络汇总

上一篇文章介绍了 RNN,这一篇文章将介绍一下其他常见的神经网络。

循环神经网络(RNN)

循环神经网络(RNN),用于处理序列数据 。与传统的神经网络不同,RNN具有循环连接,使得它可以在处理序列时保持一种记忆状态。图片来源这里

如上图所示,RNN 的隐藏层会把当前时间步的输入和上一个时间步的隐藏状态作为输入。通过这种循环,使得RNN可以处理变长序列,并且能够捕捉到序列中的时序信息。

长短时记忆网络(LSTM)

传统的RNN在处理长序列时存在梯度消失和梯度爆炸的问题,这限制了其对长期依赖关系的建模能力。为了解决这个问题,出现了长短时记忆网络(LSTM),它是一种改进的循环神经网络(RNN)架构。

LSTM 引入了一个记忆单元(memory cell),该单元可以存储和访问信息,并通过门控机制来控制信息的流动。LSTM 的关键部分包括输入门 (input gate)、遗忘门 (forget gate)、输出门 (output gate)。如下图所示,图片来源这里

生成对抗网络(GAN)

GAN包含有两个模型,一个是生成模型(generative model),一个是判别模型(discriminative model)。生成模型的任务是生成看起来自然真实的、和原始数据相似的实例。判别模型的任务是判断给定的实例看起来是自然真实的还是人为伪造的(真实实例来源于数据集,伪造实例来源于生成模型)。二者关系形成对抗,因此叫对抗网络。

模型的保存和加载

之前介绍过,我们可以使用 keras 库来训练对应的神经网络模型。这里介绍一下,如何保存和加载已经训练好的模型。代码示例如下:

ini 复制代码
# 存储模型
import joblib
joblib.dump(model1, 'model1.m')
# 模型加载
model2 = joblib.load('model1.m')

加载后的模型,我们还可以对它进行训练,这种方式叫做迁移学习。代码示例如下:

ini 复制代码
# 迁移学习
model2.fit(x2, y2, epochs=10)

参考

相关推荐
胡乱编胡乱赢1 分钟前
联邦学习中Decaf攻击的具体实现流程
深度学习·机器学习·联邦学习·decaf攻击·decaf攻击具体实现流程·数学分解
大千AI助手14 分钟前
曼哈顿距离:概念、起源与应用全解析
人工智能·机器学习·数据挖掘·距离度量·曼哈顿距离·大千ai助手·街区距离
Jay20021112 小时前
【机器学习】23-25 决策树 & 树集成
算法·决策树·机器学习
海边夕阳20068 小时前
【每天一个AI小知识】:什么是生成对抗网络?
人工智能·经验分享·深度学习·神经网络·机器学习·生成对抗网络
CoderYanger10 小时前
递归、搜索与回溯-穷举vs暴搜vs深搜vs回溯vs剪枝:12.全排列
java·算法·leetcode·机器学习·深度优先·剪枝·1024程序员节
搞科研的小刘选手11 小时前
【高录用|快检索】第二届图像处理、多媒体技术与机器学习国际学术会议(IPMML 2025)
人工智能·机器学习·多媒体·学术会议
高锰酸钾_12 小时前
机器学习基础 | KNN(K-近邻)
人工智能·机器学习
CM莫问12 小时前
详解机器学习经典模型(原理及应用)——岭回归
人工智能·python·算法·机器学习·回归
xcLeigh12 小时前
AI的提示词专栏:Prompt 与传统机器学习特征工程的异同
人工智能·机器学习·ai·prompt·提示词
DuHz12 小时前
论文阅读——Edge Impulse:面向微型机器学习的MLOps平台
论文阅读·人工智能·物联网·算法·机器学习·edge·边缘计算