跟李沐学AI:门控循环单元GRU、

目录

简介

候选隐藏状态

隐状态


简介

GRU是一种在循环神经网络中使用的单元结构。它旨在解决传统RNN在网络处理长序列数据时遇到的梯度消失或梯度爆炸问题。

GRU通过引入门控机制来控制信息的流动,从而使得网络能够更好地学习长期依赖性。

门可以视为一个与隐状态相同长度的向量,分为重置门和更新门。 重置门允许我们控制"可能还想记住"的过去状态的数量; 更新门将允许我们控制新状态中有多少个是旧状态的副本。更新门是一个sigmoid激活函数输出的结果,其值范围在0到1之间。当更新门完全打开(接近1)时,意味着旧状态将完全保留;当它关闭(接近0)时,则意味着旧状态将被丢弃,新的候选状态将完全取代旧状态。

重置门计算公式为:

更新门计算公式为:

候选隐藏状态

候选隐状态(candidate hidden state)是指在某一时间步t计算出的一个潜在的新隐状态值,通常用表示。

候选隐状态计算公式为:

符号⊙是Hadamard积(按元素乘积)运算符。 在这里,我们使用tanh非线性激活函数来确保候选隐状态中的值保持在区间(−1,1)中。其中,重置门的作用是确定上一时刻的状态​中有多少信息需要传递到当前时刻的候选隐状态中。如果重置门关闭(即​接近于0),则上一时刻的信息对当前候选隐状态的影响很小;如果重置门开启(即​接近于1),则上一时刻的信息将完全参与当前候选隐状态的计算。

隐状态

结合更新们,可以确定新的隐状态决定了新的隐状态多大程度来自旧的隐状态和新的候选状态。每当更新门接近1时,模型就倾向只保留旧状态。 此时,来自的信息基本上被忽略, 从而有效地跳过了依赖链条中的时间步t。 相反,当接近0时, 新的隐状态就会接近候选隐状态

隐状态公式为:

相关推荐
Francek Chen15 小时前
【自然语言处理】应用04:自然语言推断与数据集
人工智能·pytorch·深度学习·神经网络·自然语言处理
硬核创业者15 小时前
3个低门槛创业灵感
人工智能
冰西瓜6001 天前
从项目入手机器学习——鸢尾花分类
人工智能·机器学习·分类·数据挖掘
爱思德学术1 天前
中国计算机学会(CCF)推荐学术会议-C(人工智能):IJCNN 2026
人工智能·神经网络·机器学习
偶信科技1 天前
国产极细拖曳线列阵:16mm“水下之耳”如何撬动智慧海洋新蓝海?
人工智能·科技·偶信科技·海洋设备·极细拖曳线列阵
Java后端的Ai之路1 天前
【神经网络基础】-神经网络学习全过程(大白话版)
人工智能·深度学习·神经网络·学习
庚昀◟1 天前
用AI来“造AI”!Nexent部署本地智能体的沉浸式体验
人工智能·ai·nlp·持续部署
喜欢吃豆1 天前
OpenAI Realtime API 深度技术架构与实现指南——如何实现AI实时通话
人工智能·语言模型·架构·大模型
数据分析能量站1 天前
AI如何重塑个人生产力、组织架构和经济模式
人工智能
wscats1 天前
Markdown 编辑器技术调研
前端·人工智能·markdown