技术栈
rnn
colus_SEU
4 小时前
人工智能
·
rnn
·
深度学习
·
gru
【循环神经网络5】GRU模型实战,从零开始构建文本生成器
【循环神经网络3】门控循环单元GRU详解-CSDN博客https://blog.csdn.net/colus_SEU/article/details/152218119?spm=1001.2014.3001.5501在以上▲笔记中,我们详解了GRU模型,接下来我们通过实战来进一步理解。
数智顾问
5 天前
人工智能
·
rnn
·
深度学习
Transformer模型:深度解析自然语言处理的革命性架构——从注意力机制到基础架构拆解
在自然语言处理(NLP)的发展历程中,从早期的RNN(循环神经网络)到LSTM(长短期记忆网络),再到2017年Google提出的Transformer模型,每一次架构革新都推动着技术边界的突破。其中,Transformer凭借其完全基于注意力机制(Attention)的设计,彻底摆脱了对序列递归结构的依赖,不仅解决了传统模型在长距离依赖建模上的缺陷,更成为后续BERT、GPT等大语言模型的基石。本文将深入拆解Transformer的基础架构,聚焦核心技巧与代码实现细节,揭示其如何成为NLP革命的起点。
一百天成为python专家
6 天前
人工智能
·
rnn
·
自然语言处理
·
数据分析
·
lstm
·
pandas
·
easyui
【项目】自然语言处理——情感分析 <上>
对微博评论信息的情感分析,建立模型,自动识别评论信息的情绪状态。将每条评论内容转换为词向量。每个词/字转换为词向量长度(维度)200,使用腾讯训练好的词向量模型有4960个维度,需要这个模型或者文件可私信发送。
colus_SEU
7 天前
人工智能
·
rnn
·
深度学习
·
机器学习
·
gru
【循环神经网络3】门控循环单元GRU详解
GRU提出的Motivation是为了解决传统RNN(1986)中在处理实际问题时遇到的长期记忆丢失和反向传播中的梯度消失或爆炸(详见【循环神经网络1】一文搞定RNN入门与详解-CSDN博客的4.4节)等问题。
小雪狼
7 天前
rnn
·
yolo
RV1126 RKNN环境搭建记录
通过github下载 rknn-toolkit-v1.7.5-packages.tar.gz 搭建py环境
en-route
7 天前
人工智能
·
rnn
·
深度学习
从零开始学神经网络——RNN(循环神经网络)
在深度学习领域,RNN(循环神经网络)是处理时间序列数据的重要工具。它广泛应用于自然语言处理、语音识别、机器翻译等任务中。本文将深入解析RNN的核心结构,解释公式中的变量维度,并结合自然语言处理的实际例子,帮助你更好地理解RNN的训练与预测过程,同时也会介绍一些RNN的潜在问题。
hi0_6
8 天前
rnn
·
机器学习
·
自然语言处理
机器学习第十六章 基于RNN和注意力机制的自然语言处理
我们能建造一台同时掌握书面语言和口头语言的机器吗?这是自然语言处理研究的终极目标,但这太宽泛了,实际上研究者会侧重于更具体的任务,如文本分类、翻译、摘要、问答等。
缘友一世
9 天前
pytorch
·
rnn
·
深度学习
PyTorch深度学习实战【12】之基于RNN的自然语言处理入门
中文分词方法经典中文分词工具中文分词工具选择建议说明:NLP预测任务中,生成式流程比分类/回归任务更复杂。生成式任务中,RNN逐字或逐词生成句子或段落(如ChatGPT逐词输出),其输出层结构与分类任务存在显著差异。生成模型无法"无中生有",只能从已见过的字、词或短语中选择语义自洽的输出。其本质是为每个候选字、词或短语计算概率,选择可能性最高的输出,因此属于多分类概率模型。
机器学习之心
10 天前
rnn
·
matlab
·
锂电池剩余寿命预测
·
rnn循环神经网络
基于RNN循环神经网络的锂电池剩余寿命预测Matlab实现
rongliangtiqu.m(容量提取模块):main.m(主预测模块):数据预处理流程:RNN预测流程:
山烛
10 天前
人工智能
·
rnn
·
深度学习
·
lstm
·
门控循环单元
·
循环神经网络
·
长短时记忆网络
一文读懂循环神经网络(RNN):原理、局限与LSTM解决方案
在自然语言处理(NLP)中,处理文本、语音等序列数据是核心需求。传统神经网络因无法捕捉数据的顺序关联,难以应对这类任务,而循环神经网络(RNN)凭借“记忆性”特性,成为解决序列问题的关键模型。本文将从RNN的核心原理出发,分析其局限,并详解LSTM如何突破这些局限,最后结合实例帮助理解。
Billy_Zuo
11 天前
人工智能
·
rnn
·
深度学习
人工智能深度学习——循环神经网络(RNN)
序列模型:输入或者输出中包含有序列数据的模型任务:基于zgpa_train.csv数据,建立RNN模型,预测股价: 1.完成数据预处理,将序列数据转化为可用于RNN输入的数据 2.对新数据zgRa_test.csv进行预测,可视化结果 3.存储预测结果,并观察局部预测结果 备注:模型结构:单层RNN,输出有5个神经元;每次使用前8个数据预测第9个数据
dlraba802
12 天前
人工智能
·
rnn
·
lstm
RNN 与 LSTM:解密序列数据的 “记忆大师”
在处理文本、语音、时间序列等序列数据时,传统神经网络因无法捕捉数据间的顺序依赖关系而受限。循环神经网络(RNN)及其进阶版长短期记忆网络(LSTM)应运而生,成为序列建模的核心工具。本文将带你深入了解 RNN 与 LSTM 的原理、差异及应用。
补三补四
21 天前
人工智能
·
rnn
·
lstm
LSTM 深度解析:从门控机制到实际应用
在深度学习领域,循环神经网络 (RNN) 是处理序列数据的强大工具,但传统 RNN 在处理长序列时面临两个主要挑战:短时记忆和梯度消失 / 爆炸问题。当序列长度增加时,RNN 很难捕捉到序列中相隔较远的信息之间的依赖关系,这种现象被称为 "记忆健忘症"。同时,在反向传播过程中,梯度会随着时间步的推移而逐渐消失或爆炸,导致模型难以学习到长期依赖关系。
孤心亦暖
22 天前
rnn
·
gru
·
lstm
RNN,GRU和LSTM的简单实现
好久没写博客了,今天一个简单的契机,记录一下如何简单的使用循环神经网络和它的扩展方法来做一个简单的序列预测。这段时间一直在用GRU做一些网络架构的设计,但是自己写的方法一直不工作,误差很大,又没有在网上找到比较现成或者直观的代码可以直接复现,比较头疼,今天刷到b站一个up做的视频Pytorch简单案例带你学会使用LSTM,GRU,讲的深入浅出,很用心很详细,跑了一遍感慨万千,记录一下过程和心得。
kunwen123
23 天前
rnn
·
langchain
·
cnn
·
transformer
·
langgraph
机器学习、深度学习
卷积神经网络(CNN)vs. 循环神经网络(RNN)vs. Transformer一文带你搞懂 AI Agent 开发利器:LangGraph 与 LangChain 区别
先做个垃圾出来………
24 天前
人工智能
·
rnn
·
cnn
传统模型RNN与CNN介绍
循环神经网络是一类专门用于处理序列数据的神经网络。在传统的前馈神经网络中,信息只能单向流动,输入层到隐藏层再到输出层,各输入之间是相互独立的。而在 RNN 中,由于序列数据前后元素之间通常存在依赖关系,RNN 通过引入循环结构,使得网络在处理当前时刻的输入时,能够记住之前时刻的信息。
程序员miki
1 个月前
人工智能
·
pytorch
·
rnn
·
深度学习
RNN循环神经网络(一):基础RNN结构、双向RNN
循环神经网络(Recurrent Neural Network, RNN)是一类专门用于处理序列数据的神经网络架构。与传统的前馈神经网络不同,RNN具有"记忆"能力,能够捕捉数据中的时间依赖关系。
fantasy_arch
1 个月前
人工智能
·
rnn
·
深度学习
9.3深度循环神经网络
目前为止,只讨论了具有一个单向隐藏层的循环神经网络,其中隐变量和观测值域具体的函数形式的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,不是一个单问题。然而,对一个单层来说,可能具有相当的挑战性。之前的线性模型中,我们通过添加更多的层来解决这个问题,而在循环神经网络中,我们首先需要确定如何添加更多的层,以及在哪里添加额外的非线性层。
会写代码的饭桶
1 个月前
人工智能
·
rnn
·
lstm
·
transformer
通俗理解 LSTM 的三门机制:从剧情记忆到科学原理
你有没有过这样的体验:追一部几十集的连续剧时,总能记住主角的核心目标,却会忘记前三集里路人甲的台词?这种 “选择性记忆” 的能力,其实和 LSTM(长短期记忆网络)的工作原理惊人地相似。
鲸鱼在dn
1 个月前
rnn
·
深度学习
·
transformer
Transformer 架构的演进与未来方向(RNN → Self-Attention → Mamba)——李宏毅大模型2025第四讲笔记
一句话总结——“所有架构都为了解决上一代模型的致命缺陷而生:CNN 解决参数爆炸,ResNet 解决梯度消失,Transformer 解决 RNN 无法并行,而 Mamba 则试图一次解决 Transformer 的 O(N²) 与 RNN 的记忆瓶颈。”