rnn

SuperHeroWu712 小时前
人工智能·rnn·深度学习·循环神经网络·自注意力机制·self-attention
【AI大模型】Self-Attention:为什么它能取代 RNN 解决长距离依赖?在 Transformer 一统 NLP 乃至多模态领域之前,序列建模几乎是 RNN 及其变体(LSTM、GRU)的天下。但随着文本长度增加、模型规模扩大,RNN 的瓶颈愈发明显。而 Self-Attention(自注意力机制) 的出现,不仅颠覆了序列建模范式,更凭借对长距离依赖的优秀建模能力,成为现代大模型的核心基石。
配奇2 天前
人工智能·rnn·深度学习
RNN及其变体循环神经网络(RNN)及其变体是专门为处理序列数据而设计的一类神经网络。它们的核心思想是引入“记忆”机制,能够利用历史信息来影响当前的输出,这使其在自然语言处理、时间序列分析等领域非常有效。
wayz112 天前
人工智能·rnn·深度学习·神经网络·lstm
Day 19 编程实战:LSTM股价预测说明为什么 return_sequences=False?激活函数的选择tanh 和 sigmoid 是LSTM的标准激活函数组合:
庞轩px5 天前
人工智能·rnn·深度学习·transformer·attention·q-k-v
Transformer的核心思想——Attention机制直观理解在上一篇中,我们理解了Embedding如何把文字变成向量。但光有向量还不够——大模型需要"读懂"一句话里各个词之间的关系。比如:
ting94520006 天前
pytorch·rnn·深度学习
动手学深度学习(PyTorch版)深度详解(8):现代循环神经网络(实战 + 避坑)在第上一章中,我们掌握了基础循环神经网络(RNN) 的核心逻辑,理解了其通过隐状态传递时序信息、处理序列数据的底层原理。但实践中,基础 RNN 存在两大致命缺陷:梯度消失 / 梯度爆炸(长序列中早期信息逐渐丢失)、长期依赖捕捉能力弱(无法关联序列首尾的关键信息)。
hhhhhh_we8 天前
图像处理·人工智能·rnn·深度学习·神经网络·3d·产品运营
皮肤人格的工程化实现:预颜美历如何用3D点云与循环神经网络构建数字孪生人格如果把人的客观皮肤参数(如皮质厚度、色素含量、皱纹深度、毛孔体积)视作一张刚性的“性格底牌”,即便参照BSTS这样16维的分型系统定义,表面人格仍然不够——因为皮肤的问题从来不只关于静态属性和细粒度分类,更在于建模皮肤人格的时序维度。皮肤会生病、会修复、会受到季节变化、激素水平、情绪压力的深刻影响。而这些动态过程意味着:皮肤人格不是一个静止的分类标签,而是一条随时间变化的时序谱,需要用数字孪生技术和循环神经网络的持续建模来研究。
RWKV元始智能9 天前
人工智能·rnn·深度学习·自然语言处理·开源
RWKV超并发项目教程,RWKV-LM训练提速40%超并发示例视频通过使用 RWKV-7 的推理引擎 Albatross,我们可实现极高的“超并发”推理效率,且永远恒定速度,永远恒定显存:
Jmayday9 天前
pytorch·rnn·深度学习
Pytorch:RNN理论基础目录一、什么是RNN?二、主要组成部分?三、词嵌入层四、循环网络层RNN:Recurrent Neural Network-循环神经网络
隔壁大炮9 天前
人工智能·pytorch·python·rnn·深度学习·神经网络·计算机视觉
Day07-RNN层(循环网络层)文本数据是具有序列特性的例如: "我爱你", 这串文本就是具有序列关系的,"爱" 需要在 "我" 之后,"你" 需要在 "爱" 之后, 如果颠倒了顺序,那么可能就会表达不同的意思。
带电的小王9 天前
人工智能·pytorch·rnn·深度学习
【动手学深度学习】8.4. 循环神经网络本节参考《动手学深度学习》第二版(PyTorch)8.4节,介绍循环神经网络的基本概念、隐状态机制以及基于RNN的字符级语言模型和困惑度评估。
大连好光景10 天前
rnn·cnn·transformer
《从函数到大模型速通》所有一切的前提是,你要相信这个世界上的所有逻辑和知识,都可以用一个函数来表示。Functions describe the world !
隔壁大炮10 天前
人工智能·pytorch·rnn·深度学习·神经网络·算法·numpy
Day07-RNN介绍循环神经网络(Recurrent Neural Network, RNN)是一种专门处理序列数据的神经网络。与传统的前馈神经网络不同,RNN具有“循环”结构,能够处理和记住前面时间步的信息,使其特别适用于时间序列数据或有时序依赖的任务。 我们要明确什么是序列数据,时间序列数据是指在不同时间点上收集到的数据,这类数据反映了某一事物、现象等随时间的变化状态或程度。这是时间序列数据的定义,当然这里也可以不是时间,比如文字序列,但总归序列数据有一个特点——后面的数据跟前面的数据有关系。
kishu_iOS&AI12 天前
人工智能·rnn·深度学习
深度学习 —— RNN循环神经网络,一般以序列数据为输入,通过网络内部的结构有效捕捉1.句子中的词全部处理完2.循环次数达到我们的要求
EnCi Zheng14 天前
人工智能·rnn·深度学习
01c-循环神经网络RNN详解本文档将带你深入理解循环神经网络(RNN),从基本原理到实际应用,掌握处理序列数据的核心技术。我们将学习RNN的结构、训练方法、常见变体及其局限性,为后续学习LSTM和Transformer打下坚实基础。
SomeB1oody16 天前
开发语言·人工智能·python·rnn·深度学习·机器学习
【Python深度学习】3.4. 循环神经网络(RNN)实战:预测股价喜欢的话别忘了点赞、收藏加关注哦(关注即可查看全文),对接下来的教程有兴趣的可以关注专栏。谢谢喵!(=・ω・=)
輕華16 天前
人工智能·rnn·lstm
LSTM实战(下篇):微博情感分析——训练策略、早停机制与推理部署本文是《LSTM实战(中篇):微博情感分析——Bi-LSTM模型架构解析》系列的收尾篇。本篇重点解析 train_eval_test.py 中的工程化训练策略,以及 main.py 的推理预测闭环,最终完成完整项目的端到端串联。
EnCi Zheng16 天前
rnn·gru·lstm
01c-LSTM与GRU门控机制详解本文深入讲解 LSTM(长短期记忆网络)和 GRU(门控循环单元)的门控机制原理。😊 我们将从传统 RNN 的梯度消失问题出发,详细剖析 LSTM 的三个门(遗忘门、输入门、输出门)和 GRU 的两个门(更新门、重置门)的工作机制,并通过数学公式和直观类比帮助你理解这些"门"如何控制信息流。掌握门控机制是理解现代序列模型的关键一步!
我材不敲代码17 天前
人工智能·rnn·lstm
LSTM 长短期记忆网络详解传统循环神经网络(RNN)是处理序列数据(文本、语音、时间序列)的经典模型,但它存在致命缺陷:无法有效捕捉长期依赖关系,训练时极易出现梯度消失、梯度爆炸问题,距离较远的上下文信息会完全丢失。
迷你可可小生18 天前
人工智能·rnn·lstm
面经(三)1、请你解释一下神经网络训练中为什么会出现梯度消失和梯度爆炸?它们分别会带来什么现象?通常怎么解决?答:
天一生水water18 天前
人工智能·rnn·cnn
CNN循环神经网络关键知识点核心认知 自然图像具备天生空间结构先验:相邻像素强相关,距离越远像素相关性越弱,视觉信息局部稠密、全局稀疏。 底层机制 摒弃全连接神经网络(FC)无差别全像素互联的暴力建模方式,CNN每个神经元仅连接输入空间的一小块局部区域,只建模近距离空间依赖,主动舍弃远距离无意义的冗余连接。 设计价值 这是CNN诞生的最原始底层公理,从源头削减海量无效计算、降低网络冗余,是卷积结构存在的根本前提,整个领域无任何专家质疑。