技术栈
lstm
serve the people
2 天前
人工智能
·
rnn
·
lstm
LSTM 模型 简要解析
LSTM(Long Short-Term Memory,长短期记忆网络)是循环神经网络(RNN)的改进版本,核心解决了传统 RNN 在处理长序列时的“梯度消失/爆炸”问题,能够有效捕捉序列数据中的长距离依赖关系(比如文本上下文、时间序列趋势)。
木头左
3 天前
人工智能
·
rnn
·
lstm
遗忘门参数对LSTM长期记忆保留的影响分析
ft=σ(Wf⋅[ht−1,xt]+bf) f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f) ft=σ(Wf⋅[ht−1,xt]+bf) 其中bfb_fbf为遗忘门偏置,σ\sigmaσ为Sigmoid激活函数。当bfb_fbf增大时:
拉姆哥的小屋
3 天前
人工智能
·
3d
·
lstm
突破传统PINN瓶颈:基于LSTM-格林函数的3D瞬态温度场智能预测新方法
(自己实习期间小文章的总结,方便自己查找回顾)代码连接:基于LSTM-格林函数的3D瞬态温度场智能预测新方法源代码(可直接使用,数据代码,训练权重均有)(包含说明文档和数据说明等)资源-CSDN下载
渣渣苏
5 天前
ai
·
大模型
·
nlp
·
lstm
·
transform
NLP从入门到精通
自然语言处理(Natural Language Processing, NLP),是人工智能领域的一个重要分支。自然语言,指人类日常使用的语言(如中文、英文),NLP 的目标是让计算机“理解”或“使用”这些语言。
范桂飓
5 天前
人工智能
·
rnn
·
lstm
人工智能发展史 — RNN/LSTM/GRU/Transformer 序列模型发展历程
在 AI 领域,文本翻译、语音识别、股价预测等场景都离不开序列模型和序列数据处理。序列是数据点或事件的有序列表。与独立的图像或表格数据不同,序列数据中的元素具有内在的顺序和时间依赖性。 典型的例子包括:自然语言文本、语音、视频、股票价格、天气读数或传感器数据等。
盼小辉丶
5 天前
pytorch
·
深度学习
·
lstm
·
生成模型
PyTorch实战(16)——基于LSTM实现音乐生成
本节我们将介绍音乐生成,利用 PyTorch 构建能够创作类古典音乐的机器学习模型。在本节中,我们将采用长短期记忆网络 (Long Short-Term Memory, LSTM) 来处理序列化音乐数据。训练数据选自莫扎特的古典音乐作品,每首乐曲将被分解为钢琴音符序列。读取以 MIDI (Musical Instrument Digital Interface) 格式存储的音乐数据,MIDI 是一种跨设备、跨环境读写音乐数据的通用标准格式。 在将 MIDI 文件转换为钢琴音符序列(即钢琴卷帘谱,piano
斯外戈的小白
5 天前
人工智能
·
自然语言处理
·
lstm
【NLP】LSTM架构
提示:持续更新RNN的特点:权值共享——>导致梯度下降的过程中产生了权值冲突的问题,主要体现在输入冲突和输出冲突两种。本部分的内容主要是为了体现LSTM解决该冲突的思路和计算方法。
非著名架构师
7 天前
神经网络
·
lstm
·
transformer
·
高精度气象数据
·
风光高精度功率预测
当AI气象大模型成为新质生产力:如何用“会思考的气象体”重构企业生产排程?
困扰现代生产的三大现实难题:机械化的排程逻辑基于固定周期和理论产能的排程模式天气因素被视为“不可控干扰项”而非生产参数
鹿角片ljp
8 天前
python
·
nlp
·
lstm
基于 BiLSTM 的中文文本相似度计算项目实现
在自然语言处理(NLP)领域,文本相似度计算是一项基础且重要的任务,广泛应用于问答系统、信息检索、推荐系统等场景。本文将介绍一个基于双向 LSTM(BiLSTM)的中文文本相似度计算项目,该项目能够量化评估两个中文句子的语义相似程度,输出 0-5 分的相似度分数(分数越高表示越相似)。项目已开源,我的github地址:jiapengLi11/BiLSTM_text_similarity
像风一样自由2020
8 天前
人工智能
·
rnn
·
lstm
LSTM-KNN融合模型:让AI既有记忆又会“查字典“
假设你是一位股票交易员,每天早上醒来要预测今天的股价走势。你会怎么做?方法一:看趋势 你翻开过去三个月的K线图,发现"每次跌破20日均线后,通常会反弹",这就是记忆规律。
CClaris
11 天前
人工智能
·
numpy
·
lstm
手撕 LSTM:用 NumPy 从零实现 LSTM 前向传播
LSTM(Long Short-Term Memory)是深度学习中处理序列数据的经典模型。虽然现在 Transformer 风头正盛,但 LSTM 仍然是理解序列建模的基石,面试中也是常客。
fantasy_arch
11 天前
人工智能
·
rnn
·
lstm
LSTM和DenseNet区别
t是深度学习中两种重要但设计哲学完全不同的神经网络架构,核心区别可以总结为:LSTM是用于处理序列数据的循环网络,核心是 时间上的记忆传递,而DenseNet是用于处理空间数据的前馈网络,核心是深度上的特征复用。
Dev7z
12 天前
人工智能
·
机器学习
·
lstm
基于粒子群优化的LSTM时间序列预测模型研究
摘要:随着工程系统中时间序列数据的复杂性不断提高,传统预测模型在泛化能力和预测稳定性方面已难以满足实际需求。长短期记忆网络(LSTM)在处理非线性与长依赖序列方面具有优势,但其预测性能高度依赖于隐层规模、学习率等超参数的设置,不合理的参数选择易导致模型收敛缓慢或陷入局部最优。为提升模型在工程时序预测任务中的精度和稳定性,构建一种高效、自动化的超参数优化策略具有重要研究价值。
提娜米苏
13 天前
论文阅读
·
深度学习
·
lstm
·
语音识别
·
论文笔记
·
多模态
[论文笔记] End-to-End Audiovisual Fusion with LSTMs
原文标题:End-to-End Audiovisual Fusion with LSTMs 发表年份:2017 核心思想:本文是《End-to-end visual speech recognition with LSTMs》的进阶篇。它将基于 LSTM 的端到端架构从**视觉(Visual)扩展到了视听(Audiovisual)**领域,并将任务从单纯的“说话内容识别”扩展到“语音识别和非语言发声分类”。
极客BIM工作室
13 天前
rnn
·
lstm
·
transformer
序列建模:RNN、LSTM 与 Transformer 的技术异同深度解析
序列建模是自然语言处理(NLP)、语音识别、时序预测等领域的核心任务,其核心目标是捕捉数据中的 “时序依赖” 与 “全局关联”。循环神经网络(RNN)作为早期主流架构,奠定了序列建模的基础,但受限于梯度消失 / 爆炸问题;长短期记忆网络(LSTM)通过门控机制突破了这一局限,成为中长期序列建模的标杆;而 Transformer 凭借自注意力机制颠覆了传统时序依赖的建模方式,以并行计算能力和全局关联捕捉能力成为当前主流架构。本文将从结构设计、核心特性、性能表现、适用场景四大维度,系统对比三者的异同,剖析技术
提娜米苏
13 天前
论文阅读
·
深度学习
·
计算机视觉
·
lstm
·
语音识别
·
视觉语音识别
[论文笔记] 基于 LSTM 的端到端视觉语音识别 (End-to-End Visual Speech Recognition with LSTMs)
原文标题:End-to-End Visual Speech Recognition with LSTMs 发表年份:2017 核心思想:如何显式地让网络同时关注唇部的“形状”和“运动”,实现从像素到语义的端到端识别。
deepdata_cn
13 天前
rnn
·
算法
·
lstm
时序性步态数据处理的RNN及LSTM算法
步态数据是通过传感器(如惯性测量单元IMU、压力传感鞋垫、运动捕捉系统)采集的人体行走过程中的多维数据,核心参数包括关节角度(髋、膝、踝)、肢体加速度、地面反作用力、足底压力分布等。其最显著的特征是时序连续性——一个完整步态周期(从一侧足跟着地到同侧再次着地)可分为支撑相(约占60%)和摆动相(约占40%),各阶段的参数变化呈现严格的时间先后依赖关系,且相邻步态周期之间存在规律性的重复与变异。 传统数据处理方法(如统计特征提取、隐马尔可夫模型)虽能捕捉部分时序规律,但难以处理长序列中复杂的非线性依赖关系。
木头左
13 天前
人工智能
·
rnn
·
lstm
门控注意力单元与LSTM细胞状态更新的协同机制
本技术方案通过在传统LSTM(Long Short-Term Memory)网络中植入门控注意力单元(Gated Attention Unit),构建具备动态特征权重分配能力的量化交易策略模型。该架构的核心价值在于解决传统LSTM在处理高频时序数据时存在的长程依赖建模不足问题,同时通过注意力机制增强关键时间步特征的提取能力。具体而言,系统通过以下三个层次实现技术突破:
_codemonster
13 天前
人工智能
·
深度学习
·
lstm
深度学习实战(基于pytroch)系列(四十)长短期记忆(LSTM)从零开始实现
本节将介绍另一种常用的门控循环神经网络:长短期记忆(long short-term memory,LSTM)。它比上节我们讲的门控循环单元的结构稍微复杂一点。
玖日大大
14 天前
人工智能
·
rnn
·
lstm
LSTM 深度解析:原理、实现与实战应用
在深度学习的发展历程中,循环神经网络(Recurrent Neural Network, RNN)曾被寄予厚望,它通过引入循环结构,理论上能够捕捉序列数据中的时序依赖关系,为自然语言处理、时间序列预测等领域提供了新的解决方案。然而,传统 RNN 在实际应用中面临着严峻的挑战 —— 梯度消失(Vanishing Gradient)和梯度爆炸(Exploding Gradient)问题。当处理长序列数据时,梯度在反向传播过程中会急剧衰减或无限增大,导致模型无法学习到长期依赖关系,训练效果大打折扣。