lstm

19894 天前
人工智能·rnn·yolo·目标检测·tensorflow·lstm
【零基础学AI】第31讲:目标检测 - YOLO算法目标检测就像教计算机"看"图片中的物体。它不仅要知道图片中有什么物体,还要知道这些物体在哪里(用方框标出来)。
神仙别闹5 天前
开发语言·python·lstm
基于Python实现LSTM对股票走势的预测为对股票价格的涨跌幅度进行预测,本文使用了基于长短期记忆网络(LSTM)的方法。根据股票涨跌幅问题, 通过对股票信息作多值量化分类,将股票预测转化成一个多维函数拟合问题。将股票的历史基本交易信息作为特征输入,利用神经网络对其训练,最后对股票的涨跌幅度做分类预测。数据集为代号 510050 的上证股票,实验结果表明该模型在单纯预测涨跌的情况下有比较好的预测效果。
王上上6 天前
论文阅读·人工智能·lstm
【论文阅读41】-LSTM-PINN预测人口这篇论文提出了一种面向年龄结构化人口预测问题的LSTM-PINN 混合方法。针对现有模型难以同时处理长期时间依赖性与政策驱动的人口异质性问题,作者构建了两种深度学习框架:
19896 天前
人工智能·python·rnn·神经网络·机器学习·tensorflow·lstm
【零基础学AI】第26讲:循环神经网络(RNN)与LSTM - 文本生成想象你在读一本小说:传统神经网络的缺陷:RNN的解决方案:关键组件:当网络较深时(时间步很多):就像一个有记忆管理系统的智能笔记本:
24毕业生从零开始学ai8 天前
rnn·神经网络·lstm
长短期记忆网络(LSTM):让神经网络拥有 “持久记忆力” 的神奇魔法在神经网络的奇妙世界里,有一种模型仿佛拥有了 “魔法”,能够记住很久以前的信息,克服了传统循环神经网络(RNN)在处理长序列数据时的 “健忘症”,它就是长短期记忆网络(Long Short-Term Memory Network),简称 LSTM。今天,就让我们一起走进 LSTM 的世界,揭开它神秘的面纱。
.30-06Springfield9 天前
人工智能·pytorch·python·rnn·分类·gru·lstm
利用人名语言分类案例演示RNN、LSTM和GRU的区别(基于PyTorch)在自然语言处理领域,人名分类是一个有趣且实用的任务,例如可以根据人名推测其所属的语言或文化背景。本文将详细介绍如何使用 PyTorch 构建基于 RNN、LSTM 和 GRU 的人名分类模型,通过对代码的剖析,帮助大家理解这些循环神经网络在序列数据处理中的应用。
suixinm19 天前
gru·lstm·transformer
LSTM、GRU 与 Transformer网络模型参数计算LSTM 单元包含 4 个门控结构(输入门、遗忘门、候选单元、输出门)Python简化公式: LSTM_params ≈ 4 × hidden_size × (input_size + hidden_size + 1)
是纯一呀19 天前
人工智能·lstm·transformer·预测
融合LSTM与自注意力机制的多步光伏功率预测新模型解析这篇论文《Improved multistep ahead photovoltaic power prediction model based on LSTM and self-attention with weather forecast data》(2024, Applied Energy)聚焦在 多步光伏功率预测 中,如何结合 LSTM 与自注意力机制(self-attention),并 有效引入天气预报数据 来提升预测准确性。
weixin_5079299120 天前
人工智能·lstm
R4 LSTM-火灾温度预测5948 rows × 3 columns均方根误差: 7.67063 R2: 0.82748收获: 学会如何通过LSTM进行文本的预测
boooo_hhh22 天前
人工智能·tensorflow·lstm
第32周———Tensorflow|LSTM-火灾温度预测目录前言1.检查GPU2.查看数据3.划分数据集4.创建模型5.编译及训练模型6.结果可视化7.模型评估
摘取一颗天上星️1 个月前
网络·人工智能·深度学习·机器学习·lstm·外部记忆
端到端记忆网络 vs 神经图灵机:外部记忆的两种哲学之争在增强神经网络的外部记忆能力领域,端到端记忆网络(End-to-End MemN2N) 和 神经图灵机(NTM) 代表了两种截然不同的设计理念。它们都试图赋予神经网络"工作记忆"能力,但实现路径却大相径庭。本文将深入解剖两者在记忆操作上的本质差异。
王上上1 个月前
论文阅读·人工智能·lstm
【论文阅读34】Attention-ResNet-LSTM(JRMGE2024)论文提出了一种新的混合深度学习模型——Attention-ResNet-LSTM,用于实时预测盾构机(TBM)的掘进速度(Advance Rate,简称AR)。该模型结合了注意力机制(Attention)、残差网络(ResNet)和长短时记忆网络(LSTM),旨在充分挖掘盾构掘进过程中复杂的时空非线性特征。
简简单单做算法1 个月前
算法·matlab·lstm·时间序列预测·pso·vmd-lstm·pso-vmd-lstm
基于PSO粒子群优化的VMD-LSTM时间序列预测算法matlab仿真目录1.前言2.算法运行效果图预览3.算法运行软件版本4.部分核心程序5.算法仿真参数6.算法理论概述
摘取一颗天上星️1 个月前
人工智能·rnn·lstm
LSTM梯度推导与梯度消失机制解析LSTM(长短期记忆网络)通过精妙的门控设计解决了传统RNN的梯度消失问题。我们将深入推导LSTM参数的梯度传播过程,揭示其保持梯度流动的数学本质。
王上上1 个月前
论文阅读·cnn·lstm
【论文阅读31】-CNN-LSTM(2025)-电池健康预测本文提出了一个基于多模态充电数据和残差神经网络的 SOH 估算框架,利用真实 EV 车队大数据验证了方法的有效性,并实现开源发布,推动了电池健康管理从实验室走向实际应用。
王上上1 个月前
论文阅读·人工智能·lstm
【论文阅读30】Bi-LSTM(2024)用于精确实时滑坡检测的双向LSTM模型:以印度梅加拉亚邦毛永格里姆为例的研究IEEE Internet of Things Journal(简称 IoT‑J)是一份 IEEE 自 2014 年起双月刊发表的国际顶级学术期刊,专注于物联网各领域的研究。
l木本I1 个月前
python·深度学习·自然语言处理·lstm·transformer
大模型低秩微调技术 LoRA 深度解析与实践在大型预训练模型(LPMs)日益成为人工智能基石的当下,其庞大的参数量给传统全参数微调带来了巨大的资源和效率挑战。为应对此,参数高效微调(PEFT)技术应运而生。本文将深入聚焦PEFT中的核心技术——LoRA(Low-Rank Adaptation)。阐述LoRA如何通过引入低秩矩阵,在冻结原始模型权重的前提下,高效地实现模型对特定任务的适应。本文将演示如何利用Hugging Face生态系统进行LoRA微调实践。
机器学习之心1 个月前
机器学习·matlab·lstm·lstm-svm
Matlab实现LSTM-SVM回归预测,作者:机器学习之心代码主要功能 该代码实现了一个LSTM-SVM回归预测模型,核心流程如下:数据预处理:导入数据、划分训练/测试集、归一化处理
逻辑01 个月前
人工智能·gru·lstm
从认识AI开始-----解密门控循环单元(GRU):对LSTM的再优化在此之前,我已经详细介绍了RNN和LSTM,RNN虽然在处理序列数据中发挥了重要的作用,但它在实际使用中存在长期依赖问题,处理不了长序列,因为RNN对信息的保存只依赖一个隐藏状态,当序列过长,隐藏转态保存的东西过多时,它对于前面的信息的抽取就会变得困难。为了解决这个问题,LSTM被提出,它通过设计复杂的门控机制以及记忆单元,实现了对信息重要性的提取:因为在现实中,对于一个序列来说,并不是序列中所有的信息都是同等重要的,这就意味着模型可以只记住相关的观测信息即可,但LSTM因为过多的门控机制与记忆单元,导致
njsgcs1 个月前
人工智能·rnn·lstm
lstm 长短期记忆 视频截图 kaggle示例【官方双语】LSTM(长短期记忆神经网络)最简单清晰的解释来了!_哔哩哔哩_bilibili.[short,input]*[2.7,1.63]+b=5.95