技术栈
rnn
Hcoco_me
12 小时前
人工智能
·
rnn
·
深度学习
·
lstm
·
word2vec
大模型面试题25:Softmax函数把“得分”变成“概率”的归一化工具
Softmax函数(也叫归一化指数函数)是深度学习里核心的归一化函数,专门用于把一组任意实数(常称“logits/对数几率/得分”)映射成0到1之间、总和为1的概率分布,常作为分类模型的输出层激活函数。
Hcoco_me
14 小时前
人工智能
·
rnn
·
自然语言处理
·
lstm
·
word2vec
大模型面试题26:Adam优化器小白版速懂
Adam 是深度学习里超常用的 智能调参工具,它会自动给每个参数定制合适的学习率,比固定学习率训练更快、更稳,结合了 Momentum(动量)和 RMSProp(自适应学习率)的优点。
Hcoco_me
14 小时前
人工智能
·
rnn
·
自然语言处理
·
lstm
·
word2vec
大模型面试题27:Muon优化器小白版速懂
Muon是Kimi K2大模型训练的核心“智能调参工具”,比常用的AdamW更省算力、学更快;K2里实际用的是它的增强版MuonClip,解决了大模型训练的“飙车失控”问题。
Hcoco_me
15 小时前
人工智能
·
rnn
·
深度学习
·
自然语言处理
·
word2vec
大模型面试题24:小白版InfoNCE原理
InfoNCE 是 对比学习 里常用的损失函数(全称:Information Noise Contrastive Estimation),核心是让模型学会区分“对的配对”和“错的干扰项”,从而学到有用的特征,不用依赖人工标注。
最晚的py
1 天前
人工智能
·
rnn
·
深度学习
·
神经网络
rnn循环神经网络
RNN(Recurrent Neural Network)是一种处理序列数据的神经网络结构,其核心特点是具有循环连接,允许信息在网络中持久化。这种特性使其适合处理时间序列、自然语言等具有时序关系的数据。
水月wwww
1 天前
人工智能
·
rnn
·
深度学习
·
gru
·
lstm
·
循环神经网络
·
文本续写
【深度学习】循环神经网络实现文本预测生成
二者都是循环神经网络(RNN)的改进版本,核心解决传统RNN无法捕捉长序列依赖、易出现梯度消失/爆炸的问题,是处理文本、语音等序列数据的核心模型:
Hcoco_me
3 天前
人工智能
·
rnn
·
深度学习
·
学习
·
自然语言处理
·
word2vec
大模型面试题23:对比学习原理-从通俗理解到核心逻辑(通用AI视角)
对比学习(Contrastive Learning, CL)是一种无监督/半监督学习方法,核心思想极其简单:让“相似的样本”在特征空间里靠得更近,让“不相似的样本”离得更远——通过这种“对比”来让模型自动学习到数据的本质特征,无需人工标注的标签。
Hcoco_me
4 天前
人工智能
·
rnn
·
自然语言处理
·
lstm
·
word2vec
大模型面试题22:从通俗理解交叉熵公式到通用工程实现
交叉熵(Cross Entropy)的核心作用是 衡量“模型预测结果”与“真实情况”的差距,是深度学习分类任务中最常用的损失函数——预测越接近真实,交叉熵越小;预测越偏离真实,交叉熵越大,模型训练的核心就是最小化这个“差距”。
声声codeGrandMaster
4 天前
人工智能
·
rnn
·
深度学习
RNN基本概念和模型构建
RNN(循环神经网络)*是一种专门设计用于处理* 序列数据的深度学习模型,其核心特点是通过循环连接在时间维度上传递信息,从而能够 “记住” 之前的输入内容。
悟道心
6 天前
人工智能
·
rnn
·
自然语言处理
3.自然语言处理NLP - RNN及其变体
✅ RNN(循环神经网络)🧠 类比:像一个边读书边记笔记的学生,每读一句就更新自己的理解。✅ LSTM(长短期记忆网络)
徐先生 @_@|||
7 天前
rnn
·
lstm
·
transformer
N-Gram、RNN、LSTM、Transformer发展历程
RNN解决N-Gram的问题:LSTM解决RNN的问题:Transformer解决LSTM的问题:从N-Gram到Transformer的发展历程体现了自然语言处理技术的不断演进:
Hcoco_me
7 天前
人工智能
·
rnn
·
深度学习
·
自然语言处理
·
word2vec
大模型面试题19:梯度消失&梯度爆炸 纯白话文版
你可以把 梯度 理解成:模型训练时的「学习信号/调整指令」。 神经网络训练的过程,就是模型根据这个「指令」,一点点修改自己的参数,让自己的预测越来越准。 这个「指令」的传递规则是:从最后一层(输出层)往第一层(输入层)反向传,一层一层告诉前面的层:你的参数该往哪个方向改、改多少。
木头左
7 天前
人工智能
·
rnn
·
lstm
LSTM量化交易策略的环境适应性与入参稳定性评估
本文实现的LSTM量化交易策略通过时间序列建模捕捉金融数据的非线性特征,核心功能包括:1)基于历史价格序列构建特征工程;2)采用多层LSTM网络学习时序依赖关系;3)输出未来价格预测结果。该策略在稳定市场环境下可产生超额收益,但存在显著风险:当市场结构突变(如黑天鹅事件、监管政策调整)或数据分布偏移时,模型参数可能失效,导致策略回撤超过预设阈值。建议实际部署时需配合实时监控模块,并设置动态止损机制。
木头左
7 天前
人工智能
·
rnn
·
lstm
多时间框架LSTM量化交易策略的实现与参数优化
本代码实现了基于LSTM神经网络的多时间框架量化交易策略,通过整合不同时间维度的市场数据特征,构建具备时序预测能力的深度学习模型。系统包含数据预处理模块、多尺度特征提取层、LSTM网络架构以及交易信号生成逻辑,支持动态调整各时间框架权重系数。核心风险在于过拟合问题,需严格控制模型复杂度;其次存在滞后性风险,需结合实时数据更新机制;此外需警惕黑天鹅事件对序列连续性的破坏。
木头左
8 天前
人工智能
·
rnn
·
lstm
强化学习结合LSTM的量化交易策略奖励函数与入参关联
本代码实现了一个基于强化学习(RL)和长短期记忆网络(LSTM)的量化交易策略。该策略通过LSTM模型对历史价格数据进行特征提取,再利用强化学习算法(如DQN或PPO)训练智能体,使其能够根据市场状态做出买卖决策。核心在于设计合理的奖励函数,将交易信号与市场反馈有效关联,从而优化策略的收益风险比。该策略适用于股票、期货等金融时间序列数据的自动化交易,但需注意其对历史数据的依赖性和潜在的过拟合风险。
Hcoco_me
8 天前
人工智能
·
rnn
·
深度学习
·
自然语言处理
·
word2vec
大模型面试题19:梯度消失&梯度爆炸 公式版
梯度消失(Gradient Vanishing)和梯度爆炸(Gradient Explosion)是深度神经网络(DNN) 在反向传播过程中独有的核心问题,浅层网络几乎不会出现,二者的本质是同一个问题的两种极端表现:
木头左
8 天前
人工智能
·
rnn
·
lstm
高级LSTM架构在量化交易中的特殊入参要求与实现
本代码实现了基于长短期记忆网络(LSTM)的量化交易策略,通过处理时间序列金融数据预测未来价格走势。系统包含数据预处理、特征工程、模型构建、训练验证和实盘接口五个核心模块,支持多维度特征输入和自定义超参数配置。主要风险包括过拟合问题、非平稳时间序列导致的梯度消失、以及市场黑天鹅事件引发的异常波动。
Yeats_Liao
8 天前
rnn
·
lstm
·
embedding
MindSpore开发之路(十一):构建循环神经网络(RNN):`RNN`, `LSTM`, `Embedding`层
在上一篇文章中,我们探索了卷积神经网络(CNN)如何像“火眼金睛”一样高效地处理图像数据。然而,现实世界中的数据并非都是静态的图片,还有大量按顺序排列的数据,例如一段文字、一首乐曲、或者一段时间内的股票价格。这类数据被称为序列数据。
代码洲学长
8 天前
人工智能
·
python
·
rnn
·
自然语言处理
·
gru
·
lstm
RNN模型01
RNN的工作流程:首先会对输入的文本进行分词,然后将分词按照顺序依次进行单个的处理,每个分词的处理的处理结果分为两部分一种是当前时刻的输出和当前时刻的隐藏状态,当前时刻的输出会进行输出,当前时刻的隐藏状态会传输到下一层,后续会重复这样的步骤直到处理玩所有的特征。
Hcoco_me
10 天前
人工智能
·
rnn
·
lstm
cv::contourArea &&鞋带公式
cv::contourArea 的核心作用是计算二维平面中闭合轮廓(多边形)的面积,其输入必须满足以下3个关键要求,缺少任何一个都可能导致计算错误(面积为0/负数/异常值):