深度学习

蒋星熠1 小时前
开发语言·人工智能·pytorch·python·深度学习·机器学习·ai
如何在Anaconda中配置你的CUDA & Pytorch & cuNN环境(2025最新教程)目录一、简介二、下载CUDA三、下载Pytorch-GPU版本四、下载CUDNN五、总结六、测试代码啥是Anaconda?啥是CUDA?啥是CUDNN?它们和Pytorch、GPU之间有啥关系?
小彭律师2 小时前
深度学习·金融·transformer
基于因果推理与Transformer的金融理财产品智能推荐系统融合因果推理、多模态用户建模与可解释AI的个性化投资决策支持技术传统金融推荐系统主要基于协同过滤和内容匹配技术,存在三个核心问题:首先是推荐解释性不足,金融决策的"黑盒"特性使客户难以理解推荐依据,监管合规要求无法满足;其次是因果关系缺失,现有方法基于历史相关性进行推荐,无法识别真正的因果效应,容易产生虚假关联导致的投资风险;第三是用户画像单一化,仅依赖交易数据和基本画像,忽略了社交行为、市场情绪等多模态信息。
Hcoco_me3 小时前
人工智能·深度学习·神经网络
深度学习和神经网络之间有什么区别?深度学习是一个人工智能(AI)相关领域,用于教计算机以受人脑启发的方式处理数据。深度学习模型可以识别复杂的图片、文本和声音等数据模式,从而生成准确的见解和预测。
西安光锐软件3 小时前
人工智能·深度学习
深度学习之损失函数深度神经网络由多层网络连接而成,网络连接处防止线性直接相关,采用非线性函数进行逐层隔离,真正实现每层参数的独立性,也就是只对本层提取到的特征紧密相关。因为如果是线性函数直接相连就成了一层中间网络了,只不过参数之间做变换,失去了深度学习的意义。 1.非线性函数的意义
astragin3 小时前
人工智能·深度学习·神经网络
神经网络常见层速查表本文总结了深度学习中常见的“层 (Layer)”,包括简称、全称、使用场景和作用,便于快速学习。✍️ 一句话记忆:
cyyt3 小时前
人工智能·深度学习
深度学习周报(9.8~9.14)目录摘要Abstract1 LSTM相关网络总结与对比1.1 理论总结1.2 代码运行对比2 量子计算入门
扯淡的闲人4 小时前
开发语言·python·深度学习
多语言编码Agent解决方案(2)-后端服务实现本部分包含后端服务的完整实现,包括vLLM模型服务、多语言支持和API接口。
蒋星熠4 小时前
人工智能·python·深度学习·神经网络·机器学习·卷积神经网络·transformer
深度学习实战指南:从神经网络基础到模型优化的完整攻略🌟 Hello,我是蒋星熠Jaxonic! 🌈 在浩瀚无垠的技术宇宙中,我是一名执着的星际旅人,用代码绘制探索的轨迹。 🚀 每一个算法都是我点燃的推进器,每一行代码都是我航行的星图。 🔭 每一次性能优化都是我的天文望远镜,每一次架构设计都是我的引力弹弓。 🎻 在数字世界的协奏曲中,我既是作曲家也是首席乐手。让我们携手,在二进制星河中谱写属于极客的壮丽诗篇!
丁学文武7 小时前
人工智能·深度学习·大模型应用·flashattention
FlashAttention(V2)深度解析:从原理到工程实现随着大模型参数规模的不断扩大和序列长度的增长,注意力机制的计算复杂度成为训练和推理的主要瓶颈。Flash Attention通过巧妙的内存管理和计算重排,在不改变数学语义的前提下大幅提升了注意力计算的效率。在Flash Attention V1的基础上,V2版本通过调整循环结构和优化并行策略,进一步提升了性能。
大千AI助手7 小时前
人工智能·深度学习·神经网络·模型训练·dropout·正则化·过拟合
Dropout:深度学习中的随机丢弃正则化技术本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!
甄心爱学习8 小时前
人工智能·深度学习
DataSet-深度学习中的常见类深度学习中Dataset类通用的架构思路BaseDataset:负责子类:只需要实现 路径差异 或 样本加工方式差异。
wL魔法师9 小时前
人工智能·pytorch·深度学习·llm
【LLM】大模型训练中的稳定性问题本文档详细介绍了在项目中解决训练稳定性问题的方法、原理分析以及实际应用。涵盖了梯度裁剪、损失函数优化、数值稳定化处理和学习率调度等关键技术。
max5006009 小时前
开发语言·人工智能·python·深度学习·算法
OpenSTL PredRNNv2 模型复现与自定义数据集训练本文将详细介绍如何复现 OpenSTL 中的 PredRNNv2 模型,并使用自定义的 NPY 格式数据集进行训练和预测。我们将从环境配置开始,逐步讲解数据预处理、模型构建、训练过程和预测实现,最终实现输入多张连续时间序列的 500×500 图像并输出相应数量预测图像的目标。
Morning的呀11 小时前
人工智能·深度学习·gru
Class48 GRUGRU 是 RNN的一种变体,主要为了解决梯度消失/梯度爆炸和长期依赖学习困难。不是每个观察值都同等重要 例如图中只有第一只猫比较重要,当然老鼠也很重要。
拾零吖13 小时前
人工智能·深度学习·机器学习
李宏毅 Deep Learning感谢李宏毅老师qwq
技术小黑15 小时前
pytorch·深度学习·transformer
Transformer系列 | Pytorch复现Transformer在之前的博客中我们学习了Seq2Seq(深度学习系列 | Seq2Seq端到端翻译模型),知晓了Attention为RNN带来的优点。那么有没有一种神经网络结构直接基于attention构造,并且不再依赖RNN、LSTM或者CNN网络结构了呢?答案便是:Transformer。Seq2Seq和Transformer都是用于处理序列数据的深度学习模型,但它们是两种不同的架构。
DogDaoDao16 小时前
人工智能·pytorch·深度学习·神经网络·大模型·剪枝·网络稀疏
神经网络稀疏化设计构架方法和原理深度解析当GPT-3以1750亿参数构建起AI模型的"巨无霸"时代,边缘设备却仍在为7B模型3秒以上的推理延迟、14GB的显存占用而挣扎——这种算力需求的指数级增长与硬件资源有限性的尖锐冲突,正成为AI产业落地的核心矛盾[1][2]。深入神经网络内部,我们会发现这种矛盾的根源在于普遍存在的参数冗余现象:权重分布呈现明显的长尾特性(大部分权重值接近零)、神经元激活在推理中常为零值、层间存在可合并的冗余结构,甚至训练时为保证稳定性而引入的过参数,在推理阶段已非必需[3]。
西猫雷婶17 小时前
人工智能·pytorch·python·深度学习·神经网络·机器学习
pytorch基本运算-Python控制流梯度运算前序学习进程中,已经对pytorch基本运算-梯度运算:requires_grad_(True)和backward()进行了学习,了解了pytorch求导的基本运算方法。 今天继续学习,当计算进入循环时,就进入了Python控制流,如何对Python控制流进行梯度运算就是学习目标。
寒月霜华18 小时前
人工智能·深度学习·机器学习
机器学习-模型验证1、数据随机分入训练集或验证集 总是随机选n%的数据作为验证集 n=50,40,30,20,10 当分离非独立同分布的数据时要额外注意
max50060019 小时前
人工智能·python·深度学习·神经网络·随机森林·线性回归·transformer
基于多元线性回归、随机森林与神经网络的农作物元素含量预测及SHAP贡献量分析在本任务中,我们拥有一组关于农作物及其对应根系土的数据。数据包含土壤中各种元素的数值型测量值(自变量)以及农作物中两种特定元素的含量(因变量)。我们的核心目标是: