pytorch

贵州晓智信息科技10 小时前
人工智能·pytorch·python·深度学习
学词鸭 Typing 无痛背单词👉 https://xueciya.com/typing如果你总是:推荐试试「学词鸭 Typing 无痛背单词」。
佳xuan10 小时前
人工智能·pytorch·深度学习
深度学习pytorch样本,模型,训练,测试(评价),推理信息简洁(都是有用信息)也可以定义两个属性:dtype,device
香蕉鼠片11 小时前
pytorch·深度学习·机器学习
模型训练微调流程,pytorch(豆包写的备数据 → 做预处理 → 加载模型 → 冻结骨干 → 配损失优化器 → 前向传播算损失 → 反向更新 → 验证 → 保存 → 推理 → 解冻精调
T.i.s12 小时前
pytorch·gan
相对自适应判别器(Relative Adaptive Discriminator, RAD)文献[1]提出了一种改进的生成对抗网络(GAN)框架,旨在解决传统GAN和进化GAN(EGAN)中常见的训练不稳定、模式崩溃、梯度消失和高计算成本等问题。其中有一个创新点指出传统判别器基于绝对分数判断真假样本,容易导致训练不平衡。RAD基于相对logit差异来评估真实样本和生成样本。
技术小黑1 天前
pytorch·深度学习·算法·cnn
CNN算法实战系列02 | ResNet50V2算法实战与解析ResNet50(V2)与ResNet50(V1)的区别:V2采用 pre-activation(BN → ReLU → Conv),V1采用 post-activation(Conv → BN → ReLU)
Febu41 天前
pytorch·深度学习·transformer
Nano-vLLM-MS项目地址:喜欢可以点点star这是一个基于 nano-vLLM 的轻量级 vLLM 实现,增强了对 MoE 模型和 Speculative Decoding(推测解码)的支持。
盼小辉丶1 天前
人工智能·pytorch·python·强化学习
PyTorch强化学习实战——使用交叉熵方法解决 FrozenLake 环境我们已经学习了如何使用交叉熵方法解决 CartPole 环境,神经网络学会了仅通过观察值和奖励信号就学会了如何应对环境,完全不需要对观测值进行任何人工解读。虽然我们使用 CartPole 环境为例,但完全可以替换为其他场景,如以商品库存量为观察值、以营业收入为奖励的仓储模型。实现并不依赖于环境的具体细节,这正是强化学习模型的精妙之处,接下来我们将学习如何将完全相同的方法应用于 Gymnasium 库中的另一个环境,FrozenLake。
郝学胜-神的一滴2 天前
人工智能·pytorch·深度学习·神经网络·机器学习·数据挖掘
反向传播:神经网络的「灵魂」修炼法则从参数更新到梯度传递,一文吃透 BP 算法的底层逻辑在神经网络的世界里,前向传播负责预测,反向传播负责学习。如果说前向传播是神经网络 “看世界、出结果” 的过程,那么反向传播(Backpropagation,BP)就是它 “知错就改、持续进化” 的核心机制。它像一位严谨的导师,拿着损失值,从输出层一路回溯,逐层修正网络权重,让模型越来越精准。
Jmayday2 天前
人工智能·pytorch·python
Pytorch:问题整理目录一、神经网络输出维度如何设计二、数据集对象的batch_size设置多少合适三、Linear的作用
盼小辉丶3 天前
人工智能·pytorch·python·强化学习
PyTorch强化学习实战(6)——交叉熵方法详解与实现我们已经学习了 PyTorch 的基础知识。本节将介绍强化学习 (Reinforcement Learning, RL) 方法中的一种重要技术:交叉熵法。 尽管交叉熵方法在 RL 中的知名度不及深度Q网络 (Deep Q-Network, DQN) 或优势演员-评论家 (Advantage Actor-Critic, A2C) 等方法,但它具有独特优势。首先,交叉熵方法实现极其简单——其 PyTorch 实现甚至不足 100 行代码,这使其成为最易上手的 RL 方法之一。 其次,该方法具有出色的收敛性。在
ZhengEnCi3 天前
人工智能·pytorch·python
06-多头注意力机制 🎯本文档深入讲解多头注意力机制(Multi-Head Attention)的核心原理,涵盖多头注意力的概念定义与设计动机、数学公式的完整推导、手动代码实现及逐行解析、PyTorch 原生 nn.MultiheadAttention 的使用方法、多头注意力权重的可视化对比,以及一个完整可运行的综合示例。通过理论与实践相结合的方式,帮助读者彻底吃透多头注意力机制 🛠️
赵优秀一一3 天前
人工智能·pytorch·深度学习
AI入门学习目录资料:一.统一前置安装1.进入虚拟环境2.安装torch和transformers2.1:NVIDIA GPU,先装 CUDA 版 torch:
盼小辉丶3 天前
人工智能·pytorch·python·强化学习
PyTorch强化学习实战(5)——PyTorch Ignite 事件驱动机制与实践我们已经学习了如何使用 PyTorch 构建深度学习模型,包括损失函数、优化器以及训练过程监控方法,在本节中,我们将介绍用于简化训练循环的高级接口库 PyTorch Ignite,演示如何通过其事件驱动架构简化训练流程,并重写生成对抗网络 (Generative Adversarial Network, GAN) 训练代码,展示如何减少模板代码,同时保持对训练过程的清晰控制。
ZhengEnCi4 天前
人工智能·pytorch·深度学习
05-自注意力机制详解 🧠本文档深入讲解自注意力机制(Self-Attention)的核心原理,涵盖自注意力的概念定义与产生背景、QKV三大角色的直观理解与线性变换的作用、自注意力与交叉注意力的本质区别、掩码自注意力(Padding Mask 与 Causal Mask)的完整解析、手动代码实现及逐行讲解,以及注意力权重可视化方法。通过理论与实践相结合的方式,帮助读者彻底吃透自注意力机制 🛠️
xier_ran4 天前
人工智能·pytorch·windows
【BUG问题】5060Ti显卡Windows配置Anaconda中的CUDA及Pytorch,sm_120问题1. 在Anaconda中创建相关虚拟环境 注:Torch2.8需要python版本大于等于3.92.到PyTorch官网下滑到中段位置
郝学胜-神的一滴4 天前
人工智能·pytorch·python·深度学习·机器学习·数据挖掘
深度学习损失函数:从原理到实战之 Smooth L1 Loss在深度学习的模型训练中,损失函数就像是模型的 “导航仪”,决定了参数更新的方向与幅度。经典的 L1(MAE)与 L2(MSE)损失各有优劣,却在实际场景中存在难以规避的缺陷。而 Smooth L1 Loss 作为二者的 “融合升级版”,完美平衡了稳定性与收敛性,成为回归任务的首选损失函数✨,更是深度学习领域中“扬长避短”的经典设计典范!
MATLAB代码顾问5 天前
pytorch·深度学习·transformer
Transformer时序预测:PatchTST原理与PyTorch实现式 mer/PatchTST原理详解与Python实现时间序列预测是数据科学中最经典也最具挑战性的问题之一——从天气预报、股票价格到电力负荷预测,几乎每个行业都离不开它。
EnCi Zheng5 天前
人工智能·pytorch·python
04-缩放点积注意力代码实现 [特殊字符]本文档基于 PyTorch 从零实现缩放点积注意力机制,涵盖环境准备、手动实现完整代码及逐行解析、PyTorch 原生优化函数的使用、注意力权重可视化方法,以及一个完整可运行的综合示例。通过理论与实践相结合的方式,帮助读者深入理解注意力机制的代码实现细节 🛠️
β添砖java6 天前
人工智能·pytorch·深度学习
深度学习(17)卷积层里的多输入多输出通道① 核的通道数与输入的通道数一样。① 每个输出通道可以匹配图片里面特定的模式。② 把每个通道里面识别出来的模式组合起来,就得到组合模式识别。
江南十四行6 天前
pytorch·cnn·batch
CNN进阶:Batch Normalization与Layer Normalization对比 + 网络结构设计与PyTorch实现在深度学习的实际应用中,随着网络层数的增加,训练难度也随之上升。为了加速训练、提高稳定性、防止过拟合,研究者提出了多种归一化方法和正则化技术。本文将以CNN为例,深入探讨Batch Normalization (BN) 和 Layer Normalization (LN) 的原理与差异,并结合一个具体的CNN网络结构,展示如何在PyTorch中实现BN、Dropout等模块。