pytorch

郝学胜-神的一滴3 小时前
人工智能·pytorch·python·深度学习·算法·机器学习
PyTorch自动微分核心解析:从原理到实战实现权重更新在深度学习的参数优化环节,自动微分是不可或缺的核心技术,PyTorch内置的自动微分模块更是将复杂的求导与反向传播过程高度封装,让开发者无需手动计算繁琐的导数,就能高效实现权重参数的迭代更新。本文将从PyTorch求导的底层规则出发,拆解自动微分的核心原理,再通过实战案例一步步实现权重的梯度更新,让零基础的小伙伴也能轻松掌握这一关键技能✨。
ZhiqianXia4 小时前
pytorch·笔记·学习
PyTorch学习笔记(6) : torch.autograd参考文档:PyTorch 2.11 官方文档 原文链接:Automatic differentiation package - torch.autograd
龙文浩_9 小时前
人工智能·pytorch·深度学习·神经网络
AI深度学习核心机制解析AI深度学习核心机制解析
盘古开天16669 小时前
人工智能·pytorch·机器人
从 DQN 到机器人导航:用深度 Q 网络让小车学会自己走路(含 PyTorch 代码)想象你要教一个机器人从 A 点走到 B 点。传统做法是写一堆 if-else 规则——“前方有墙左转”“前方没墙直走”。但现实环境复杂得多,你根本写不完所有规则。
阿钱真强道9 小时前
pytorch·cuda·aarch64·深度学习环境搭建·飞腾服务器·s5000c·rtx4090d
01 飞腾 S5000C 服务器环境搭建实战:PyTorch + CUDA + RTX 4090D 安装与验证最近在飞腾 S5000C 服务器上搭建深度学习运行环境,本文记录一下从硬件信息确认、GPU 驱动检查,到 PyTorch 安装和 CUDA 验证的完整过程。
FL16238631299 小时前
pytorch·python·yolo
基于yolov26的荔枝成熟度检测系统python源码+pytorch模型+评估指标曲线+精美GUI界面基于 PyQt5 和 YOLO26 的目标检测桌面应用程序,支持图片、视频和摄像头实时检测。数据集格式:YOLO格式(不包含分割路径的txt文件,仅仅包含jpg图片以及对应的yolo格式txt文件) 图片数量(jpg文件个数):1005 标注数量(txt文件个数):1005 训练集数量:805 验证集数量:100 测试集数量:100 标注类别数:4 所在github仓库:firc-dataset 标注类别名称(注意yolo格式类别顺序不和这个对应,而以labels文件夹classes.txt为准):[‘B
龙文浩_9 小时前
人工智能·pytorch·深度学习·神经网络
AI深度学习中神经网络的构建与参数优化AI深度学习中神经网络的构建与参数优化
罗罗攀21 小时前
人工智能·pytorch·笔记·神经网络·学习
PyTorch学习笔记|神经网络的损失函数之前我们提到过,这是神经网络的正向传播过程。但很明显,这并不是神经网络算法的全流程,这个流程虽然可以输出预测结果,但却无法保证神经网络的输出结果与真实值接近。
枫叶林FYL1 天前
pytorch·python·深度学习
第10章 符号推理与神经符号AI一阶逻辑构成了人工智能中知识表示与推理的基石,其通过常量、变量、谓词、函数及量词构建形式化语言,旨在精确描述世界的状态与规律。与命题逻辑不同,一阶逻辑具备表达对象间关系的能力,其核心在于量词的作用范围与项的替换机制。推理过程旨在判定给定公式集是否逻辑蕴涵某一目标公式,这一过程通常转化为证明公式集与目标公式否定的不可满足性。归结原理是自动化定理证明中最核心的推理规则,其基本思想是通过消解互补文字来简化子句集。若两个子句分别包含互补的文字
龙文浩_1 天前
人工智能·pytorch·深度学习
AI深度学习/PyTorch/反向传播与梯度下降import torchdef lwh_backward_grad(): “”" 前向传播 = 特征x * 权重w + 偏置b → 预测值z 反向传播 = 预测值z → 损失函数 → 损失值loss → 更新:权重w 、 偏置b 本案例:简化为单变量w,损失函数 loss = 2 * w²,演示单次前向+反向传播 “”" # ===================== 1. 定义可训练参数(权重w) ===================== # requires_grad=True:开启自动求导,PyT
郝学胜-神的一滴1 天前
服务器·人工智能·pytorch·python·深度学习·机器学习
Pytorch自动微分模块:从原理到实战,解锁反向传播核心奥秘✨ 前言:在深度学习的世界里,模型的训练本质上是参数不断优化的过程,而参数优化的核心在于梯度的求解与更新。Pytorch作为深度学习领域的主流框架,内置的torch.autograd自动微分模块为我们省去了手动求导的繁琐,让梯度计算与反向传播变得高效又便捷。本文将从原理层到实战层,全面拆解自动微分模块的核心逻辑、与反向传播的关联,以及实际代码中的使用技巧,带你轻松掌握这一深度学习必备技能!✨
龙文浩_1 天前
人工智能·pytorch·深度学习
AI深度学习/PyTorch/神经网络相关“”" 搭建神经网络步骤: 1. 继承torch.nn.Module 2. 实现函数: 2.1 init__函数 2.1.1 初始化父类 2.2.2 设置属性值 2.2.3 定义神经网络结构,隐藏层、输出层 2.2.4 初始化参数,权重w、偏置b 2.2 forward前向传播函数 2.2.1 将数据传入神经网络模型 2.2.2 对模型进行训练,即前向传播过程 “”" import torch.nn as nn import torch class LwhModel(nn.Module): def ini
ZhiqianXia2 天前
pytorch·笔记·学习
Pytorch 学习笔记(3) : torch.cuda上下文管理器:上下文管理器:高级功能:📚 参考:PyTorch 2.11 官方文档 - torch.cuda
郝学胜-神的一滴2 天前
人工智能·pytorch·python·深度学习·程序人生·算法·机器学习
Pytorch张量拼接秘籍:cat与stack的深度解析与实战在Pytorch的张量操作体系中,拼接是数据处理与模型构建里高频出现的核心操作,而torch.cat()与torch.stack()作为实现张量拼接的两大核心函数,常常让初学者陷入混淆。二者虽都服务于张量的组合,但在维度处理、使用要求、应用场景上有着本质区别。今天,我们就透过底层逻辑+实战代码,彻底拆解这两个函数的奥秘,让你轻松掌握张量拼接的正确打开方式✨。
wei_shuo3 个月前
pytorch·transformer·gitcode
GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比基于 GitCode Notebook 昇腾 910B + CANN 8.2.rc1 环境,聚焦 ops-transformer 算子的完整部署与性能验证,通过清晰的环境配置、依赖安装、多场景性能测试及与原生 PyTorch 注意力的对比实验,直观呈现其在低时延、高吞吐量及显存优化上的核心优势,为 LLM 训练 / 推理等 NLP 任务提供高效、可落地的算子应用参考
程序员Shawn3 天前
人工智能·pytorch·深度学习
【深度学习 | 第一篇】- Pytorch与张量深度学习作为机器学习的一个子集,也是现在的最火的方向,它以神经网络为基础,通过一个一个神经元结点来提取数据之间的特征,具有不可解释性,所以也被大家称为“黑盒模型”,被广泛应用于NLP,CV,推荐系统之中。
ZhiqianXia3 天前
pytorch·笔记·学习
Pytorch 学习笔记(4) : torch.backendstorch.backends 是 PyTorch 中用于控制各种后端行为的模块,支持 CPU、CUDA、cuDNN、MPS、MKL、OpenMP 等多种硬件和库后端。
罗罗攀4 天前
人工智能·pytorch·笔记·神经网络·学习
PyTorch学习笔记|从异或问题到深层神经网络神经网络之所以沉寂了几十年,就是有大佬说神经网络解决不了异或问题,当然现在神经网络这么火,就说明这个问题已经被解决,那今天我们就来了解这一段莫欺少年穷的戏码。
剑穗挂着新流苏3123 天前
开发语言·pytorch·python·深度学习
208_深度学习的鲁棒性之美:暂退法(Dropout)原理与实战在训练大型神经网络时,神经元之间容易形成“共适应性”(Co-adaptation),即某些神经元过度依赖其他神经元,导致模型过度拟合训练数据的特定细节。暂退法通过在训练期间随机“关掉”一部分神经元,强迫每个神经元都能独立地学习有用的特征。
AI视觉网奇3 天前
人工智能·pytorch·深度学习
LtxVAE 学习笔记目录LtxVAE 推理代码repeat 尝试: