技术栈
pytorch
工程师老罗
18 分钟前
人工智能
·
pytorch
·
yolo
基于Pytorch的YOLOv1 的网络结构代码
下面是可直接运行的 PyTorch 代码,完整实现了原始 YOLOv1 的网络结构(对应图3-1),并打印每一层的输出尺寸,方便对照理解。
JarryStudy
1 小时前
人工智能
·
pytorch
·
python
·
cann
HCCL与PyTorch集成 hccl_comm.cpp DDP后端注册全流程
本文将深入解析HCCL(Heterogeneous Computing Communication Library)作为PyTorch分布式训练后端的完整注册流程。通过追踪torch.distributed.init_process_group(backend="hccl")的调用栈,揭示从Python接口到底层C++实现的技术细节。文章结合cann/ops-nn仓库的实际代码,重点分析/hccl/pytorch_extension/hccl_comm.cpp中的关键实现,为开发者提供分布式训练深度优化的
Eloudy
2 小时前
人工智能
·
pytorch
用 Python 直写 CUDA Kernel的技术,CuTile、TileLang、Triton 与 PyTorch 的深度融合实践
在深度学习框架的发展进程中,CUDA Kernel 的开发曾长期被 C++/CUDA 原生开发模式主导。开发者需要深入掌握 CUDA C++ 语法、GPU 硬件架构、线程块与线程束的底层调度逻辑,才能实现高效的 GPU 算子开发。PyTorch 虽提供了丰富的内置 CUDA 算子库,能满足大部分常规深度学习训练与推理需求,但面对大模型时代的定制化场景,比如新型注意力机制、稀疏卷积、专属业务的自定义计算逻辑,内置算子往往难以兼顾性能极致性与功能适配性。
Rorsion
4 小时前
人工智能
·
pytorch
·
线性回归
PyTorch实现线性回归
PyTorch 最基础的神经网络模板代码,分为四个步骤:本实例是最基本的一元线性回归,需要导入的数据较少。
骇城迷影
5 小时前
人工智能
·
pytorch
·
python
·
深度学习
·
线性回归
Makemore 核心面试题大汇总
严格按「课程实现顺序」整理,包含所有核心+延伸问题,答案详实可直接背诵。问:在 Makemore 中,为什么要将数据集划分为训练集、验证集和测试集?比例通常是 80%/10%/10%,这样划分的依据是什么?
mailangduoduo
6 小时前
服务器
·
pytorch
·
vscode
·
深度学习
·
ssh
·
gpu算力
零基础教学连接远程服务器部署项目——VScode版本
在很多情况下,去训练一个神经网络模型,本地的算力肯定是不够的,我们往往采用租服务器或者使用学校或者公司的服务器进行模型训练等操作,本篇博客主要从零开始介绍如何使用远程服务器进行开发,帮助初学者更好的入门。
多恩Stone
7 小时前
人工智能
·
pytorch
·
算法
·
3d
·
aigc
【3D AICG 系列-6】OmniPart 训练流程梳理
本文档详细解析 OmniPart 的训练代码逻辑,包括数据处理流程、模型架构、训练循环和关键设计点。OmniPart 是一个基于 Flow Matching 的 part-aware 3D 生成模型,其训练流程如下:
前端摸鱼匠
18 小时前
人工智能
·
pytorch
·
python
·
yolo
·
目标检测
YOLOv8 环境配置全攻略:Python、PyTorch 与 CUDA 的和谐共生
很多初学者在学习YOLOv8时,往往在第一步——环境配置上就遇到了困难,甚至因此放弃了学习。其实,环境配置就像是盖房子打地基,地基打得牢固,后续的开发工作才能顺利进行。如果环境配置不正确,可能会遇到各种各样的问题:代码运行报错、GPU无法使用、训练速度缓慢、甚至程序直接崩溃。
纤纡.
1 天前
人工智能
·
pytorch
·
python
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
在人工智能深度学习的学习和实践中,选择一款合适的框架是入门的关键。而 PyTorch 凭借其上手简单、灵活性高的特性,成为了当下深度学习学习者和开发者的主流选择,更是入门者的首选框架。本文将结合 PyTorch 核心知识点,从深度学习框架对比、PyTorch 安装、CPU 与 GPU 的差异,到基于 MNIST 数据集的手写数字识别实战,全方位讲解 PyTorch 入门的核心内容,帮助大家快速掌握 PyTorch 的基础使用。
子榆.
1 天前
人工智能
·
pytorch
·
tensorflow
CANN 与主流 AI 框架集成:从 PyTorch/TensorFlow 到高效推理的无缝迁移指南
在 AI 开发生命周期中,训练与部署往往割裂:研究员用 PyTorch 快速迭代模型,工程师却需将其迁移到生产环境。若迁移过程复杂、性能损失大,将严重拖慢产品上线节奏。
哈__
1 天前
人工智能
·
pytorch
CANN内存管理与资源优化
内存管理是深度学习推理性能的关键因素之一。CANN提供了丰富的内存管理机制和优化策略,通过合理的内存分配、复用和优化,可以显著提升推理性能,降低内存占用,提高资源利用率。
DeniuHe
1 天前
pytorch
Pytorch中的直方图
直方图(Histogram) 是一种用于展示数据分布的统计图表:PyTorch 提供 torch.histc() 函数计算张量的直方图,核心参数:
哈__
1 天前
人工智能
·
pytorch
CANN多模型并发部署方案
在实际应用中,经常需要同时部署多个深度学习模型,例如同时运行图像分类、目标检测和图像分割模型。CANN提供了强大的多模型并发部署能力,通过合理的资源管理和调度策略,可以在有限的硬件资源上高效运行多个模型。
DeniuHe
1 天前
人工智能
·
pytorch
·
python
Pytorch中的众数
众数(Mode) 是统计学中的基本概念,指的是在一组数据中出现频率最高的数值。torch.mode() 专门用于计算张量的众数,核心参数是 dim(指定计算维度),返回两个张量:
DeniuHe
2 天前
pytorch
torch.distribution函数详解
torch.distributions 是 PyTorch 专门用于概率分布建模的模块,核心作用是:核心术语说明:
退休钓鱼选手
2 天前
pytorch
·
深度学习
·
神经网络
[ Pytorch教程 ] 神经网络的基本骨架 torch.nn -Neural Network
https://pytorch.org/docstorch.nn 是 PyTorch 中构建神经网络的核心模块,它提供了:
DeniuHe
2 天前
pytorch
用 PyTorch 库创建了一个随机张量,并演示了多种张量取整和分解操作
a = torch.rand(2,2) 生成一个 2x2 的随机张量,元素值均匀分布在 [0,1) 区间。例如可能输出:
Network_Engineer
2 天前
人工智能
·
pytorch
·
lstm
从零手写LSTM:从门控原理到PyTorch源码级实现
在学习深度学习框架时,调用nn.LSTM往往只是一行代码,但理解其内部门控机制与矩阵运算才能真正掌握序列建模的本质。本文将从头实现长短期记忆网络(LSTM)的前向传播,深入解析输入门、遗忘门、输出门的计算细节,并与PyTorch官方实现进行对比验证。
多恩Stone
2 天前
人工智能
·
pytorch
·
python
·
算法
·
3d
·
aigc
【3D-AICG 系列-1】Trellis v1 和 Trellis v2 的区别和改进
TRELLIS 是微软研究院开发的大规模 3D 生成模型系列。本文深入对比 TRELLIS v1 和 v2 的核心架构差异,重点分析其在 3D 表示、纹理建模、分辨率支持等方面的演进。
2501_90114783
2 天前
pytorch
·
笔记
·
学习
·
算法
·
面试
PyTorch DDP官方文档学习笔记(核心干货版)
在深度学习大规模训练场景中,单卡算力往往无法满足需求,PyTorch提供的DistributedDataParallel(简称DDP)是工业界分布式训练的标准解决方案,完美解决了多GPU/多机训练的效率、扩展性问题。