pytorch

All The Way North-2 小时前
pytorch·rnn·lstm·多层lstm·api详解·序列模型·双向lstm
【LSTM系列·终篇】PyTorch nn.LSTM 终极指南:从API原理到双向多层实战,彻底告别维度错误!由于字数限制,本篇是【LSTM系列】第五篇,也是最后一篇第一篇链接:【LSTM系列·第一篇】彻底搞懂:细胞状态、隐藏状态、候选状态、遗忘门——新手最晕的4个概念,一篇厘清 第二篇链接:【LSTM系列·第二篇】彻底搞懂输入门、输出门与LSTM全流程:维度分析+PyTorch工程实现 第三篇链接:【LSTM系列·第三篇】单样本 vs Batch:LSTM全流程计算对比,彻底搞懂为何 h_t 与 c_t 维度必须相同 第四篇链接:【LSTM系列·第四篇】彻底搞懂:单样本与 batch 的矩阵等价性、参数共享原理
deep_drink13 小时前
人工智能·pytorch·python·深度学习·3d·point cloud
【论文精读(三)】PointMLP:大道至简,无需卷积与注意力的纯MLP点云网络 (ICLR 2022)博主导读:   在 PointNet++ 之后,点云深度学习似乎陷入了一个“内卷”怪圈:大家都在拼命设计更复杂的局部聚合器 (Local Aggregator)。
lanbo_ai17 小时前
pytorch·python·yolo
基于yolov10的火焰、火灾检测系统,支持图像、视频和摄像实时检测【pytorch框架、python源码】更多目标检测、图像分类识别、目标追踪、图像分割、图像检索等项目可看我主页其他文章功能演示(看shi pin 下面的简介):
盼小辉丶1 天前
人工智能·pytorch·深度学习·模型部署
PyTorch实战(29)——使用TorchServe部署PyTorch模型在 PyTorch 深度学习模型部署一节,我们学习了如何使用 Flask 库创建可远程部署、通过网络提供预测服务的模型服务器。在本节中,我们将继续讨论使用 TorchServe 将一个已经训练并测试过的 PyTorch 深度学习模型对象部署到一个独立的环境中,使其能够对新输入数据进行预测或推理。这也称为模型的生产化,即将模型部署到生产系统中。
IRevers2 天前
图像处理·人工智能·pytorch·python·yolo·transformer·边缘计算
【YOLO】YOLO-Master 腾讯轻量级YOLO架构超越YOLO-13(含检测和分割推理)这些模型依赖于对所在这里插入图片描述 有输入进行统一处理的静态稠密计算,错误地分配了表征能力和计算资源,例如将整体资源分配在琐碎的场景上,而忽略了复杂的场景。这种不匹配导致了计算冗余和次优的检测性能。
小锋java12342 天前
pytorch·深度学习
【技术专题】PyTorch2 深度学习 - 张量(Tensor)的定义与操作大家好,我是锋哥。最近连载更新《PyTorch2 深度学习》技术专题。本课程主要讲解基于PyTorch2的深度学习核心知识,主要讲解包括PyTorch2框架入门知识,环境搭建,张量,自动微分,数据加载与预处理,模型训练与优化,以及卷积神经网络(CNN),循环神经网络(RNN),生成对抗网络(GAN),模型保存与加载等。。 同时也配套视频教程 《PyTorch 2 Python深度学习 视频教程》
归一码字2 天前
人工智能·pytorch
DDPG手写讲解强化学习DDPG手写代码实现过程随着深度学习的发展,强化学习在复杂决策问题中的应用逐渐扩展到连续控制领域。然而,传统的值函数方法(如 DQN)主要适用于离散动作空间,在机器人控制、自动驾驶、机械臂操作等连续动作场景中难以直接应用。为了解决这一问题,Deep Deterministic Policy Gradient(DDPG)算法被提出,用于处理高维、连续动作空间下的强化学习问题。
七夜zippoe3 天前
网络·人工智能·pytorch·python·神经网络·cora
图神经网络实战:从社交网络到推荐系统的工业级应用目录摘要1. 🎯 开篇:为什么图神经网络是AI的下一个风口?2. 🧮 数学基础:图与图卷积的精华2.1 图的基本概念:节点、边、邻接矩阵
本是少年3 天前
pytorch·transformer
构建 HuggingFace 图像-文本数据集指南很显然,大多数时候,我们可以自由的构建数据集来供我们训练的模型读取,但是,到了需要“标准化”或者说数据量很大的情况下,我们需要了解,有什么方式能够方便我们去构建数据量很大的数据集,以及方便别人也能使用,本文就是出于这样的考虑而编写的,我必须得吐槽一句,modelscope实在是太难用了,还是huggingface好用。
Suryxin.4 天前
人工智能·pytorch·深度学习·ai·vllm
从0开始复现nano-vllm「model_runner-py」下半篇之核心数据编排与执行引擎调度prepare_prefill 函数的作用,本质上是为大模型推理中的 prefill 阶段做一次完整的数据整理与运行时环境构建,它并不是简单地把多个序列拼接起来,而是在一个支持 block 级 KV cache、prefix cache 复用以及 FlashAttention 的高性能推理框架中,将多个变长、可能部分已缓存的序列,转换成一次可以直接送入 GPU kernel 执行的结构化输入。
weixin_468466855 天前
人工智能·pytorch·深度学习·c#·跨平台·onnx·语义分割
PyTorch导出ONNX格式分割模型及在C#中调用预测ONNX(Open Neural Network Exchange)是一种开放的神经网络交换格式,旨在促进不同深度学习框架之间的互操作性。它使用protobuf二进制格式来序列化模型,从而提供更好的传输性能。
七夜zippoe6 天前
人工智能·pytorch·python
PyTorch深度革命:从自动微分到企业级应用在2012年,我手写反向传播时,一个简单网络要调3天。2015年,我用Caffe,被prototxt和C++ 虐到怀疑人生。直到2017年遇到PyTorch,第一次感受到动态图的爽快。今天,让我们深入探索PyTorch如何用动态计算图改变深度学习游戏规则。
好的收到1116 天前
pytorch·笔记·深度学习
PyTorch深度学习(小土堆)笔记3:小土堆 Dataset 类实战笔记,99% 的新手都踩坑!看完秒懂数据加载底层逻辑!Hello 大家好!这是我跟着“小土堆”深度学习打卡的第3条笔记。今天要攻克的是 PyTorch 数据处理的核心 —— Dataset 类。不管是做图像分类还是目标检测,第一步永远是把数据“喂”给模型。而 Dataset 就是那个最辛苦的“工具人”。
小lo想吃棒棒糖6 天前
人工智能·pytorch·python
思路启发:超越Transformer的无限上下文:SSM-Attention混合架构的理论分析作者: 小lo爱吃棒棒糖¹, GLM-5²本文研究一种结合状态空间模型(SSM/Mamba)线性推理效率与Transformer精确回忆能力的混合架构。我们建立了严格的数学框架,证明该混合架构在保持10810^8108量级Token上下文窗口的同时,可实现推理成本的次线性增长O(Nα)\mathcal{O}(N^\alpha)O(Nα),其中α<1\alpha < 1α<1。主要理论贡献包括:(1) 证明SSM的长程记忆容量上界与状态维度的指数关系;(2) 给出Attention-SSM混合层的最优分配策
励ℳ7 天前
人工智能·pytorch·深度学习
【CNN网络入门】基于PyTorch的MNIST手写数字识别:从数据准备到模型部署全流程详解手写数字识别是计算机视觉领域的经典入门项目,MNIST数据集包含了大量0-9的手写数字图片,是深度学习入门的"Hello World"。本文将详细介绍如何使用PyTorch框架构建一个卷积神经网络(CNN)来识别MNIST手写数字,并展示完整的训练、评估和可视化流程。
大连好光景7 天前
pytorch·python·深度学习
GCN模型构建+训练+测试入门案例参考文档:https://zhuanlan.zhihu.com/p/538901776完整代码如下:这是一个非常经典的图卷积神经网络(Graph Convolutional Network, GCN)入门代码,通常用于节点分类任务(比如判断论文属于哪个领域)。
Lun3866buzha7 天前
pytorch·算法·分类
紧固件智能检测与分类_ATSS_R101_FPN_1x_COCO算法解析与Pytorch实现在工业制造领域,紧固件的检测与分类是质量控制的重要环节。传统的人工检测方式效率低下且容易出错,而基于计算机视觉的自动检测技术则能大幅提高检测精度和效率。本文将介绍一种基于ATSS(Anchors-free Two-Stage)算法的紧固件智能检测与分类系统,该系统结合了ResNet-101作为骨干网络、FPN作为特征金字塔网络,并在COCO数据集上进行训练。我们将深入解析算法原理,并提供Pytorch实现代码,帮助读者快速上手这一技术。
power 雀儿7 天前
pytorch·深度学习·机器学习
LibTorch张量基础1D的张量 步长也是stride={1}2D张量 步长为{列数,1}3D张量 步长为{行×列,列,1}
查无此人byebye8 天前
人工智能·pytorch·python·深度学习·音视频
实战DDPM扩散模型:MNIST手写数字生成+FID分数计算(完整可运行版)扩散模型(Diffusion Model)作为当下生成式AI的核心技术,在图像生成领域展现出了惊人的效果。本文将从代码层面逐行拆解一个完整可运行的DDPM(Denoising Diffusion Probabilistic Models)实现,基于MNIST数据集完成手写数字生成,并集成FID(Fréchet Inception Distance)指标量化生成效果。
Suryxin.8 天前
人工智能·pytorch·深度学习·vllm
从0开始复现nano-vllm「ModelRunner.capture_cudagraph()」为什么需要 CUDA Graph?在 LLM 推理等小算子、高频次的场景中,CPU 逐个调度任务的开销往往比 GPU 实际计算的时间还要长,导致 GPU 大量空闲等待;CUDA Graph 通过将一系列 GPU 操作“录制”为静态图,在执行时只需一次 CPU 指令即可驱动整个计算流程,从而彻底消除 CPU 调度瓶颈,填满 GPU 流水线,显著降低推理延迟。