pytorch

铁手飞鹰19 小时前
人工智能·pytorch·python·深度学习·transformer
[深度学习]Vision Transformer
weixin_3954489119 小时前
pytorch·python·深度学习
average_weights.pyimport argparsefrom pathlib import Pathimport torch
海天一色y19 小时前
人工智能·pytorch·rnn
使用 PyTorch RNN 识别手写数字循环神经网络(RNN)通常被视为处理序列数据的利器,如自然语言处理或时间序列预测。但你是否想过,RNN 也能胜任图像分类任务?本文将介绍如何使用 PyTorch 构建一个基于 LSTM 的模型来处理经典的 MNIST 手写数字识别任务,灵感来源于 TensorFlow Keras 的官方 RNN 示例 。
deephub19 小时前
人工智能·pytorch·深度学习·神经网络
torch.compile 加速原理:kernel 融合与缓冲区复用PyTorch 的即时执行模式在原型开发阶段很方便,但在推理性能上存在明显短板。每个张量操作独立启动 kernel、独立访问显存,导致内存带宽成为瓶颈GPU 算力无法充分利用。
爱打代码的小林20 小时前
人工智能·pytorch·python
用 PyTorch 实现 CBOW 模型在自然语言处理(NLP)领域,词向量是将离散单词转化为连续数值向量的核心技术,它能让计算机理解单词的语义信息(如语义相似的单词向量距离更近)。而CBOW(Continuous Bag-of-Words,连续词袋模型) 是 Word2Vec 的经典实现之一,核心思想是通过上下文单词预测中心目标单词,训练过程中学习到的嵌入层参数就是我们需要的词向量,兼具实现简单、训练高效的特点。
查无此人byebye21 小时前
人工智能·pytorch·python·深度学习·音视频·transformer
深度解析:当前AI视频生成为何普遍“短小精悍”?随着AIGC技术的爆发,文本生成图像、语音合成已经实现“即输即得”,但视频生成领域始终存在一个普遍痛点——绝大多数工具(无论是即梦、Runway Gen-2,还是国内的各类文生视频平台),都只能生成几秒到十几秒的短视频,超过30秒的生成不仅难度陡增,还常出现画面卡顿、逻辑断裂、质量崩坏等问题。
林深现海21 小时前
pytorch·笔记·深度学习
【刘二大人】PyTorch深度学习实践笔记 —— 第一集:深度学习全景概述(凝练版)智能可以被简化为算法对人类两种能力的模拟推理 (Reasoning):根据已知信息和约束做出决策。例如根据余额和偏好通过算法决定中午吃什么。
zhangfeng11331 天前
人工智能·pytorch·深度学习·语言模型
大语言模型llm 量化模型 跑在 边缘设备小显存显卡 GGUF GGML PyTorch (.pth, .bin, SafeTensors)GGUF(GPT-Generated Unified Format)是 一种为机器学习模型设计的二进制文件格式,特别优化用于高效加载和运行模型,尤其是在资源受限的环境(如个人电脑、手机、边缘设备)上。
纤纡.1 天前
人工智能·pytorch·深度学习
深度学习环境搭建:CUDA+PyTorch+TorchVision+Torchaudio 一站式安装教程深度学习入门的第一步,从来不是学习模型原理,而是搭建一个稳定可用的运行环境——其中CUDA、PyTorch、TorchVision、Torchaudio更是核心基础,直接决定后续模型训练、代码运行能否顺畅进行。很多新手入门时,常会被“版本不兼容”“安装失败”“GPU调用异常”等问题卡住,耗费大量时间排查。今天这篇实操指南,就手把手带大家从零开始,一步步完成CUDA的安装、验证,以及PyTorch+TorchVision+Torchaudio的配套安装,全程避开常见坑,哪怕是零基础新手,也能轻松搞定,快速开
我材不敲代码1 天前
人工智能·pytorch·深度学习
深度学习的准备工作:CUDA安装配置、pytorch库、torchvision库、torchaudio库安装之前大家对神经网络肯定都有一定的了解,也听说了神经网络模型训练的时候要花费非常多的时间和算力去执行,我当年跑神经网络的时候风扇“呜呜呜”的转,现在我们可以利用GPU来帮助我们实现高性能的并行计算。
Network_Engineer1 天前
人工智能·pytorch·深度学习·transformer
从零手写Transformer:基于每一步shape变化拆解与PyTorch实现本文将用PyTorch从零实现一个完整的Transformer模型,并通过张量形状变化和广播机制详解其内部工作原理。
爱喝可乐的老王1 天前
人工智能·pytorch·深度学习
PyTorch深度学习参数初始化和正则化核心结论:参数初始化决定模型能否顺利学习,正则化能避免模型 “学太死”,两者都是深度学习训练的关键操作。
林深现海1 天前
pytorch·笔记·深度学习
【刘二大人】PyTorch深度学习实践笔记 —— 第一集:深度学习全景概述(超详细版)在学习之初,刘二大人解释了课程使用 PyTorch 0.4 版本(虽然官网已更新至 1.x 及以上)的原因。这背后蕴含着**技术成熟度曲线(Gartner Hype Cycle)**的深刻逻辑:
阿狸OKay1 天前
人工智能·pytorch·python
einops 库和 PyTorch 的 einsum 的语法einsum,基于爱因斯坦求和约定,主要用于指定张量的乘法操作。einops,更高级、更直观的语法,专注于张量重塑和重新排列,容易理解。
工程师老罗2 天前
人工智能·pytorch·深度学习
Pytorch模型GPU训练来自 千问 要让 PyTorch 模型在 GPU 上高效运行,并不仅仅是改变设备设置,更是一套涉及环境、代码和最佳实践的组合拳。简单来说,这包括三个核心方面:确保环境支持、正确编写代码、以及应用性能优化技巧。
香芋Yu2 天前
人工智能·pytorch·深度学习
【深度学习教程——01_深度基石(Foundation)】03_计算图是什么?PyTorch动态图机制解密本章目标:告别手算梯度!引入 PyTorch 的核心神经 —— Autograd (自动微分) 系统。我们将看到 Tensor 如何自动记录历史,并一键计算所有梯度。
氵文大师2 天前
人工智能·pytorch·python
PyTorch 性能分析实战:像手术刀一样精准控制 Nsys Timeline(附自定义颜色教程)在进行深度学习模型性能优化时,NVIDIA Nsight Systems (nsys) 是我们最得力的助手。但在默认情况下,nsys 往往会抓取整个运行过程,导致生成的文件巨大且难以分析。
林深现海2 天前
pytorch·笔记·深度学习
【刘二大人】PyTorch深度学习实践笔记 —— 第二集:线性模型(凝练版)刘二大人开篇就介绍了做机器学习的三个核心步骤:关于训练的特殊说明:在实际应用中,数据集通常要分成两部分:
林深现海2 天前
pytorch·笔记·深度学习
【刘二大人】PyTorch深度学习实践笔记 —— 第三集:梯度下降(凝练版)回顾上一讲的笨办法:上一讲用的是“穷举法”,即在一个范围内把所有可能的权重 w w w 都试一遍,画出图像找最低点。
zhangfeng11332 天前
人工智能·pytorch·python
deepseek部署和训练的PyTorch CUDA Transformers Accelerate PEFT稳定版本呢推荐你当前 Virtaicloud 实例中的 PyTorch 版本是 2.1.0a0+32f93b1(这是 PyTorch 的开发版/Alpha 预发布版),绑定的 CUDA 版本为 12.2。这个环境虽然能运行,但针对 DeepSeek-R1 14B/32B 的微调存在兼容性风险,我会先解读版本问题,再给出「快速修复到稳定环境」和「适配当前 12.2 环境」两种方案。