pytorch

keineahnung234512 小时前
人工智能·pytorch·python·深度学习
PyTorch SymNode 為何找不到方法實作?──sizes_strides_methods 動態安裝機制解析PyTorch 模型支援動態形狀的輸入。在 PyTorch 的動態形狀系統中,會使用 torch.SymInt 來表示張量的尺寸(sizes)及步長(strides),而 torch.SymInt 的底層便是 torch.SymNode。
咕噜咕噜啦啦13 小时前
pytorch·python·conda·pip
RTX5090配置DGL前言:豆包真是蠢猪啊,当然,用豆包的我……总之,经过层层误导,终于解决问题了。最近想复现一篇24年的文章,环境真是非常古早呀,感觉是在21年的上面改的,每次跑以前项目的代码,环境就要搞半天(哭)。今年实验室换了50系列的显卡,一直遇到项目的dgl与torch与CUDA不兼容的情况!
nashane14 小时前
人工智能·pytorch·python
HarmonyOS 6学习:Navigation Dialog模式与智能Web长截图融合实践在HarmonyOS应用开发中,组件间通信和内容分享是两个常见但充满挑战的技术场景。许多开发者在升级到HarmonyOS 6后,发现传统的@CustomDialog与新的@ComponentV2组件存在状态管理不兼容问题,导致数据传递失败。同时,在实现Web内容长截图分享时,又会遇到滚动截取、图片拼接、权限控制等一系列技术难题。本文将深入分析这两个问题的根源,并提供一套完整的融合解决方案。
青松@FasterAI18 小时前
人工智能·pytorch·神经网络·大模型开发
【动手学大语言模型】神经网络启蒙:PyTorch 入门实战我是一名 AI 算法工程师,在学习大模型的过程中踩过很多坑,我把自己的经验写成了一本免费电子书《动手学大语言模型:写给程序员的手搓LLM实战指南》。
web守墓人19 小时前
人工智能·pytorch·深度学习
【深度学习】Pytorch gpu加速原理探究本质上,PyTorch 的“GPU加速”就是:把张量计算从 CPU 指令切到 CUDA 内核,在 GPU 上并行执行。
啦啦啦_999919 小时前
人工智能·pytorch·python
2. PyTorch框架(①它是类似Numpy的一个张量计算;②自动微分 可理解为帮忙算导数,不用自己求导,它会帮忙算,所以自动微分等于求导,但它自己用无意义,自动微分要结合BP(Back Popular 反向传播)技术来用,用来更新参数:正向传播先算出了结果,拿到结果算损失,算出损失后开始结合反向传播再来更新权重,更新完权重后在进行正向传播算出结果,结合损失函数进行求导,求完导后有梯度,在反向传播更新梯度;经过多轮这样的训练,最终模型的拟合情况会变好;③动态计算图 即边计算边生成,不像TensorFlow生成之后不能变了;)
一个小猴子`1 天前
人工智能·pytorch·python
Pytorch快速复习如果把深度学习比作搭积木,Tensor 就是最基本的积木块。所有的模型参数、输入数据、中间计算结果,在 PyTorch 里都以 Tensor 的形式存在。 正式定义:Tensor(张量)是一个多维数组,可以看作 NumPy ndarray 的 GPU 加速版本,同时支持自动微分。
zh路西法2 天前
人工智能·pytorch·python
【Qwen2.5本地部署】超简单pytorch-gpu部署教程这里我输入的是一张普通的猫猫(可爱捏)运行代码,初次运行需要下载模型,等待即可常见参数:输入图片 cat.png
凯瑟琳.奥古斯特2 天前
人工智能·pytorch·python·深度学习
PyTorch动态计算图详解PyTorch是一个基于Python的开源深度学习框架,以其动态计算图和直观的编程接口而广受研究人员和开发者欢迎。其核心设计理念是灵活性和易用性,使得从快速原型设计到大规模生产部署的流程变得高效。
AI街潜水的八角2 天前
人工智能·pytorch·深度学习
PyTorch框架——基于深度学习SRN-DeblurNet神经网络AI去模糊图像增强系统第一步:SRN-DeblurNet介绍本文介绍的 SRN-DeblurNet(CVPR2018)方法便是一种基于深度学习的盲去模糊方法,它沿用了去模糊领域广泛应用的从粗到细(coarse-to-fine)的方案,提出了一个新的用于去模糊任务的尺度循环网络(Scale-recurrent Network),采用尺度训练方法,使用了编码器-解码器,ResBlock 网络等,该方法有两大突出特点:
lsjweiyi2 天前
人工智能·pytorch·深度学习
WSL2 + ROCm + PyTorch 深度学习环境配置全记录从零开始,在 Windows 11 的 WSL2 中搭建 AMD GPU (RX 6600 XT) 的 PyTorch 训练环境,包含内核编译、中文字体配置等完整踩坑记录。
吾辈亦有感2 天前
人工智能·pytorch·大语言模型
【动手学大语言模型】神经网络启蒙:PyTorch 入门实战我是一名 AI 算法工程师,在学习大模型的过程中踩过很多坑,我把自己的经验写成了一本免费电子书《动手学大语言模型:写给程序员的手搓LLM实战指南》。
凯瑟琳.奥古斯特2 天前
pytorch·python·深度学习
深度学习入门:用PyTorch实现MNIST手写数字识别以下是一个对新手既易懂又有价值的深度学习入门案例,关键在于将核心概念(如数据、模型、损失、优化)与直观、可运行的具体代码相结合。一个经典的入门案例是使用全连接神经网络(Fully Connected Neural Network, FCN)在 MNIST手写数字数据集 上进行图像分类。这个案例价值在于:
zhoupenghui1682 天前
人工智能·pytorch·python·gru·cuda
如何设置PyTorch程序在 GPU上运行nvidia-smi命令:显示的是驱动支持的最高 CUDA 版本,而不是必须安装的版本Mac (M系列: M1/M2/M3芯片): 无需此步骤,直接安装 PyTorch 即可支持 MPS, 命令(无需 CUDA)如下:
努力学习_小白3 天前
pytorch·python·深度学习
SE注意力机制——学习记录SE全称为Squeeze-and-Excitation Networks(挤压与激发网络),是由胡杰等人于2018年提出的注意力机制,获得了ImageNet 2017冠军。其核心思想是:让网络自动学习每个特征通道的重要性,然后对通道进行加权,增强有用特征、抑制无用特征。
星浩AI3 天前
pytorch·深度学习·机器学习
(一)PyTorch 深度学习环境搭建与微调实战[附源码]你会读到:概念梳理 → 搭好 PyTorch 环境、认识张量 → 两个实战项目:有兴趣运行代码跑一下的同学,可以点赞+关注,我将源代码和数据集发给你。
小糖学代码3 天前
人工智能·pytorch·python·rnn·深度学习·神经网络·自然语言处理
LLM系列:3.nlp基础入门:nlp与循环神经网络自然语言处理(Natural Language Processing, NLP)是人工智能领域中最具挑战性也最迷人的分支之一。它不仅是实现机器智能的象征,更是人类通往真正人工智能的必经之路。
Honey Ro3 天前
人工智能·pytorch·深度学习
pytorch中的损失函数使用计算公式: L=−1N∑i=1N[yilog⁡(y^i)+(1−yi)log⁡(1−y^i)] \mathcal{L} = -\frac{1}{N} \sum_{i=1}^{N} \left[ y_i \log(\hat{y}_i) + (1-y_i) \log(1-\hat{y}_i) \right] L=−N1i=1∑N[yilog(y^i)+(1−yi)log(1−y^i)] 前面的 y 是预测值,后面的 y 是目标值。
盼小辉丶3 天前
pytorch·深度学习·强化学习
PyTorch强化学习实战(7)——表格学习与贝尔曼方程我们已经学习了交叉熵方法及其优缺点。本节将探讨另一类更灵活、更强大的方法:Q学习。以 FrozenLake 环境为例,并探索Q学习如何与该环境结合,解决其不确定性相关问题。尽管本节使用的环境相对简单,但为深度Q学习方法奠定了基础。