技术栈
pytorch
没事偷着乐琅
3 小时前
人工智能
·
pytorch
·
python
人工智能 pytorch篇
pytorch是一个深度学习框架,他封装了张量(Tensor),Pytorch中的张量就是元素为同一种数据类型的多维矩阵。在Pytorch中,张量以类的形式封装起来,对张量的一些运算、处理的方法被封装在类中。
邪恶的贝利亚
3 小时前
人工智能
·
pytorch
·
python
Pytorch常用函数
创建和扁平化很重要对于图像数据集,torchvision.datasets 提供了许多常见数据集(如 CIFAR-10、ImageNet、MNIST 等)以及用于加载图像数据的工具。
阿正的梦工坊
4 小时前
人工智能
·
pytorch
·
python
PyTorch 中的 nn.ModuleList 是什么?与普通列表有啥区别?
如果你在用 PyTorch 实现神经网络模型,尤其是涉及到多个子模块(比如专家网络、层列表)时,可能会遇到 nn.ModuleList。比如在 MixtureOfExperts 的代码中,你可能会看到:
AIGC_ZY
5 小时前
人工智能
·
pytorch
·
python
torch.einsum 的 10 个常见用法详解以及多头注意力实现
torch.einsum 是 PyTorch 提供的一个高效的张量运算函数,能够用紧凑的 Einstein Summation 约定(Einstein Summation Convention, Einsum)描述复杂的张量操作,例如矩阵乘法、转置、内积、外积、批量矩阵乘法等。
KingDol_MIni
8 小时前
人工智能
·
pytorch
·
深度学习
一个使用ALIGNN神经网络对材料性能预测的深度学习案例解读
案例:使用更先进的图神经网络(ALIGNN)结合Materials Project API进行材料带隙预测
庄园最好的宝
11 小时前
人工智能
·
pytorch
·
python
解决下载支持gpu的pytorch问题
是这样的,因为要下载可以用gpu的pytorch,用的pycharm下载,一直尝试(D-learning) PS D:\pytorch_whl> pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
查尔char
12 小时前
人工智能
·
pytorch
·
python
4070Super安装GPU版本pytorch记录
一些啐啐念。 安装LLaMA-Factory时遇到pytorch安装成CPU版本。网上找了一圈攻略,都是下载龟速。挂梯子也一样。最后在尝试用pytorch官网的生成的命令进行安装时,突然奇想,直接把安装日志显示的下载链接复制到浏览器下载,发现可以满速下载(需挂梯子)。(估计是代理的模式不能加速命令终端的下载??) https://pytorch.org/get-started/locally/#windows-verification
L Jiawen
20 小时前
pytorch
·
python
·
conda
【Python · Pytorch】Conda介绍 & DGL-cuda安装
本文仅涉及DGL库介绍与cuda配置,不包含神经网络及其训练测试。起因:博主电脑安装了 CUDA 12.4 版本,但DGL疑似没有版本支持该CUDA版本。随即想到可利用Conda创建CUDA12.1版本的虚拟环境。
lihuhelihu
1 天前
人工智能
·
pytorch
·
rnn
·
深度学习
·
神经网络
·
机器学习
·
数据分析
RNN实现精神分裂症患者诊断(pytorch)
RNN(Recurrent Neural Network,循环神经网络) 是一种 专门用于处理序列数据(如时间序列、文本、语音、视频等)的神经网络。与普通的前馈神经网络(如 MLP、CNN)不同,RNN 具有“记忆”能力,能够利用过去的信息来影响当前的计算结果。
阿正的梦工坊
1 天前
人工智能
·
pytorch
·
python
PyTorch 常见的损失函数:从基础到大模型的应用
在用 PyTorch 训练神经网络时,损失函数(Loss Function)是不可或缺的“裁判”。它告诉模型预测结果与真实答案的差距有多大,优化器则根据这个差距调整参数。PyTorch 提供了丰富而强大的损失函数接口,位于 torch.nn 模块中。今天我们就来聊聊几个常见的损失函数(比如 nn.MSELoss 和 nn.CrossEntropyLoss),看看它们的原理和适用场景,最后再揭秘一下 GPT、BERT、LLaMA 等大模型用的是哪些损失函数。
半岛Hantou
1 天前
pytorch
·
深度学习
·
神经网络
神经网络代码入门解析
首先设计一个函数create_data,提供我们所需要的数据集的x与ytorch.normal() 生成一个张量
黑色的山岗在沉睡
1 天前
人工智能
·
pytorch
·
python
Pytorch构建LeNet进行MNIST识别 #自用
LeNet是一种经典的卷积神经网络(CNN)结构,由Yann LeCun等人在1998年提出,主要用于手写数字识别(如MNIST数据集)。作为最早的实用化卷积神经网络,LeNet为现代深度学习模型奠定了基础,其设计思想至今仍被广泛采用。
阿正的梦工坊
1 天前
人工智能
·
pytorch
·
python
PyTorch 类声明中的 super().__init__()是什么?为什么必须写它?
如果你最近在学习 PyTorch,尤其是涉及到神经网络模型的定义,比如 nn.Module 的子类,你可能会经常看到这样的代码:
lczdyx
1 天前
人工智能
·
pytorch
·
python
·
深度学习
·
transformer
Transformer 代码剖析10 - TransformerEmbedding (pytorch实现)
TransformerEmbedding 是 Transformer 架构的输入预处理核心模块,承担着将离散符号序列转化为富含语义和位置信息的连续向量表示的关键任务。
deephub
2 天前
人工智能
·
pytorch
·
python
·
深度学习
·
大语言模型
·
内存优化
PyTorch内存优化的10种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。以下大部分技术可以相互结合,以获得更显著的内存效率提升。
黑色的山岗在沉睡
2 天前
人工智能
·
pytorch
·
深度学习
pytorch与深度学习随记——AlexNet
AlexNet和LeNet的设计理念非常相似,但也存在显著差异:基本结构对比AlexNet架构的创新点
凡人的AI工具箱
2 天前
人工智能
·
pytorch
·
python
·
深度学习
·
机器学习
·
ai
·
ai编程
PyTorch深度学习框架60天进阶计划第11天:过拟合解决方案深度实践
掌握Dropout配置策略、L2正则化实现、Early Stopping机制及模型检查点保存方法结论:当Dropout概率为0.5时,验证集准确率最高且过拟合控制最佳。
羊小猪~~
2 天前
网络
·
人工智能
·
pytorch
·
深度学习
·
神经网络
·
机器学习
·
分类
深度学习基础--ResNet50V2网络的讲解,ResNet50V2的复现(pytorch)以及用复现的ResNet50做鸟类图像分类
前言👀 改进点:何凯明大神产实力不同的残差结构,如下:最后结果:发现还是原始的残差结构效果最好这个部分主要是激活函数、BN层的位置。
ymchuangke
2 天前
人工智能
·
pytorch
·
python
Pytorch中的主要函数
我就基本的解释一下吧,!功能: 用于手动设置 PyTorch 的随机数生成器的种子。当你设置了一个特定的种子后,后续所有依赖随机数生成的操作都会产生可重复的结果。 参数: seed 是一个整数,取值范围通常是 32 位整数范围(-2147483648 到 2147483647)。
ymchuangke
2 天前
人工智能
·
pytorch
·
python
Pytorch简单概述
Pytorch的安装,我就不在赘述了,大家记得安装Pycharm,Anaconda,然后在安装Pytorch。