PyTorch|在张量运算中使用GPU

pytorch在张量运算时允许我们在GPU上进行计算,我们可以采用这些方法将数据无缝的移入或移出GPU。

当我们进入GPU时,我们可以使用cuda()方法 ,当我们进入CPU时,我们可以使用**cpu()**方法。

同时,我们还可以使用to() 方法,去GPU的时候,我们写到**('cuda')** ,去CPU的时候,我们写到**('cpu')**。

在训练过程中,要想利用我们的GPU,有两个基本要求:

  • 数据必须移到GPU上

  • 网络必须移到GPU上

默认情况下,在创建PyTorch张量或PyTorch神经网络模块时,会在CPU上初始化相应的数据。具体来说,这些数据存在于CPU的内存中。

下面是一些实例:

复制代码
>>> import torch
>>> data=torch.tensor([1,2,3,4])>>> data.devicedevice(type='cpu')
>>> v1=data.to('cuda')>>> v1.devicedevice(type='cuda', index=0)>>> v2=data.cuda()>>> v2.devicedevice(type='cuda', index=0)
>>> v3=v2.to('cpu')>>> v3.devicedevice(type='cpu')>>> v4=v2.cpu()>>> v4.device

然而,代码需要在不同的设备都能运行,也就是在不修改代码的情况下在GPU上可以使用或者在只能使用CPU的设备上运行

例如,假设我们写的代码到处使用cuda()方法,然后,我们把代码交给一个没有GPU的用户,这样做是行不通的。

对此,我们可以这样处理:​​​​​​​

复制代码
device=torch.device("cuda" if torch.cuda.is_available() else "cpu")input=data.to(device)network=Network()net=network.to(device)

总结起来,在我们编写的代码中,尽量使用这种形式:​​​​​​​

复制代码
device=torch.device("cuda" if torch.cuda.is_available() else "cpu")***=***.to(device)
相关推荐
ZPC82101 分钟前
MoveIt Servo 控制真实机械臂
人工智能·pytorch·算法·性能优化·机器人
元直数字电路验证1 分钟前
当AI学会“越狱“与“签名“:大模型 安全的攻与防
人工智能·大模型水印·越狱攻击
风舞雪凌月2 分钟前
【趣谈】移动系统和桌面系统编程语言思考
java·c语言·c++·python·学习·objective-c·swift
jinanwuhuaguo3 分钟前
Claude Code 深度学习与场景应用完全指南:从入门到精通的全景实战
开发语言·人工智能·深度学习
羑悻的小杀马特3 分钟前
30 分钟零基础搭建 Home Assistant,解锁全屋智能新境界
数据库·人工智能
黑剑客与剑4 分钟前
一款使用ai来反编译pyc文件的工具 (支持python3.13)
人工智能·python·反编译·pyc
万岳科技程序员小金4 分钟前
互联网医院解决方案:在线问诊系统源码+AI智慧分诊APP开发方案
人工智能·软件开发·互联网医院系统源码·在线问诊系统源码·医疗问诊小程序·智慧分诊平台·智慧医院系统开发
Thomas.Sir5 分钟前
第五章:RAG知识库开发之【利用RAG知识库实现智能AI系统:从零构建企业级智能问答应用】
人工智能·python·vue·状态模式·fastapi·智能
gc_22996 分钟前
学习python调用pymupdf库将pdf文件转换为图片的基本用法
python·pymupdf
饼干哥哥7 分钟前
跨境电商用OpenClaw做GEO,屠杀传统谷歌SEO流量
人工智能