利用GPU进行训练

文章目录

一、GPU训练模型

GPU只能够训练三种变量,分别是:

网络模型
数据(输入,标注targets)
损失函数

使用方式是.cuda()

除了以上的三种,在别的地方是引用不上cuda的。

使用方式:

1.网络模型

bash 复制代码
#创建网络模型
class Sen(nn.Module):
    def __init__(self):
        super(Sen, self).__init__()
        self.model = nn.Sequential(
            nn.Conv2d(3, 32, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 32, 5, 1 ,2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 64, 5, 1, 2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(64*4*4, 64),
            nn.Linear(64, 10)
        )
    def forward(self,x):
        x = self.model(x)
        return x
sen = Sen()
sen.cuda()

2、损失函数

bash 复制代码
#损失函数
loss_fn = nn.CrossEntropyLoss()
loss_fn = loss_fn.cuda()

3、数据

bash 复制代码
    for data in train_dataloader:
        imgs, targets = data
        imgs = imgs.cuda()
        targets = targets.cuda()
        outputs = sen(imgs)
        loss = loss_fn(outputs, targets)

如果电脑上没有GPU的话,以上这么写会发生报错,更好的写法应该是加上if判断是否有GPU

例下:

bash 复制代码
if torch.cuda.is_available():
    sen.cuda()
bash 复制代码
if torch.cuda.is_available():
	loss_fn = loss_fn.cuda()
bash 复制代码
if torch.cuda.is_available():
  imgs = imgs.cuda()
  targets = targets.cuda()

这样可以保证有gpu先试用gpu,没有gpu也能够正常运行。

二、对比使用gpu和cpu进行训练所花费的时间

引入记录时间函数:

bash 复制代码
import time
bash 复制代码
start_time = time.time()
bash 复制代码
end_time = time.time()
bash 复制代码
print(f"使用gpu训练使用的时间{end_time - start_time}")

在模型训练开始与结束时候分别记录start_time和end_time:

bash 复制代码
start_time = time.time()
for i in range(epoch):
    print(f"-------第{i+1}轮训练开始-------")

    #训练步骤开始
    sen.train()
    for data in train_dataloader:
        imgs, targets = data
        imgs = imgs.cuda()
        targets = targets.cuda()
        outputs = sen(imgs)
        loss = loss_fn(outputs, targets)

        #优化器模型
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        total_train_step = total_train_step + 1
        if total_train_step % 100 == 0:
            end_time = time.time()
            print(f"使用gpu训练使用的时间{end_time - start_time}")
            print(f"训练次数:{total_train_step},Loss:{loss.item()}")
            writer.add_scalar("train_loss", loss.item(), total_train_step)

1.使用gpu训练结果:

可以看到平均100次只使用1s。

2.使用cpu进行训练结果:

可以看到没训练100次花费时间是7s

因此使用gpu进行训练模型能大大提升算力。

三、GPU训练模型的第二种表达方式

先定义训练的设备:

bash 复制代码
device = torch.device("cpu")

再在变量当中调用

bash 复制代码
sen = Sen()
sen = sen.to(device)
bash 复制代码
#损失函数
loss_fn = nn.CrossEntropyLoss()
loss_fn = loss_fn.to(device)
bash 复制代码
     imgs, targets = data
     imgs = imgs.to(device)
     targets = targets.to(device)

调用gpu只需要改变训练模型即可,变量当中依旧用.to(device):

bash 复制代码
device = torch.device("cuda")

':0'的写法等同于cuda

bash 复制代码
device = torch.device("cuda:0")

如果电脑上有两个不同的gpu,可以用以下调用第二个gpu进行训练

bash 复制代码
device = torch.device("cuda:1")

为了适用于不同环境,可以用以下代码来写:

bash 复制代码
device = torch.device("cuda" if torch.cuda.is_acailable() else "cpu")
相关推荐
天天爱吃肉82184 小时前
【跨界封神|周杰伦×王传福(陶晶莹主持):音乐创作与新能源NVH测试,底层逻辑竟完全同源!(新人必看入行指南)】
python·嵌入式硬件·算法·汽车
岱宗夫up5 小时前
Python 数据分析入门
开发语言·python·数据分析
码界筑梦坊5 小时前
325-基于Python的校园卡消费行为数据可视化分析系统
开发语言·python·信息可视化·django·毕业设计
ccLianLian5 小时前
计算机基础·cs336·损失函数,优化器,调度器,数据处理和模型加载保存
人工智能·深度学习·计算机视觉·transformer
asheuojj5 小时前
2026年GEO优化获客效果评估指南:如何精准衡量TOP5关
大数据·人工智能·python
多恩Stone5 小时前
【RoPE】Flux 中的 Image Tokenization
开发语言·人工智能·python
铁蛋AI编程实战5 小时前
2026 大模型推理框架测评:vLLM 0.5/TGI 2.0/TensorRT-LLM 1.8/DeepSpeed-MII 0.9 性能与成本防线对比
人工智能·机器学习·vllm
爱吃泡芙的小白白5 小时前
深入解析CNN中的BN层:从稳定训练到前沿演进
人工智能·神经网络·cnn·梯度爆炸·bn·稳定模型
聆风吟º5 小时前
CANN runtime 性能优化:异构计算下运行时组件的效率提升与资源利用策略
人工智能·深度学习·神经网络·cann
一山秋叶5 小时前
带分数正则的一致性蒸馏
人工智能·深度学习