1.torch.tensor
和 torchvision.transforms.ToTensor()的区别
torch.tensor
和 torchvision.transforms.ToTensor()
在 PyTorch 中虽然都用于创建或转换数据为张量(Tensor),但它们的使用场景和目的有所不同。
torch.tensor
torch.tensor
是 PyTorch 中用于创建张量的基本函数。这个函数可以接受各种类型的数据(如列表、NumPy数组等)作为输入,并返回一个具有指定数据类型(dtype)和是否需要在GPU上(device)的张量。这个函数主要用于直接创建或初始化张量,而不是在数据预处理或数据加载的流程中。
torchvision.transforms.ToTensor()
torchvision.transforms.ToTensor()
是 PyTorch 视觉库(torchvision)中的一个转换操作,主要用于将 PIL 图像或 NumPy ndarray(通常是图像数据)转换为 PyTorch 张量。这个转换不仅仅是简单的数据类型转换,它还会执行以下操作:
-
将图像数据从 [0, 255] 归一化到 [0.0, 1.0]:这是通过除以 255 来实现的,因为图像通常以 8 位无符号整数(uint8)的形式存储,其值域为 [0, 255]。
-
将图像数据从 H x W x C 转换为 C x H x W:这里 H 是高度,W 是宽度,C 是颜色通道数(例如,RGB 图像有 3 个通道)。这种转换是因为 PyTorch 期望的输入张量维度顺序是通道数在前(C x H x W),而 PIL 图像和 NumPy ndarray 的默认维度顺序是高度在前(H x W x C)。
使用场景的区别
-
torch.tensor:当你需要直接创建或初始化一个张量,比如定义一个模型参数、操作或计算的中间结果时,你会使用这个函数。
-
torchvision.transforms.ToTensor():当你处理图像数据时,特别是在数据加载和预处理阶段,你需要将图像数据(无论是 PIL 图像还是 NumPy ndarray)转换为 PyTorch 张量,并准备它们以供模型训练或推理使用。此时,你会使用这个函数。
2.torchvision.transforms.Resize((32,32))报错
该函数只能接受PIL图像。
不可以opencv直接读取然后传给transform,需要用PIL读取。
python
# -*- coding: utf-8 -*-
# File created on 2024/8/12
# 作者:酷尔
# 公众号:酷尔计算机
import cv2
import torchvision
import torch
from PIL import Image
img=Image.open('dog.png')
transform=torchvision.transforms.Compose(
[
torchvision.transforms.Resize((32,32)),
torchvision.transforms.ToTensor()
]
)
img=transform(img)
print(img.shape)
3.用GPU训练的模型,测试模型也要把照片转为GPU格式
img=img.cuda()
python
# -*- coding: utf-8 -*-
# File created on 2024/8/12
# 作者:酷尔
# 公众号:酷尔计算机
import cv2
import torchvision
import torch
from PIL import Image
from torch import nn
img=Image.open('dog.png')
transform=torchvision.transforms.Compose(
[
torchvision.transforms.Resize((32,32)),
torchvision.transforms.ToTensor()
]
)
img=transform(img)
# print(img.shape)
class Wang(nn.Module):
def __init__(self):
super(Wang, self).__init__()
self.model1=nn.Sequential(
nn.Conv2d(3, 32, 5, padding=2),
nn.MaxPool2d(2),
nn.Conv2d(32, 32, 5, padding=2),
nn.MaxPool2d(2),
nn.Conv2d(32, 64, 5, padding=2),
nn.MaxPool2d(2),
nn.Flatten(),
nn.Linear(1024, 64),
nn.Linear(64, 10),
)
def forward(self,x):
x=self.model1(x)
return x
model=torch.load("./models/wang_0.pth")
# print(model)
img=torch.reshape(img,(1,3,32,32))
img=img.cuda()
model.eval()
with torch.no_grad():
output=model(img)
print(output)
print(output.argmax(1))