机器学习 - PyTorch一些常用的用法

如果我们要创建2维随机数

python 复制代码
import torch 

random_tensor = torch.rand(size=(3,4))
print(random_tensor)

# 输出
tensor([[0.0137, 0.7773, 0.0150, 0.2406],
        [0.6414, 0.7830, 0.7603, 0.1866],
        [0.8157, 0.8269, 0.0438, 0.0314]])

有时候需要通过加入数字0和数字1到tensor里

python 复制代码
# Create a tensor with all zeros 
zero = torch.zeros(size=(3,4))
print(zero) 

# 输出
tensor([[0., 0., 0., 0.],
        [0., 0., 0., 0.],
        [0., 0., 0., 0.]])
python 复制代码
# Create a tensor with all ones
one = torch.ones(size=(3,4))
print(one)

# 输出
tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])

想创建一个有范围的tensor,就得需要用到 torch.arange()

python 复制代码
zero_to_ten = torch.arange(start=0, end=10, step=1)
print(zero_to_ten)
# 输出
tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

要想创建一个全部都是0或者是1的tensor

python 复制代码
ten_zeros = torch.zeros_like(input = zero_to_ten)
print(ten_zeros)
ten_ones = torch.ones_like(input = zero_to_ten)
print(ten_ones)

# 输出
tensor([0, 0, 0, 0, 0, 0, 0, 0, 0, 0])
tensor([1, 1, 1, 1, 1, 1, 1, 1, 1, 1])

顺带介绍一下 CUDA.

英伟达的GPUs用了computing toolkit,这个toolkit叫做 CUDA。


Precision is the amount of detail used to describe a number.

在 PyTorch 中,精度 (precision) 值通常情况下,精度值可以是8, 16, 32或64,分别对应unit8, 单精度浮点数 (float32),半精度浮点数 (float16), 双精度浮点数 (float64)。

  • float32 (32位浮点数): 通常用于深度学习中的计算,默认情况下PyTorch中的Tensor类型是float32。它具有较高的精度和范围,适用于大多数深度学习任务。
  • float16 (16位浮点数): 也称为半精度浮点数,它可以显著减少内存占用,加快计算速度,但同时会带来精度损失。在某些情况下,可以使用float16来加速计算,但需要注意潜在的精度损失。
  • float64 (64位浮点数):也称为双精度浮点数,具有更高的精度和范围,但同时也会占有更多的内存空间。在某些情况下需要更高的数值精度时,可以使用float64。

可以自定义一些tensors with specific datatypes. 是用 dtype 这个参数

python 复制代码
float_32_tensor = torch.tensor([1.0, 6.0, 9.0],
                               dtype = None,
                               device = None,
                               requires_grad = False)

print(float_32_tensor.shape, float_32_tensor.dtype, float_32_tensor.device) 

# 结果输出
torch.Size([3]) torch.float32 cpu

通过下面的例子,来介绍什么是 shape, dtype, device

python 复制代码
example_tensor = torch.rand(3,4)
print(example_tensor)
print(f"Shape of tensor: {example_tensor.shape}")
print(f"Datatype of tensor: {example_tensor.dtype}")
print(f"Device tensor is stored on: {example_tensor.device}")

# 输出
tensor([[0.9961, 0.3773, 0.5295, 0.6546],
        [0.7505, 0.5768, 0.8997, 0.7675],
        [0.3681, 0.0447, 0.4344, 0.9033]])
Shape of tensor: torch.Size([3, 4])  
Datatype of tensor: torch.float32
Device tensor is stored on: cpu

都看到这了,给个赞呗~

相关推荐
lilye668 分钟前
程序化广告行业(39/89):广告投放的数据分析与优化秘籍
大数据·人工智能·数据分析
欧雷殿9 分钟前
再谈愚蠢的「八股文」面试
前端·人工智能·面试
修复bug1 小时前
trae.ai 编辑器:前端开发者的智能效率革命
人工智能·编辑器·aigc
掘金安东尼1 小时前
为什么GPT-4o可以生成吉卜力风格照片,原理是什么?
人工智能
机器鱼1 小时前
1.2 基于卷积神经网络与SE注意力的轴承故障诊断
深度学习·机器学习·cnn
励志成为大佬的小杨1 小时前
pytorch模型的进阶训练和性能优化
人工智能·pytorch·python
知舟不叙1 小时前
OpenCV的基础操作
人工智能·opencv·计算机视觉
果冻人工智能2 小时前
打造 AI Agent 对于中产阶级来说就是场噩梦
人工智能
MediaTea2 小时前
AI 文生图:提示词撰写技巧与示例(ChatGPT-4o 篇)
人工智能
墨绿色的摆渡人2 小时前
用 pytorch 从零开始创建大语言模型(三):编码注意力机制
人工智能·pytorch·语言模型