动手学深度学习(一)预备知识

目录

一、数据操作

[1. N维数组样例](#1. N维数组样例)

[2. 访问元素](#2. 访问元素)

[3. 基础函数](#3. 基础函数)

[(1) 创建一个行向量](#(1) 创建一个行向量)

(2)通过张量的shape属性来访问张量的形状和元素总数

(3)reshape()函数

(4)创建全0、全1、其他常量或从特定分布中随机采样的数字组成的张量

(5)标准运算(张量间的标准运算,都是按元素运算)

(6)拼接函数cat

(7)求和函数sum

(8)矩阵的转置

(9)复制张量

(10)点积,矩阵-向量积和矩阵乘法

(11)范数

4.广播机制

5.转化为Numpy张量


课程推荐:跟李沐学AI的个人空间-跟李沐学AI个人主页-哔哩哔哩视频

一、数据操作

1. N维数组样例

(1)0-d 标量

bash 复制代码
1.0

(2)1-d 向量

bash 复制代码
[1.0, 2.7, 3.4]

(3)2-d 矩阵

bash 复制代码
[[1.0, 2.7, 3.4]

[5.0, 0.2, 4.6]

[4.3, 8.5, 0.2]]

(4)3-d RGB图片(CxHxW)

bash 复制代码
[[[1.0,2.7,3.4]

[5.0,0.2,4.6]

[4.3,8.5,0.2]]

[[3.2, 5.7, 3.4]

[5.4, 6.2, 3.2]

[4.1, 3.5, 6.2]]]

(5)4-d 一个RGB图片批量(BxCxHxW)

(6)5-d 一个视频批量(TxBxCxHxW)

2. 访问元素

切片规则:[start : end : step]

start : 起始索引,从0开始,-1表示结束。

end:结束索引,不包含。

step:步长,即范围内每次取值的间隔;步长为正时,从左向右取值。步长为负时,反向取值。

(1)访问一个元素

[1, 2]

python 复制代码
>>> x = torch.arange(1, 17).reshape(4, 4)
>>> x[1, 2]
tensor(7)

(2)访问一行

[1,:]

python 复制代码
>>> x[1,:]
tensor([5, 6, 7, 8])

(3)访问一列

[:,1]

python 复制代码
>>> x[:,1]
tensor([ 2,  6, 10, 14])

(4)子区域

[1:3,1:]

python 复制代码
>>> x[1:3,1:]
tensor([[ 6,  7,  8],
        [10, 11, 12]])

[::3,::2]

python 复制代码
>>> x[::3,::2]
tensor([[ 1,  3],
        [13, 15]])

3. 基础函数

(1) 创建一个行向量

python 复制代码
x = torch.arange(12)
x  #tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])

(2)通过张量的shape属性来访问张量的形状和元素总数

python 复制代码
x.shape # torch.Size([12])
x.size() # torch.Size([12])

(3)reshape()函数

改变一个张量的形状 。

python 复制代码
X = x.reshape(3,4)
X
# tensor([[ 0,  1,  2,  3],
#         [ 4,  5,  6,  7],
#         [ 8,  9, 10, 11]])

(4)创建全0、全1、其他常量或从特定分布中随机采样的数字组成的张量

全0: 第一个参数为张量的shape。

python 复制代码
torch.zeros((2,3,4))
# tensor([[[0., 0., 0., 0.],
#          [0., 0., 0., 0.],
#          [0., 0., 0., 0.]],

#         [[0., 0., 0., 0.],
#          [0., 0., 0., 0.],
#          [0., 0., 0., 0.]]])

全1

python 复制代码
torch.ones((1,3,4))
# tensor([[[1., 1., 1., 1.],
#          [1., 1., 1., 1.],
#          [1., 1., 1., 1.]]])

其他常量(指定值)

python 复制代码
torch.tensor([[1,2],[2,1]])
# tensor([[1, 2],
#         [2, 1]])

(5)标准运算(张量间的标准运算,都是按元素运算)

python 复制代码
x = torch.tensor([1.0, 2, 3, 4])
y = torch.tensor([5, 6, 7, 8])
x+y,x-y,x*y,x/y,x**y 
# (tensor([ 6.,  8., 10., 12.]), tensor([-4., -4., -4., -4.]), tensor([ 5., 12., 21., 32.]), tensor([0.2000, 0.3333, 0.4286, 0.5000]), tensor([1.0000e+00, 6.4000e+01, 2.1870e+03, 6.5536e+04]))

比较运算符,按位比较

python 复制代码
x == y
# tensor([False, False, False, False])

* 按位相乘,称为哈达玛乘 (数学符号)。

python 复制代码
>>> A = torch.arange(9).reshape(3,3)
>>> A
tensor([[0, 1, 2],
        [3, 4, 5],
        [6, 7, 8]])
>>> B = torch.arange(9,18).reshape(3,3)
>>> B
tensor([[ 9, 10, 11],
        [12, 13, 14],
        [15, 16, 17]])
>>> A * B
tensor([[  0,  10,  22],
        [ 36,  52,  70],
        [ 90, 112, 136]])

(6)拼接函数cat

torch.cat(inputs, dim=?)

  • inputs : 待连接的张量序列,可以是任意相同Tensor类型的python 序列
  • dim : 选择的扩维, 必须在0len(inputs[0])之间,沿着此维连接张量序列。

dim=0,表示按第0维方向拼接,即按行方向拼接;dim=1,表示按第0维方向拼接,即按列方向拼接;dim=3......

python 复制代码
y = torch.tensor(([[4, 1],[3, 5]]))
x = torch.arange(4, dtype=torch.float32).reshape(2, 2)
torch.cat((x, y), dim=0)
# tensor([[0., 1.],
#         [2., 3.],
#         [4., 1.],
#         [3., 5.]])

torch.cat((x, y), dim=1)
# tensor([[0., 1., 4., 1.],
#         [2., 3., 3., 5.]])

(7)求和函数sum

参数1,axis:指定求和维度,张量按该维度求和,并将该维度消去。

如,张量形状为[2, 5, 4],axis=0时,求和后,张量形状为[5, 4]。

参数2,keepdims:默认为False,是否保留axis要消去的维度。keepdims=True时,将要消去的维度长度置为1。

如,张量形状为[2, 5, 4],axis=0,keepdims=True时,求和后,张量形状为[1,5, 4]。

1)张量中的所有元素求和:

python 复制代码
x = torch.tensor([1.0, 2, 3, 4])
x.sum()
# tensor(10.)

2)按行(第0维)求和:

python 复制代码
>>> A = torch.arange(9).reshape(3,3)
>>> A
tensor([[0, 1, 2],
        [3, 4, 5],
        [6, 7, 8]])

>>> A.sum(axis=0)
tensor([ 9, 12, 15])

3)按列(第1维)求和:

python 复制代码
>>> A.sum(axis=1)
tensor([ 3, 12, 21])

2维求和,3维......

4)keepdims(保留维度)

按某一维度求和时,保留该维度,该维度长度置为1。

python 复制代码
>>> A
tensor([[0, 1, 2],
        [3, 4, 5],
        [6, 7, 8]])


>>> A.sum(axis=1).size()
torch.Size([3])

>>> A.sum(axis=1,keepdims=True).size()
torch.Size([3, 1])

>>> A.sum(axis=1,keepdims=True)
tensor([[ 3],
        [12],
        [21]])
python 复制代码
# 按列求均值
>>> A/A.sum(axis=1,keepdims=True)
tensor([[0.0000, 0.3333, 0.6667],
        [0.2500, 0.3333, 0.4167],
        [0.2857, 0.3333, 0.3810]])

5)指定多维度求和

A.sum(axis=[n, m]),按n和m维度求和,求和结果中其他维度不变,将n,m维度消去。

python 复制代码
>>> A = torch.arange(8).reshape(2,2,2)
>>> A
tensor([[[0, 1],
         [2, 3]],

        [[4, 5],
         [6, 7]]])

# 保留第1维度
>>> A.sum(axis=[0,2]).size()
torch.Size([2])

# 使用keepdims保留要消去的维度,将维度长度置为1
>>> A.sum(axis=[0,2],keepdims=True).size()
torch.Size([1, 2, 1])

# 输出
>>> A.sum(axis=[0,2])
tensor([10, 18])

(8)矩阵的转置

python 复制代码
>>> import torch
>>> B = torch.tensor(([1,2,3],[4,5,6],[7,8,9]))
>>> B
tensor([[1, 2, 3],
        [4, 5, 6],
        [7, 8, 9]])
>>> B.T
tensor([[1, 4, 7],
        [2, 5, 8],
        [3, 6, 9]])

(9)复制张量

"=",复制之后的两个张量共用一个内存地址。

python 复制代码
>>> A = B
>>> id(B)
1950198475976
>>> id(A)
1950198475976
>>> B[0]=10
>>> B
tensor([10,  2,  3,  4,  5,  6,  7,  8,  9])
>>> A
tensor([10,  2,  3,  4,  5,  6,  7,  8,  9])

clone(),重新分配内存地址。

python 复制代码
>>> A=B.clone()
>>> id(A)
1950198519512
>>> id(B)
1950198475976

(10)点积,矩阵-向量积和矩阵乘法

向量点积 ---dot函数(1维):

python 复制代码
>>> A = torch.arange(4)
>>> A
tensor([0, 1, 2, 3])
>>> B
tensor([[1., 1., 1.],
        [1., 1., 1.],
        [1., 1., 1.]])
>>> B = torch.arange(4, 8)
>>> B
tensor([4, 5, 6, 7])
>>> torch.dot(A, B)
tensor(38)

矩阵点积2维):

按位相乘求和。

python 复制代码
>>> A = torch.arange(9).reshape(3,3)
>>> B = torch.arange(9,18).reshape(3,3)

>>> torch.sum(A * B)
tensor(528)

矩阵 -向量积(mv函数)

python 复制代码
>>> B = torch.arange(9,18).reshape(3,3)
>>> C = torch.arange(3)

>>> torch.mv(B, C)
tensor([32, 41, 50])

矩阵乘法(mm函数)

python 复制代码
>>> torch.mm(A, B)
tensor([[ 42,  45,  48],
        [150, 162, 174],
        [258, 279, 300]])

(11)范数

L1范数:

向量元素的绝对值之和。

python 复制代码
>>> u = torch.tensor([3.0, -4.0])
>>> torch.abs(u).sum()
tensor(7.)

L2范数:

向量元素平方和的平方根。

python 复制代码
>>> u = torch.tensor([3.0, -4.0])
>>> torch.norm(u)
tensor(5.)

弗罗贝尼乌斯-范数**(F-范数)**:

矩阵元素的平方和的平方根。

python 复制代码
>>> torch.norm(torch.ones(4, 9))
tensor(6.)

4.广播机制

1.通过适当复制元素来扩展一个或两个数组,以便在转换之后,两个张量具有相同的形状。

2.对于生成的数组执行按元素操作。

python 复制代码
y = torch.arange(12).reshape(3,2,2)
y
# tensor([[[ 0,  1],
#          [ 2,  3]],
#
#         [[ 4,  5],
#          [ 6,  7]],

#         [[ 8,  9],
#          [10, 11]]])

x = torch.tensor([[1,2],[3,4]])
x

# tensor([[1, 2],
#         [3, 4]])

x + y

# tensor([[[ 1,  3],
#          [ 3,  5]],

#         [[ 5,  7],
#          [ 7,  9]],

#         [[ 9, 11],
#          [11, 13]]])

5.转化为Numpy张量

python 复制代码
A = x.numpy()
type(A)
# <class 'numpy.ndarray'>
相关推荐
B站计算机毕业设计超人1 小时前
计算机毕业设计Python+Flask微博情感分析 微博舆情预测 微博爬虫 微博大数据 舆情分析系统 大数据毕业设计 NLP文本分类 机器学习 深度学习 AI
爬虫·python·深度学习·算法·机器学习·自然语言处理·数据可视化
羊小猪~~1 小时前
深度学习基础案例5--VGG16人脸识别(体验学习的痛苦与乐趣)
人工智能·python·深度学习·学习·算法·机器学习·cnn
AI大模型知识分享4 小时前
Prompt最佳实践|如何用参考文本让ChatGPT答案更精准?
人工智能·深度学习·机器学习·chatgpt·prompt·gpt-3
小言从不摸鱼6 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
artificiali10 小时前
Anaconda配置pytorch的基本操作
人工智能·pytorch·python
酱香编程,风雨兼程11 小时前
深度学习——基础知识
人工智能·深度学习
#include<菜鸡>11 小时前
动手学深度学习(pytorch土堆)-04torchvision中数据集的使用
人工智能·pytorch·深度学习
拓端研究室TRL12 小时前
TensorFlow深度学习框架改进K-means聚类、SOM自组织映射算法及上海招生政策影响分析研究...
深度学习·算法·tensorflow·kmeans·聚类
chnyi6_ya12 小时前
深度学习的笔记
服务器·人工智能·pytorch
i嗑盐の小F13 小时前
【IEEE出版,高录用 | EI快检索】第二届人工智能与自动化控制国际学术会议(AIAC 2024,10月25-27)
图像处理·人工智能·深度学习·算法·自然语言处理·自动化