-
torch.squeeze(input, dim=None)
将给定的
input
这个 tensor 中,大小为 1 的 dim 全部压缩。如下例子:
pyimport torch t = torch.tensor([[1], [2], [3]]) print(t) # tensor([[1], [2], [3]]) shape=(3,1) t = torch.squeeze(t) print(t) # tensor([1, 2, 3]) shape=(3,)
-
torch.unsqueeze(input, dim)
将给定的
input
这个 tensor 中,指定的 dim 扩充一维如下例子:
pyimport torch t = torch.tensor([1, 2, 3]) print(torch.unsqueeze(t, 0)) # tensor([[1, 2, 3]]) shape=(1,3) print(torch.unsqueeze(t, 1)) # tensor([[1], [2], [3]]) shape=(3,1)
-
torch.index_select(input, dim, index, *, out=None)
在给定的
input
这个 tensor 中,选择维度 dim ,然后在这个维度中选择索引 index 的部分返回。如下例子:
pyimport torch t = torch.arange(1, 13).view(3, 4) print(t) """ tensor([[ 1, 2, 3, 4], [ 5, 6, 7, 8], [ 9, 10, 11, 12]]) shape=(3, 4) """ indices = torch.tensor([0, 2]) print(torch.index_select(t, 0, indices)) """ tensor([[ 1, 2, 3, 4], [ 9, 10, 11, 12]]) 选择 dim=0 ,有 (0, 1, 2) 三个,选择第 0 行和第 2 行 """ print(torch.index_select(t, 1, indices)) """ tensor([[ 1, 3], [ 5, 7], [ 9, 11]]) 选择 dim=1 ,有 (0, 1, 2, 3) 四个,选择第 0 列和第 4 列 """
-
torch.norm(input, p='fro', dim=None, keepdim=False, out=None, dtype=None)
将给定的
input
这个 tensor 按照给定的 dim 计算范数,具体计算的是什么范数由 p 决定p=1 表示第一范数,即 tensor 中每个元素绝对值之和
p=2 表示第二范数,即 tensor 中每个元素平方和的和,再开根号
其他表示无穷范数,即 tensor 中绝对值最大的元素
pyimport torch """ inputs.shape = (3, 3, 4) """ inputs = torch.tensor([[[ 1., 2., 3., 4.], [ 2., 4., 6., 8.], [ 3., 6., 9., 12.]], [[ 1., 2., 3., 4.], [ 2., 4., 6., 8.], [ 3., 6., 9., 12.]], [[ 1., 2., 3., 4.], [ 2., 4., 6., 8.], [ 3., 6., 9., 12.]]]) """ inputs1.shape = (1, 3, 4) 对于 dim=0 进行 L2 范数的计算,就是考虑将 (i, j, k) 其中所有的 i 的元素平方和加起来再开根号 这里 sqrt((0, 0, 0)^2 + (1, 0, 0)^2 + (2, 0, 0)^2) = sqrt(3) = 1.7321 tensor([[[ 1.7321, 3.4641, 5.1962, 6.9282], [ 3.4641, 6.9282, 10.3923, 13.8564], [ 5.1962, 10.3923, 15.5885, 20.7846]]]) """ inputs1 = torch.norm(inputs, p=2, dim=0, keepdim=True) print(inputs1) """ inputs2.shape = (3, 1, 4) 对于 dim=1 进行 L2 范数的计算,就是考虑将 (i, j, k) 其中所有的 j 的元素平方和加起来再开根号 这里 sqrt((0, 0, 0)^2 + (0, 1, 0)^2 + (0, 2, 0)^2) = sqrt(1+4+9) = 3.7417 tensor([[[ 3.7417, 7.4833, 11.2250, 14.9666]], [[ 3.7417, 7.4833, 11.2250, 14.9666]], [[ 3.7417, 7.4833, 11.2250, 14.9666]]]) """ inputs2 = torch.norm(inputs, p=2, dim=1, keepdim=True) print(inputs2) """ inputs3.shape = (3, 3, 1) 对于 dim=2 进行 L2 范数的计算,就是考虑将 (i, j, k) 其中所有的 k 的元素平方和加起来再开根号 这里 sqrt((0, 0, 0)^2+(0, 0, 1)^2+(0, 0, 2)^2+(0, 0, 3)^2) = sqrt(1+4+9+16) = 5.4772 tensor([[[ 5.4772], [10.9545], [16.4317]], [[ 5.4772], [10.9545], [16.4317]], [[ 5.4772], [10.9545], [16.4317]]]) """ inputs3 = torch.norm(inputs, p=2, dim=2, keepdim=True) print(inputs3)
-
torch.chunk(input, chunks, dim=0) → List of Tensors
将
input
这个tensor
分成 chunks 个 tensors ,按照 dim 来划分。pyimport torch t = torch.arange(1, 28).view(3, 3, 3) """ tensor([[[ 1, 2, 3], [ 4, 5, 6], [ 7, 8, 9]], [[10, 11, 12], [13, 14, 15], [16, 17, 18]], [[19, 20, 21], [22, 23, 24], [25, 26, 27]]]) shape = (3, 3, 3) """ print(t) """ 按照 dim=0 划分,那么划分结果为 (tensor([[[1, 2, 3], [4, 5, 6], [7, 8, 9]]]), tensor([[[10, 11, 12], [13, 14, 15], [16, 17, 18]]]), tensor([[[19, 20, 21], [22, 23, 24], [25, 26, 27]]])) """ print(torch.chunk(t, chunks=3, dim=0)) """ 按照 dim=1 划分,那么划分结果为 (tensor([[[ 1, 2, 3]], [[10, 11, 12]], [[19, 20, 21]]]), tensor([[[ 4, 5, 6]], [[13, 14, 15]], [[22, 23, 24]]]), tensor([[[ 7, 8, 9]], [[16, 17, 18]], [[25, 26, 27]]])) """ print(torch.chunk(t, chunks=3, dim=1)) """ 按照 dim=2 划分,那么划分结果为 (tensor([[[ 1], [ 4], [ 7]], [[10], [13], [16]], [[19], [22], [25]]]), tensor([[[ 2], [ 5], [ 8]], [[11], [14], [17]], [[20], [23], [26]]]), tensor([[[ 3], [ 6], [ 9]], [[12], [15], [18]], [[21], [24], [27]]])) """ print(torch.chunk(t, chunks=3, dim=2))
Pytorch API
solego2023-10-08 23:11
相关推荐
newxtc8 分钟前
【天怡AI-注册安全分析报告-无验证方式导致安全隐患】WF1998071922 分钟前
秋招自我介绍Hoper.J23 分钟前
李宏毅2024生成式人工智能导论 中文镜像版指导与作业yuchangchenTT26 分钟前
你敢相信吗,我用AI撸了一个在线计算器网站!云天徽上31 分钟前
【目标检测】labelimg图像标注软件的使用流程不睡懒觉的橙34 分钟前
【医疗大数据】医疗保健领域的大数据管理:采用挑战和影响AI前沿技术追踪1 小时前
人工智能安全治理新篇章:《2024人工智能安全治理框架1.0版》深度解读@附20页PDF文件下载吉小雨1 小时前
PyTorch经典模型声网2 小时前
Kyutai 开源对话模型 Moshi;李飞飞空间智能公司已筹集超过 2.3 亿美元丨 RTE 开发者日报无名之逆2 小时前
计算机专业的就业方向