深度学习pytorch——统计属性(持续更新)

矩阵范数 vs 向量范数

向量范数

1-范数:所有元素的绝对值之和。

2-范数:所有元素的平方之和,在开根号。

p-范数:所有元素的绝对值的p次方之和,再求其1/p次方。

例:向量X=[2, 3, -5, -7] ,求向量的1-范数,2-范数。

python 复制代码
a = torch.full([8],1.)
print("1-范数:",a.norm(1))    # tensor(8.)
print("2-范数:",a.norm(2))    # tensor(2.8284)

矩阵范数

1-范数:所有元素的绝对值之和。

2-范数:所有元素的平方之和,在开根号。

p-范数:所有元素的绝对值的p次方之和,再求其1/p次方。

b=tensor([[1., 1., 1., 1.], [1., 1., 1., 1.]])

c=tensor([[[1., 1.], [1., 1.]], [[1., 1.], [1., 1.]]])

python 复制代码
print("1-范数:",b.norm(1),c.norm(1))  # tensor(8.) tensor(8.)
print("2-范数:",b.norm(2),c.norm(2))  # tensor(2.8284) tensor(2.8284)

在不同维度上求范数就是消除这个维度,比如我现在有一个shape为[3, 2, 2]的张量,如果我要在第一维度上求范数,最后结果的shape就变成了[2, 2]了,实行的操作就是对本维度上的元素进行求范数处理。比如我已知如下一个张量:

如果我在第0维度上求变量就是按红框中的元素进行处理:

最后的结果就是:[[12., 15.],[18., 21.]]。

如果我在第一维度进行求范数,就是对第一维度上的元素对应求范数,如下图所示:

最后的就是:[[ 2., 4.],[10., 12.],[18., 20.]]。

同理在第2维度求范数,就是在第二维度元素之间进行求范数操作:

结果就是:[[ 1., 5.], [ 9., 13.], [17., 21.]]。

均值、累加、最小值、最大值、累乘

这一类方法的实现都是先打平为1维的之后再求,最基本的用法就是tensorname.fun_name():

复制代码
min()       # 求最小值
max()       # 求最大值
mean()      # 求均值
prod()      # 求累乘
sum()      # 求累加
argmax()   # 求最大值的下标
argmin()   # 求最小值的下标

接下来讨论扩展的用法:

1、在特定维度上

a = tensor([[-1.5277, 0.3629, -1.2216, -1.3514, -0.7660, 0.0864, -0.9250, -0.6203,
0.1785, 1.0856],

-0.3962, 0.6123, 0.3432, -2.0344, -0.5936, 0.9861, 1.2098, -1.0271, 0.5962, 1.5628\], \[ 0.0584, -0.7316, -0.7060, 1.3894, -0.3185, 1.4347, 0.6946, -0.5441, -2.1643, -0.3881\], \[-0.2978, 0.7211, 1.1158, -1.6303, -0.7265, -0.1060, -1.2778, -0.0575, -0.3458, -0.0525\]\]) ```python print(a.max(dim=1)) # 在第一维度上最大值,并给出最大值所在的位置 torch.return_types.max(values=tensor([1.0856, 1.5628, 1.4347, 1.1158]),indices=tensor([9, 9, 5, 2])) print(a.argmax(dim=1)) # tensor([9, 9, 5, 2]) print(a.max(dim=1,keepdim=True)) # keepdim是保持原来的维度,就是原来a是一个二维的张量,现在a也是个二维的张量,只是size改变了 print(a.argmax(dim=1,keepdim=True)) ``` ## top-k ``` a.topk(3,dim=1) # 求出a张量在一维上,前三大的元素 a.topk(3,dim=1,largest=False) # 求最小的三个 a.kthvalue(8,dim=1) # 在第一维度上第八大的 ``` ## 比较 给定a1=tensor(\[\[-0.1915, -0.1166, -0.3212\], \[-1.4488, 0.9648, -2.3803\], \[ 0.2105, 1.6176, 0.2730\]\]) 1、使用运算符 这种情况就是将张量a中的每一个元素与0进行比较,如果大于零赋值为True,小于0赋值为False,最后返回一个3\*3的张量,其它比较运算符同理,代码示例: ```python print(a1>0) ``` 2、使用gt()方法 大于0的返回True,小于0的返回False,最后返回的是一个3\*3的张量,代码示例: ```python print(torch.gt(a1,0)) ``` 3、使用eq()和equal()方法 ```python a=torch.ones(2,3) b=torch.randn(2,3) # 判断a和b是否相等,是一个元素一个元素进行对比,如果对应元素相等,则将对应的位置赋值为True,不等赋值为False,最后返回一个2*3的张量 print(torch.eq(a,b)) # 是直接判断两个张量是否相等,如果不相等直接返回一个False,相等则返回一个True print(torch.equal(a,b)) ``` [ccpytorch求范数函数------torch.norm - 慢行厚积 - 博客园 (cnblogs.com)![icon-default.png?t=N7T8](https://file.jishuzhan.net/article/1770747839131947009/c9868f5524aa31bbc2ae673827f18730.webp)https://www.cnblogs.com/wanghui-garcia/p/11266298.html#:\~:text=pytorch%E6%B1%82%E8%8C%83%E6%95%B0%E5%87%BD%E6%95%B0%E2%80%94%E2%80%94torch.norm%201%20dim%20%28int%EF%BC%8C2-tuple%EF%BC%8C2-list%EF%BC%8C%20optional%29%3A%20%E6%8C%87%E5%AE%9A%E8%AE%A1%E7%AE%97%E7%9A%84%E7%BB%B4%E5%BA%A6%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E6%95%B4%E6%95%B0%E5%80%BC%EF%BC%8C%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E5%A4%A7%E5%B0%8F%E4%B8%BA2%E7%9A%84%E5%85%83%E7%BB%84%EF%BC%8C%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E4%B8%BANone%EF%BC%8C%E5%BD%93%E8%BE%93%E5%85%A5tensor%E5%8F%AA%E6%9C%89%E4%B8%A4%E7%BB%B4%E6%97%B6%E7%9F%A9%E9%98%B5%E8%AE%A1%E7%AE%97%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%EF%BC%9B%E5%BD%93%E8%BE%93%E5%85%A5%E5%8F%AA%E6%9C%89%E4%B8%80%E7%BB%B4%E6%97%B6%E5%88%99%E8%AE%A1%E7%AE%97%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E3%80%82%20...,3%20out%EF%BC%88Tensor%2C%20optional%EF%BC%89%3Atensor%E7%9A%84%E8%BE%93%E5%87%BA%E3%80%82%20%E5%A6%82%E6%9E%9Cdim%3DNone%E6%88%96out%3DNone%2C%E5%88%99%E5%BF%BD%E7%95%A5%E8%AF%A5%E5%8F%82%E6%95%B0%E3%80%82%204%20dtype%EF%BC%88torch.dtype%EF%BC%8Coptional%EF%BC%89%EF%BC%9A%E6%8C%87%E5%AE%9A%E8%BF%94%E5%9B%9Etensor%E7%9A%84%E6%9C%9F%E6%9C%9B%E6%95%B0%E6%8D%AE%E7%B1%BB%E5%9E%8B%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%8C%87%E5%AE%9A%E4%BA%86%E8%AF%A5%E5%8F%82%E6%95%B0%EF%BC%8C%E5%9C%A8%E6%89%A7%E8%A1%8C%E8%AF%A5%E6%93%8D%E4%BD%9C%E6%97%B6%E8%BE%93%E5%85%A5tensor%E5%B0%86%E8%A2%AB%E8%BD%AC%E6%8D%A2%E6%88%90%20%3Aattr%3A%E2%80%99dtype%E2%80%99](https://www.cnblogs.com/wanghui-garcia/p/11266298.html#:~:text=pytorch%E6%B1%82%E8%8C%83%E6%95%B0%E5%87%BD%E6%95%B0%E2%80%94%E2%80%94torch.norm%201%20dim%20%28int%EF%BC%8C2-tuple%EF%BC%8C2-list%EF%BC%8C%20optional%29%3A%20%E6%8C%87%E5%AE%9A%E8%AE%A1%E7%AE%97%E7%9A%84%E7%BB%B4%E5%BA%A6%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E6%95%B4%E6%95%B0%E5%80%BC%EF%BC%8C%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E6%98%AF%E4%B8%80%E4%B8%AA%E5%A4%A7%E5%B0%8F%E4%B8%BA2%E7%9A%84%E5%85%83%E7%BB%84%EF%BC%8C%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%E5%B0%86%E8%A2%AB%E8%AE%A1%E7%AE%97%EF%BC%9B%E5%A6%82%E6%9E%9C%E4%B8%BANone%EF%BC%8C%E5%BD%93%E8%BE%93%E5%85%A5tensor%E5%8F%AA%E6%9C%89%E4%B8%A4%E7%BB%B4%E6%97%B6%E7%9F%A9%E9%98%B5%E8%AE%A1%E7%AE%97%E7%9F%A9%E9%98%B5%E8%8C%83%E6%95%B0%EF%BC%9B%E5%BD%93%E8%BE%93%E5%85%A5%E5%8F%AA%E6%9C%89%E4%B8%80%E7%BB%B4%E6%97%B6%E5%88%99%E8%AE%A1%E7%AE%97%E5%90%91%E9%87%8F%E8%8C%83%E6%95%B0%E3%80%82%20...,3%20out%EF%BC%88Tensor%2C%20optional%EF%BC%89%3Atensor%E7%9A%84%E8%BE%93%E5%87%BA%E3%80%82%20%E5%A6%82%E6%9E%9Cdim%3DNone%E6%88%96out%3DNone%2C%E5%88%99%E5%BF%BD%E7%95%A5%E8%AF%A5%E5%8F%82%E6%95%B0%E3%80%82%204%20dtype%EF%BC%88torch.dtype%EF%BC%8Coptional%EF%BC%89%EF%BC%9A%E6%8C%87%E5%AE%9A%E8%BF%94%E5%9B%9Etensor%E7%9A%84%E6%9C%9F%E6%9C%9B%E6%95%B0%E6%8D%AE%E7%B1%BB%E5%9E%8B%E3%80%82%20%E5%A6%82%E6%9E%9C%E6%8C%87%E5%AE%9A%E4%BA%86%E8%AF%A5%E5%8F%82%E6%95%B0%EF%BC%8C%E5%9C%A8%E6%89%A7%E8%A1%8C%E8%AF%A5%E6%93%8D%E4%BD%9C%E6%97%B6%E8%BE%93%E5%85%A5tensor%E5%B0%86%E8%A2%AB%E8%BD%AC%E6%8D%A2%E6%88%90%20%3Aattr%3A%E2%80%99dtype%E2%80%99 "c​​​​​​​c​​​​​​​pytorch求范数函数——torch.norm - 慢行厚积 - 博客园 (cnblogs.com)")

相关推荐
红衣小蛇妖37 分钟前
神经网络-Day46
人工智能·深度学习·神经网络
带电的小王1 小时前
【动手学深度学习】3.1. 线性回归
人工智能·深度学习·线性回归
谢尔登1 小时前
结合 AI 生成 mermaid、plantuml 等图表
人工智能
VR最前沿1 小时前
【应用】Ghost Dance:利用惯性动捕构建虚拟舞伴
人工智能·科技
说私域2 小时前
内容力重塑品牌增长:开源AI大模型驱动下的智能名片与S2B2C商城赋能抖音生态种草范式
人工智能·小程序·开源·零售
l1t2 小时前
三种读写传统xls格式文件开源库libxls、xlslib、BasicExcel的比较
c++·人工智能·开源·mfc
AI浩2 小时前
【Block总结】EBlock,快速傅里叶变换(FFT)增强输入图像的幅度|即插即用|CVPR2025
人工智能·目标检测·计算机视觉
Vertira2 小时前
Pytorch安装后 如何快速查看经典的网络模型.py文件(例如Alexnet,VGG)(已解决)
人工智能·pytorch·python
Listennnn2 小时前
信号处理基础到进阶再到前沿
人工智能·深度学习·信号处理
奔跑吧邓邓子2 小时前
DeepSeek 赋能智能养老:情感陪伴机器人的温暖革新
人工智能·机器人·deepseek·智能养老·情感陪伴