Python(PyTorch)硅光电倍增管和量化感知训练亚光子算法验证

🎯要点

🎯亚光子光神经网络矩阵计算 | 🎯光学扇入计算向量点积 | 🎯表征测量确定不同光子数量下计算准确度 | 🎯训练全连接多层感知器基准测试光神经网络算法数字识别 | 🎯物理验证光学设备设置 | 🎯使用多像素光子计数器作为光子探测器和光学能耗测量 | 🎯光学检测像素调整条件 | 🎯数学矩阵计算准确度

📜光学和散射用例

🍪语言内容分比


🍇PyTorch爱因斯坦矩阵矢量

在数学中,尤其是数学物理和微分几何中线性代数的使用,爱因斯坦符号(也称为爱因斯坦求和约定或爱因斯坦求和符号)是一种符号约定,它意味着对公式中的一组索引项求和,从而实现简洁。作为数学的一部分,它是里奇演算的符号子集。然而,它经常用于不区分正切和余切空间的物理应用中。它是由阿尔伯特·爱因斯坦于 1916 年引入物理学的。

根据约定,当索引变量在一项中出现两次且未另行定义时,则意味着该项对所有索引值的求和。因此,索引的范围可以在集合 { 1 , 2 , 3 } \{1,2,3\} {1,2,3} 上,
y = ∑ i = 1 3 c i x i = c 1 x 1 + c 2 x 2 + c 3 x 3 y=\sum_{i=1}^3 c_i x^i=c_1 x^1+c_2 x^2+c_3 x^3 y=i=1∑3cixi=c1x1+c2x2+c3x3

简化为:
y = c i x i y=c_i x^i y=cixi

上面的索引不是指数,而是坐标、系数或基向量的索引。也就是说,在这种情况下, x 2 x^2 x2 应该被理解为 x x x 的第二个分量,而不是 x x x 的平方(这有时会导致歧义)。 x i x^i xi 中的上索引位置之所以如此,是因为索引在术语的上位置(上标)和下位置(下标)中出现一次。通常, ( x 1 x 2 x 3 ) \left(x^1 x^2 x^3\right) (x1x2x3) 相当于传统的 ( x y z ) (x y z) (xyz)。

代码示例

使用爱因斯坦符号和 einsum 函数,我们只需使用一个函数就可以计算向量和矩阵:torch.einsum(equation, *operands)

让我们看一个简短的例子:

Python 复制代码
torch.einsum('ik, kj->ij', X, Y)

此处是矩阵乘法。 i i i和 j j j是所谓的自由索引,k是求和索引。后者可以定义为发生求和的索引。如果我们将矩阵乘法想象为嵌套循环, i i i 和 j j j 将是外部循环,k 循环将是求和循环:

转置:

Python 复制代码
import torch

X = torch.rand((4, 5))
Y = torch.rand((5, 2))
Z = torch.empty((4, 2))

for i in range(X.shape[0]):
    for j in range(Y.shape[1]):
        total = 0
        for k in range(X.shape[1]):
            total += X[i,k] * Y[k,j]
        Z[i,j] = total

其可能用于其他用途,但转置向量或矩阵似乎是最著名的用例。

求和:

Python 复制代码
import torch

X = torch.rand((2, 3))

a = torch.einsum('ij->', X)
torch.sum(X)

print(a) 

简单求和,我们不返回索引。输出是一个标量。或者,准确地说,是一个只有一个值的张量。

行和列求和:

Python 复制代码
import torch

X = torch.rand((2, 3))

a = torch.einsum('ij->i', X)
torch.sum(X, axis=1)

print(a)  

b = torch.einsum('ij->j', X)
torch.sum(X, axis=0)

print(b) 

逐元素乘法:

Python 复制代码
import torch

X = torch.rand((3, 2))
Y = torch.rand((3, 2))

A = torch.einsum('ij, ij->ij', X, Y)
torch.mul(X, Y)  # or X * Y

print(A)

点积:

Python 复制代码
import torch

v = torch.rand((3))
c = torch.rand((3))

a = torch.einsum('i, i->', v, c)
torch.dot(v, c)

print(a) 

外积:

Python 复制代码
import torch

v = torch.rand((3))
t = torch.rand((3))

A = torch.einsum('i, j->ij', v, t)
torch.outer(v, t)

print(A)

矩阵向量乘法

Python 复制代码
import torch

X = torch.rand((3, 3))
y = torch.rand((1, 3))

A = torch.einsum('ij, kj->ik', X, y)
torch.mm(X, torch.transpose(y, 0, 1))  # or torch.mm(X, y.T)

print(A)

矩阵矩阵乘法

Python 复制代码
import torch

X = torch.arange(6).reshape(2, 3)
Y = torch.arange(12).reshape(3, 4)

A = torch.einsum('ij, jk->ik', X, Y)
torch.mm(X, Y)

print(A)

批量矩阵乘法

Python 复制代码
import torch

X = torch.arange(24).reshape(2, 3, 4)
Y = torch.arange(40).reshape(2, 4, 5)

A = torch.einsum('ijk, ikl->ijl', X, Y)
torch.bmm(X, Y)

print(A)

👉参阅、更新:计算思维 | 亚图跨际

相关推荐
亚图跨际3 个月前
Python(TensorFlow)多模光纤光束算法和GPU并行模拟
波导·光学计算·空间光调制器·梅尔谱图·拉曼光束·非线性光学·多元推理
逐梦苍穹3 个月前
认识神经网络【多层感知器数学原理】
人工智能·深度学习·神经网络·多层感知器·数学原理
AmosTian1 年前
【AI】深度学习——前馈神经网络——全连接前馈神经网络
人工智能·深度学习·神经网络·机器学习·多层感知器