深度学习:(四)python中的广播

广播

在python中,广播可以简化为"自动扩展匹配"

注意:python中的矩阵运算,都是对应位置的元素之间的运算,即"点运算"。

在神经网络中,主要会用到的两种情况:

  • 向量与常数:

    n n n 维行向量( 1 × n 1×n 1×n 矩阵)和常数进行运算,python 会自动将该常数复制填充成 1 × n 1×n 1×n 矩阵( n n n 维列向量同理,就不写例子了)。
    [ 1 2 3 ] + 100 → [ 1 2 3 ] + [ 100 100 100 ] = [ 101 102 103 ] \left[ \begin{matrix} 1\\ 2\\ 3\\ \end{matrix} \right]+100→\left[ \begin{matrix} 1\\ 2\\ 3\\ \end{matrix} \right]+\left[ \begin{matrix} 100\\ 100\\ 100\\ \end{matrix} \right]=\left[ \begin{matrix} 101\\ 102\\ 103\\ \end{matrix} \right] 123 +100→ 123 + 100100100 = 101102103

  • 向量与矩阵:

    m × n m×n m×n 矩阵和 n n n 维行向量( 1 × n 1×n 1×n 矩阵)进行运算。python 会自动将该 1 × n 1×n 1×n 矩阵复制填充成 m × n m×n m×n 矩阵( m m m 维列向量同理)。

    举例:
    [ 1 2 3 4 5 6 ] + [ 100 200 300 ] → [ 1 2 3 4 5 6 ] + [ 100 200 300 100 200 300 ] = [ 101 202 303 104 205 306 ] \left[ \begin{matrix} 1 & 2 & 3\\ 4 & 5 & 6 \\ \end{matrix} \right]+\left[ \begin{matrix} 100 & 200 & 300\\ \end{matrix} \right]→\left[ \begin{matrix} 1 & 2 & 3\\ 4 & 5 & 6 \\ \end{matrix} \right]+\left[ \begin{matrix} 100 & 200 & 300\\ 100 & 200 & 300\\ \end{matrix} \right]=\left[ \begin{matrix} 101 & 202 & 303\\ 104 & 205 & 306\\ \end{matrix} \right] [142536]+[100200300]→[142536]+[100100200200300300]=[101104202205303306]

    [ 1 2 3 4 5 6 ] + [ 100 200 ] → [ 1 2 3 4 5 6 ] + [ 100 100 100 200 200 200 ] = [ 101 102 103 204 205 206 ] \left[ \begin{matrix} 1 & 2 & 3\\ 4 & 5 & 6 \\ \end{matrix} \right]+\left[ \begin{matrix} 100\\ 200\\ \end{matrix} \right]→\left[ \begin{matrix} 1 & 2 & 3\\ 4 & 5 & 6 \\ \end{matrix} \right]+\left[ \begin{matrix} 100 & 100 & 100\\ 200 & 200 & 200\\ \end{matrix} \right]=\left[ \begin{matrix} 101 & 102 & 103\\ 204 & 205 & 206\\ \end{matrix} \right] [142536]+[100200]→[142536]+[100200100200100200]=[101204102205103206]

☆以上两种情况,两个矩阵的行和列必须要有一个维度相同。

实例

python 复制代码
import numpy as np
# 定义矩阵A
A = np.array([[56.0,0.0,4.4,68.0]
			  [1.2,104.0,52.0,8.0],
			  [1.8,135.0,99.0,0.9]])
# 沿着矩阵A的纵轴求和
cal = A.sum(axis=0) # axis=1就是沿着横轴求和
print(cal)
# 进行矩阵广播运算
percentage = 100*A/cal.reshape(1,4)
print(percentage)

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
# 输出结果为:
[59  239  155.4  76.9]

[[94.91525424  0.            2.83140283  88.42652796]
 [ 2.03389831  43.51464435  33.46203346  10.40312094]
 [ 3.05084746  56.48535565  63.70656371   1.17035111]]

代码编写技巧

  • 在创建数组时,数组的维度要交代清楚,行数和列数都要给出:

    • 正确的:

      python 复制代码
      a = np.random.randn(5,1)  
      # 使用numpy的random模块中的randn函数生成一个5行1列的数组,  
      # 该数组中的元素是从标准正态分布(均值为0,标准差为1的正态分布)中随机抽取的。 
      # 输出结果为五行一列的数组
    • 错误的:

      python 复制代码
      a = np.random.randn(5)  
      # 目的和上边代码块一样
      # 但是没有指代清楚行数和列数,导致输出结果为一个秩为1的数组,既不是行向量,也不是列向量
  • 常用附加代码:

    python 复制代码
    assert a.shape == (5,1)    # 或者
    assert(a.shape == (5,1))   # 或者
    assert[a.shape == (5,1)]   # 在pycharm中通常使用这一个
    
    # 这是一个断言语句,用于确保变量a的shape属性(即a的维度)等于(5,1)。
    # 如果断言的条件为假(即表达式的结果为False),则会引发一个AssertionError异常。
    python 复制代码
    a = a.reshape((5,1))
    # 将变量a转换成五行一列的数组。
相关推荐
hummhumm21 分钟前
第 25 章 - Golang 项目结构
java·开发语言·前端·后端·python·elasticsearch·golang
deephub22 分钟前
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
人工智能·深度学习·transformer·大语言模型·注意力机制
杜小满25 分钟前
周志华深度森林deep forest(deep-forest)最新可安装教程,仅需在pycharm中完成,超简单安装教程
python·随机森林·pycharm·集成学习
搏博34 分钟前
神经网络问题之二:梯度爆炸(Gradient Explosion)
人工智能·深度学习·神经网络
KGback39 分钟前
【论文解析】HAQ: Hardware-Aware Automated Quantization With Mixed Precision
人工智能
电子手信1 小时前
知识中台在多语言客户中的应用
大数据·人工智能·自然语言处理·数据挖掘·知识图谱
不高明的骗子1 小时前
【深度学习之一】2024最新pytorch+cuda+cudnn下载安装搭建开发环境
人工智能·pytorch·深度学习·cuda
Chef_Chen1 小时前
从0开始学习机器学习--Day33--机器学习阶段总结
人工智能·学习·机器学习
搏博1 小时前
神经网络问题之:梯度不稳定
人工智能·深度学习·神经网络
Sxiaocai1 小时前
使用 PyTorch 实现并训练 VGGNet 用于 MNIST 分类
pytorch·深度学习·分类