模型压缩——基于粒度剪枝

1.引言

模型剪枝本质上是一种利用稀疏性来减少模型大小和计算量,从而提高训练和推理效率的技术。它为何会有效呢?

理论依据:有研究发现,在许多深度神经网络中,大部分参数是接近于0的,这些参数对模型最终的性能贡献较小。这也就意味着,识别并移除那些对模型性能影响较小的参数,可以减少模型的复杂度和计算成本,并且不会影响到模型的准确性。

根据粒度不同,剪枝可以有不同的方法,并且不同的模型由于内部结构不同剪枝方法也有所区别。就像卷积神经网络中可以对卷积核剪枝和通道进行剪枝,而transformer模型中则可以针对不活跃的自注意力头进行剪枝。

但是,不论哪种模型,以下三种粒度的剪枝是都适用的:

  • 权重级剪枝
  • 基于模式剪枝
  • 向量级剪枝

本文将以一个二维矩阵为例,来分别介绍这三种基本粒度的剪枝,为了方便观察,我们先来讨论下矩阵的可视化。

2.矩阵可视化

python 复制代码
首先,用随机数创建一个二维权重矩阵。
python 复制代码
import torch 
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D

weight = torch.rand(8, 8)

封装一个可视化函数来直观的显示二维权重矩阵。

注:为了后面剪枝的可视化需要,我们会在显示时将0值元素与其它元素区分开。

python 复制代码
def plot_tensor(tensor, title):
    fig, ax = plt.subplots()
    # 将矩阵转换为0和非0两个类别,并设置两个类别的颜色映射为tab20c
    ax.imshow(tensor.cpu().numpy() == 0, vmin=0, vmax=1, cmap='tab20c')
    ax.set_title(title)
    ax.set_yticklabels([])
    ax.set_xticklabels([])

    # 遍历矩阵为每个文本元素添加文本标签
    rows, cols = tensor.shape
    for i in range(rows):
        for j in range(cols):
            ax.text(i, j, f"{tensor[j, i].item():.2f}", ha='center', va='center', color='k')

    plt.show()

plot_tensor(weight, "weight")

3.权重级剪枝

权重级剪枝又称为细粒度剪枝,以单个权重为剪枝单位,在具体操作时,一般会定义一个规则来决定移除哪些值。

在下面这个方法中,会通过目标张量与掩码相乘的方式,将小于threshold阀值的权重都置为0。

python 复制代码
def weight_level_pruning(tensor, threshold: float) -> torch.Tensor:
    mask = torch.ge(tensor, threshold)
    return tensor.mul(mask)

注1:torch.ge函数的作用是对张量中的每个权重值与给定阀值threshold进行逐元素比较,大于阀值的会置为True,反之则置为False,函数运算结果是一个0(False)和1(True)组成的掩码。
注2:mul 用于对张量进行按元素乘法,要求两个矩阵的形状完全相同(请与矩阵乘法运算符@区分开)。

以threshold=0.2为例进行剪枝,剪枝后的结果如下所示。

python 复制代码
pruned_weight = weight_level_pruning(weight, 0.2)
plot_tensor(pruned_weight, "pruned_weight")

权重级剪枝不关心权重在网络中的位置,灵活度最高,可实现高压缩比。但是,它破坏了原有模型的结构,现有硬件架构的计算方式通常无法对它进行加速,需要特殊的硬件或软件才能利用剪枝后模型的稀疏性,所以在目前通用的硬件上运行时速度并不能得到提升。

4.基于模式剪枝

基于模式剪枝通常是基于非常规则的N:M稀疏性进行剪枝,它要求在M个连续权重中固定有N个非零值,而其余元素均置为0。

下面我们将以2:4稀疏性为例子,一步一步说明如何实现N:M稀疏性。

4.1 稀疏模式计算

首先,创建一个长度为 4 的一维张量 sequence 并初始化为 0,表示总共有4个元素。

python 复制代码
sequence = torch.zeros(4)
sequence
tensor([0., 0., 0., 0.])

对张量 patterns 的前 2 个元素设置为 1,表示4个元素中固定有2个非零值。

python 复制代码
sequence[:2] = 1
sequence
tensor([1., 1., 0., 0.])

permutations函数生成patterns列表的所有可能排列,并用set去重。

python 复制代码
from itertools import permutations
patterns = set(permutations(sequence.tolist()))
list(patterns)
    [(0.0, 1.0, 0.0, 1.0),
     (1.0, 1.0, 0.0, 0.0),
     (0.0, 1.0, 1.0, 0.0),
     (1.0, 0.0, 1.0, 0.0),
     (1.0, 0.0, 0.0, 1.0),
     (0.0, 0.0, 1.0, 1.0)]

这个patterns中包含了长度为4恰好有两个1的所有可能排列模式。

为了方便复数,将上面的计算过程封装成一个函数。

python 复制代码
def compute_valid_1d_patterns(m, n):
    patterns = torch.zeros(m)
    patterns[:n] = 1
    # permutations: 用于生成给定序列的所有可能排列
    valid_patterns = torch.Tensor(list(set(permutations(patterns.tolist()))))
    return valid_patterns

patterns = compute_valid_1d_patterns(4,2)
patterns
    tensor([[0., 1., 0., 1.],
            [1., 1., 0., 0.],
            [0., 1., 1., 0.],
            [1., 0., 1., 0.],
            [1., 0., 0., 1.],
            [0., 0., 1., 1.]])
4.2 生成掩码

计算掩码的目的是为了找到每个权重分组(每M个连续权重为一组)的最佳稀疏模式。

首先,生成一个初始掩码,它与权重矩阵的形状相同,并用 1 填充。然后将其视图更改为形状 (-1, 4),以便我们可以处理每 4 个权重一组。

python 复制代码
tensor = weight
mask = torch.IntTensor(tensor.shape).fill_(1).view(-1, 4)  
mask
    tensor([[1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1],
            [1, 1, 1, 1]], dtype=torch.int32)

重塑权重矩阵,使其形状与掩码一致。

python 复制代码
mat = tensor.view(-1, 4)
mat
    tensor([[0.6689, 0.4118, 0.9726, 0.9845],
            [0.8126, 0.4900, 0.8162, 0.0835],
            [0.5984, 0.1732, 0.7412, 0.2995],
            [0.7361, 0.1535, 0.9121, 0.1895],
            [0.8570, 0.1778, 0.1318, 0.5525],
            [0.0492, 0.5464, 0.4381, 0.2630],
            [0.9935, 0.0955, 0.6935, 0.7049],
            [0.1594, 0.5785, 0.9095, 0.8378],
            [0.0899, 0.0569, 0.7214, 0.3372],
            [0.3512, 0.9062, 0.0120, 0.7077],
            [0.1819, 0.6778, 0.7691, 0.5124],
            [0.3399, 0.4008, 0.2745, 0.2768],
            [0.9185, 0.1250, 0.9466, 0.5318],
            [0.9118, 0.1470, 0.6657, 0.6492],
            [0.1116, 0.8223, 0.7062, 0.2872],
            [0.1826, 0.4946, 0.5415, 0.8882]])
python 复制代码
对于每一行权重,我们计算其绝对值与所有稀疏模式的点积,得到每一行权重在每一种稀疏模式下的加权和。
python 复制代码
mat_patterns = torch.matmul(mat.abs(), patterns.t())
mat_patterns
    tensor([[1.3963, 1.0807, 1.3844, 1.6415, 1.6534, 1.9571],
            [0.5735, 1.3027, 1.3062, 1.6288, 0.8961, 0.8997],
            [0.4727, 0.7716, 0.9144, 1.3396, 0.8979, 1.0406],
            [0.3429, 0.8896, 1.0656, 1.6481, 0.9255, 1.1015],
            [0.7304, 1.0348, 0.3096, 0.9888, 1.4095, 0.6843],
            [0.8095, 0.5956, 0.9845, 0.4873, 0.3122, 0.7012],
            [0.8005, 1.0890, 0.7891, 1.6870, 1.6984, 1.3985],
            [1.4162, 0.7379, 1.4880, 1.0689, 0.9972, 1.7473],
            [0.3941, 0.1468, 0.7783, 0.8113, 0.4271, 1.0585],
            [1.6139, 1.2574, 0.9183, 0.3632, 1.0589, 0.7197],
            [1.1902, 0.8597, 1.4469, 0.9510, 0.6943, 1.2815],
            [0.6776, 0.7407, 0.6752, 0.6144, 0.6167, 0.5513],
            [0.6569, 1.0435, 1.0717, 1.8651, 1.4503, 1.4785],
            [0.7962, 1.0587, 0.8126, 1.5774, 1.5610, 1.3149],
            [1.1095, 0.9339, 1.5285, 0.8177, 0.3988, 0.9934],
            [1.3828, 0.6772, 1.0361, 0.7240, 1.0708, 1.4296]])

我们只需要保留加权和最大的模式即可,为每一行权重选择加权和最大的模式索引:

python 复制代码
pmax = torch.argmax(mat_patterns, dim=1)
pmax
    tensor([5, 3, 3, 3, 4, 2, 4, 5, 5, 0, 2, 1, 3, 3, 2, 5])

使用 pmax 索引从稀疏模式中为每一行权重选择相应的模式,然后将其赋值给掩码:

python 复制代码
mask[:] = patterns[pmax[:]]
mask
    tensor([[0, 0, 1, 1],
            [1, 0, 1, 0],
            [1, 0, 1, 0],
            [1, 0, 1, 0],
            [1, 0, 0, 1],
            [0, 1, 1, 0],
            [1, 0, 0, 1],
            [0, 0, 1, 1],
            [0, 0, 1, 1],
            [0, 1, 0, 1],
            [0, 1, 1, 0],
            [1, 1, 0, 0],
            [1, 0, 1, 0],
            [1, 0, 1, 0],
            [0, 1, 1, 0],
            [0, 0, 1, 1]], dtype=torch.int32)

最后,将掩码视图重塑回原始权重的形状。

python 复制代码
mask = mask.view(tensor.shape)
mask
    tensor([[0, 0, 1, 1, 1, 0, 1, 0],
            [1, 0, 1, 0, 1, 0, 1, 0],
            [1, 0, 0, 1, 0, 1, 1, 0],
            [1, 0, 0, 1, 0, 0, 1, 1],
            [0, 0, 1, 1, 0, 1, 0, 1],
            [0, 1, 1, 0, 1, 1, 0, 0],
            [1, 0, 1, 0, 1, 0, 1, 0],
            [0, 1, 1, 0, 0, 0, 1, 1]], dtype=torch.int32)

同样,将上面计算掩码的过程封装为一个函数。

python 复制代码
def compute_mask(tensor, m, n):
    # 计算所有可能的模式
    patterns = compute_valid_1d_patterns(m,n)   # m中取n所有可能的模式,N行4列
    # 生成初始掩码
    mask = torch.IntTensor(tensor.shape).fill_(1).view(-1,m)  
    
    # 将张量转换成列为m的格式,若不能整除m则填充0
    if tensor.shape[1] % m > 0:
        mat = torch.FloatTensor(tensor.shape[0], tensor.shape[1] + (m - tensor.shape[1] % m)).fill_(0)
        mat[:, : tensor.shape[1]] = tensor
        mat = mat.view(-1, m)
    else:
        mat = tensor.view(-1, m)  
    
    pmax = torch.argmax(torch.matmul(mat.abs(), patterns.t()), dim=1)  # 16行N列,每一行的点积操作都得到N种可能,取点积最大值的元素下标
    mask[:] = patterns[pmax[:]]  # 找到最大下标对应的排列
    mask = mask.view(tensor.shape) # 再转换成tensor的形状
    return mask

mask = compute_mask(weight, 4, 2)
mask
    tensor([[0, 0, 1, 1, 1, 0, 1, 0],
            [1, 0, 1, 0, 1, 0, 1, 0],
            [1, 0, 0, 1, 0, 1, 1, 0],
            [1, 0, 0, 1, 0, 0, 1, 1],
            [0, 0, 1, 1, 0, 1, 0, 1],
            [0, 1, 1, 0, 1, 1, 0, 0],
            [1, 0, 1, 0, 1, 0, 1, 0],
            [0, 1, 1, 0, 0, 0, 1, 1]], dtype=torch.int32)
4.3 用掩码剪枝
python 复制代码
pruned_pattern = tensor.mul(mask)
plot_tensor(pruned_pattern, "pruned_pattern")

可以看到,2:4稀疏性将一半权重都置为了0,每4个权重中保留了两个非0权重,我们成功地在权重矩阵上应用了 2:4 稀疏性。

虽然都属于非结构化索引,但与前面基于权重的索引不同的是,2:4结构的稀疏性可以被英伟达的稀疏张量核心加速。在运算时,稀疏矩阵W首先会被压缩,压缩后的矩阵存储着非零的数据值,而metadata则存储着对应非零元素在原矩阵W中的索引信息。

具体来说,metadata会将W中非零元素的行号和列号压缩成两个独立的一维数组,这两个数组就是metadata中存储的索引信息。

注:N:M 稀疏性是一种有效的稀疏技术,这种稀疏模式不仅减少了模型大小,还提高了计算效率,特别适用于硬件加速器,如 GPU 和 TPU,从而加速深度学习模型的训练和推理过程。

5.向量级剪枝

向量级剪枝以行或列为单位对权重进行裁剪。

python 复制代码
def vector_pruning(tensor, point):
    rows, cols = point
    prune_weight = tensor.clone()
    prune_weight[rows, :] = 0
    prune_weight[:, cols] = 0
    return prune_weight

point = (2,3)
pruned_vector = vector_pruning(weight, point)
plot_tensor(pruned_vector, "pruned_vector")

经过上面的向量级剪枝后,可以直接去掉一行一列,整个权重矩阵的形状可以直接由[8,8]变为[7,7], 因此向量级剪枝属于结构化剪枝。

通常在进行向量级别的剪枝时,需要对模型的所有层统一进行剪枝,其目的是在整个模型中保持一致的稀疏结构,以确保上下游各层中结构和计算的一致性。因此,这种方法被称为"全局剪枝"或"统一剪枝"。

小结:本文主要介绍了权重级剪枝、基于模式剪枝和向量级剪枝三种不同粒度的剪枝方法,并结合可视化的方式,一步一步详细演示了每种剪枝方法的运算过程,和剪枝前后权重矩阵的变化。在实际场景中,基于模式的剪枝越来越受到青睐,因为其规则的稀疏模式可以充分利用硬件加速器的计算能力,从而显著提高计算效率。

参考阅读

相关推荐
看星猩的柴狗几秒前
机器学习-正则化技术
人工智能·机器学习
程序员非鱼几秒前
深度学习任务简介:分类、回归和生成
人工智能·深度学习·分类·回归·生成
dwjf3213 分钟前
机器学习(二)-简单线性回归
人工智能·机器学习·线性回归
AI_Mind4 分钟前
Gemini 2.0:面向智能体时代的全新 AI 模型
人工智能·搜索引擎
γ..22 分钟前
基于MATLAB的图像增强
开发语言·深度学习·神经网络·学习·机器学习·matlab·音视频
落魄君子1 小时前
SVM分类-支持向量机(Support Vector Machine)
神经网络·算法·支持向量机·分类
i查拉图斯特拉如是1 小时前
基于MindSpore NLP的PEFT微调
人工智能·自然语言处理
mahuifa1 小时前
QtCreator配置github copilot实现AI辅助编程
人工智能·ai编程·github copilot·qtcreator
千穹凌帝1 小时前
基于深度学习多图像融合的屏幕缺陷检测方案
人工智能·深度学习·数码相机
上理考研周导师2 小时前
【单片机原理】第1章 微机基础知识,运算器,控制器,寄存器,微机工作过程,数制转换
算法