【PyTorch单点知识】神经元网络模型剪枝prune模块介绍(下,结构化剪枝)

文章目录

      • [0. 前言](#0. 前言)
      • [1. 结构化剪枝 vs 非结构化剪枝](#1. 结构化剪枝 vs 非结构化剪枝)
        • [1.1 非结构化剪枝的特征](#1.1 非结构化剪枝的特征)
        • [1.2 结构化剪枝](#1.2 结构化剪枝)
        • [1.3 结构化剪枝的好处:](#1.3 结构化剪枝的好处:)
      • [2. `torch.nn.utils.prune`中的结构化剪枝方法](#2. torch.nn.utils.prune中的结构化剪枝方法)
      • [3. PyTorch实例](#3. PyTorch实例)
        • [3.1 `random_structured`](#3.1 random_structured)
        • [3.2 `prune.ln_structured`](#3.2 prune.ln_structured)
      • [4. 总结](#4. 总结)

0. 前言

按照国际惯例,首先声明:本文只是我自己学习的理解,虽然参考了他人的宝贵见解及成果,但是内容可能存在不准确的地方。如果发现文中错误,希望批评指正,共同进步。

在前文:【PyTorch单点知识】神经元网络模型剪枝prune模块介绍(上,非结构化剪枝)中介绍了PyTorch中的prune模型剪枝模块中的非结构化剪枝。本文将通过实例说明utils.prune中的结构化剪枝方法。

1. 结构化剪枝 vs 非结构化剪枝

1.1 非结构化剪枝的特征

非结构化剪枝是指在神经网络的权重矩阵中随机地移除一些权重,而不考虑这些权重在矩阵中的位置或它们是否构成某种结构(如一个完整的通道或过滤器)。这种剪枝方式通常会导致权重矩阵变得非常稀疏,但同时也破坏了权重的原有结构,这可能会对模型的并行计算效率产生负面影响,因为现代硬件(如GPU)在处理密集矩阵时更有效率。

1.2 结构化剪枝

相比之下,结构化剪枝则是在保持(部分)网络层的结构完整性的同时进行剪枝,即它会移除整个的神经元、通道、过滤器或其他结构单元,而不是某个完整结构中的单个权重。例如,在卷积层中,结构化剪枝可能涉及移除整个过滤器或输入/输出通道,而在全连接层中,则可能移除整行或整列的权重。

1.3 结构化剪枝的好处:
  1. **硬件友好性:**由于结构化剪枝保持了权重矩阵的结构,因此它更易于在现代硬件上实现高效的并行计算,不会像非结构化剪枝那样引入大量零元素,导致计算效率下降。
  2. **加速推理:**结构化剪枝通过移除整个的结构单元,可以直接减少模型的计算量和内存占用,从而显著加速推理过程。
  3. **易于部署:**结构化剪枝后的模型仍然保持原有的结构,这使得模型更容易被优化过的推理引擎(如TensorRT)所支持,便于在边缘设备或移动设备上部署。
  4. **更好的可解释性:**移除某些结构单元有时可以帮助理解哪些特征或信息对于模型的决策是不重要的,从而提高了模型的可解释性。

2. torch.nn.utils.prune中的结构化剪枝方法

本文将介绍2种结构化剪枝方法:

  • prune.random_structured: 随机结构化剪枝,按照给定维度移除随机通道。
  • prune.ln_structured: Ln范数结构化剪枝,沿着给定维度移除具有最低n范数的通道。

3. PyTorch实例

首先建立一个简单的模型:

python 复制代码
import torch
import torch.nn as nn
from torch.nn.utils import prune

torch.manual_seed(888)
class SimpleModel(nn.Module):
    def __init__(self):
        super(SimpleModel, self).__init__()
        # 创建一个简单的卷积层
        self.conv = nn.Conv2d(in_channels=1, out_channels=3, kernel_size=3)

model = SimpleModel()

通过print(model.conv.weight)可以打印出权重为:

python 复制代码
Parameter containing:
tensor([[[[-0.3017,  0.1290, -0.2468],
          [ 0.2107,  0.1799,  0.1923],
          [ 0.1887, -0.0527,  0.1403]]],


        [[[ 0.0799,  0.1399, -0.0084],
          [ 0.2013, -0.0352, -0.1027],
          [-0.1724, -0.3094, -0.2382]]],


        [[[ 0.0419,  0.2224, -0.1558],
          [ 0.2084,  0.0543,  0.0647],
          [ 0.1493,  0.2011,  0.0310]]]], requires_grad=True)
3.1 random_structured

这个方法会在指定维度dim(默认为-1)上剪枝一个随机通道:

python 复制代码
prune.random_structured(model.conv, name="weight", amount=0.33)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.0000],
          [ 0.2107,  0.1799,  0.0000],
          [ 0.1887, -0.0527,  0.0000]]],


        [[[ 0.0799,  0.1399, -0.0000],
          [ 0.2013, -0.0352, -0.0000],
          [-0.1724, -0.3094, -0.0000]]],


        [[[ 0.0419,  0.2224, -0.0000],
          [ 0.2084,  0.0543,  0.0000],
          [ 0.1493,  0.2011,  0.0000]]]], grad_fn=<MulBackward0>)

由于权重的维度为[3, 1, 3, 3],我们也可以试试在其他维度(dim=0dim=2)上进行剪枝:

  • dim=0
python 复制代码
prune.random_structured(model.conv, name="weight", amount=0.33,dim=0)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.2468],
          [ 0.2107,  0.1799,  0.1923],
          [ 0.1887, -0.0527,  0.1403]]],


        [[[ 0.0799,  0.1399, -0.0084],
          [ 0.2013, -0.0352, -0.1027],
          [-0.1724, -0.3094, -0.2382]]],


        [[[ 0.0000,  0.0000, -0.0000],
          [ 0.0000,  0.0000,  0.0000],
          [ 0.0000,  0.0000,  0.0000]]]], grad_fn=<MulBackward0>)
  • dim=2
python 复制代码
prune.random_structured(model.conv, name="weight", amount=0.33,dim=2)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.2468],
          [ 0.2107,  0.1799,  0.1923],
          [ 0.0000, -0.0000,  0.0000]]],


        [[[ 0.0799,  0.1399, -0.0084],
          [ 0.2013, -0.0352, -0.1027],
          [-0.0000, -0.0000, -0.0000]]],


        [[[ 0.0419,  0.2224, -0.1558],
          [ 0.2084,  0.0543,  0.0647],
          [ 0.0000,  0.0000,  0.0000]]]], grad_fn=<MulBackward0>)
3.2 prune.ln_structured

这个方法会在指定维度dim(默认为-1)上按最小n范数剪枝一个通道:

python 复制代码
prune.ln_structured(model.conv, name="weight",amount=0.33,n=1,dim=-1)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.0000],
          [ 0.2107,  0.1799,  0.0000],
          [ 0.1887, -0.0527,  0.0000]]],


        [[[ 0.0799,  0.1399, -0.0000],
          [ 0.2013, -0.0352, -0.0000],
          [-0.1724, -0.3094, -0.0000]]],


        [[[ 0.0419,  0.2224, -0.0000],
          [ 0.2084,  0.0543,  0.0000],
          [ 0.1493,  0.2011,  0.0000]]]], grad_fn=<MulBackward0>)

更改dim也是同样的效果:

  • dim=0
python 复制代码
prune.ln_structured(model.conv, name="weight",amount=0.33,n=1,dim=0)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.2468],
          [ 0.2107,  0.1799,  0.1923],
          [ 0.1887, -0.0527,  0.1403]]],


        [[[ 0.0799,  0.1399, -0.0084],
          [ 0.2013, -0.0352, -0.1027],
          [-0.1724, -0.3094, -0.2382]]],


        [[[ 0.0000,  0.0000, -0.0000],
          [ 0.0000,  0.0000,  0.0000],
          [ 0.0000,  0.0000,  0.0000]]]], grad_fn=<MulBackward0>)
  • dim=2
python 复制代码
prune.ln_structured(model.conv, name="weight",amount=0.33,n=1,dim=2)
print(model.conv.weight)

输出为:

python 复制代码
tensor([[[[-0.3017,  0.1290, -0.2468],
          [ 0.0000,  0.0000,  0.0000],
          [ 0.1887, -0.0527,  0.1403]]],


        [[[ 0.0799,  0.1399, -0.0084],
          [ 0.0000, -0.0000, -0.0000],
          [-0.1724, -0.3094, -0.2382]]],


        [[[ 0.0419,  0.2224, -0.1558],
          [ 0.0000,  0.0000,  0.0000],
          [ 0.1493,  0.2011,  0.0310]]]], grad_fn=<MulBackward0>)

4. 总结

至此,prune中的非结构化剪枝和结构化剪枝介绍完毕!

相关推荐
夏沫の梦9 分钟前
常见LLM大模型概览与详解
人工智能·深度学习·chatgpt·llama
平头哥在等你12 分钟前
python特殊字符序列
开发语言·python·正则表达式
明明真系叻1 小时前
第二十二周机器学习笔记:动手深度学习之——线性代数
笔记·深度学习·线性代数·机器学习·1024程序员节
星光樱梦1 小时前
02. Python基础知识
python
亚图跨际1 小时前
MATLAB和C++及Python流式细胞术
c++·python·matlab·流式细胞术
steamedobun1 小时前
【爬虫】Firecrawl对京东热卖网信息爬取(仅供学习)
爬虫·python
右恩1 小时前
Docker 实践与应用举例
python·docker
凤枭香1 小时前
Python Scikit-learn简介(二)
开发语言·python·机器学习·scikit-learn
HPC_fac130520678163 小时前
科研深度学习:如何精选GPU以优化服务器性能
服务器·人工智能·深度学习·神经网络·机器学习·数据挖掘·gpu算力
猎嘤一号4 小时前
个人笔记本安装CUDA并配合Pytorch使用NVIDIA GPU训练神经网络的计算以及CPUvsGPU计算时间的测试代码
人工智能·pytorch·神经网络