统计神经网络参数量、MAC、FLOPs等信息

0、基础提示

1、FLOPS是用来衡量硬件算力的指标,FLOPs用来衡量模型复杂度。

2、MAC 一般为 FLOPs的2倍

3、并非FLOPs越小在硬件上就一定运行更快,还与模型占用的内存,带宽,等有关

1、FLOPs计算

神经网络参数量。用于衡量模型大小。一般卷积计算方式为:
F L O P s = 2 ∗ H W ( K h ∗ K w ∗ C i n + 1 ) C o u t FLOPs = 2*HW(Kh*Kw*Cin+1)Cout FLOPs=2∗HW(Kh∗Kw∗Cin+1)Cout

其中,

H,W表示该层卷积的高和宽

Kh,Kw表示卷积核的高和宽

2 表示一次乘操作 + 一次加操作

+1 表示bias操作

2、统计工具-THOP

源代码链接

2.1 安装

python 复制代码
pip install thop

python 复制代码
pip install --upgrade git+https://github.com/Lyken17/pytorch-OpCounter.git

2.2 基础使用

python 复制代码
from torchvision.models import resnet50
from thop import profile
model = resnet50()
input = torch.randn(1, 3, 224, 224)
macs, params = profile(model, inputs=(input, ))

2.3 定义自己的规则

python 复制代码
class YourModule(nn.Module):
    # your definition
	def count_your_model(model, x, y):
	    # your rule here

input = torch.randn(1, 3, 224, 224)
macs, params = profile(model, inputs=(input, ), 
                        custom_ops={YourModule: count_your_model})

2.4 模型包含多个输入

修改input就好

python 复制代码
from torchvision.models import resnet50
from thop import profile
model = resnet50()
input1 = input2 = torch.randn(1, 3, 224, 224)
macs, params = profile(model, inputs=(input1, input2,))

3、 统计工具-torchstat

这个是我更中意的,因为他统计信息更加丰富,包含params,memory, Madd, FLOPs等。缺点在于已经不更新了,且不支持多输入,好在我们可以修改代码支持。
源代码链接

3.1 安装

python 复制代码
pip install torchstat

3.2 基础使用

python 复制代码
from torchstat import stat
import torchvision.models as models
model = models.resnet18()
stat(model, (3, 224, 224))

3.3 输入多个Input

将torchstat 库安装目录下的 torchstat/statistics.py 中按如下修改:

python 复制代码
class ModelStat(object):
	def __init__(self, model, input_size, query_granularity=1):
 		assert isinstance(model, nn.Module)
		# 删除输入长度为3的限制
		# assert isinstance(input_size, (tuple, list)) and len(input_size) == 3
		assert isinstance(input_size, (tuple, list))
		self._model = model
		self._input_size = input_size
		self._query_granularity = query_granularity

将torchstat 库安装目录下的 torchstat/model_hook.py 中按如下修改:

python 复制代码
class ModelHook(object):
	def __init__(self, model, input_size):
		assert isinstance(model, nn.Module)
		assert isinstance(input_size, (list, tuple))
		self._model = model
		# 原始是通过单个输入的尺寸,再构建输入tensor,我们可以修改为在网络外构建输入tensor后直接送入网络
		# self._input_size = input_size
		self._origin_call = dict() # sub module call hook
		self._hook_model()
		# x = torch.rand(1, *self._input_size) # add module duration time
		self._model.eval()
		# self._model(x)
		self._model(*self._input_size)

使用时候测试代码

python 复制代码
from torchstat import stat
import torchvision.models as models
model = models.resnet18()
input1, input2 = torch.rand(1, 3, 224, 224), torch.rand(1, 3, 224, 224)
stat(model, (input1, input2))

大致改动就是这样了,还有什么bug可以自己稍微修改一下哈。另外找修改地方可以看报错提示torchstat安装路径修改。

4、fvcore

stat有个很麻烦的问题是,他不支持transformer,因此包含transformer的网络可以使用fvcore,他是Facebook开源的一个轻量级的核心库。

4.1、 安装

python 复制代码
pip install fvcore

4.2、 基础使用

python 复制代码
from fvcore.nn import FlopCountAnalysis, parameter_count_table
# 创建网络
model = MobileViTBlock(in_channels=32, transformer_dim=64, ffn_dim=256)

# 创建输入网络的tensor
tensor = (torch.rand(1, 32, 64, 64),)

# 分析FLOPs
flops = FlopCountAnalysis(model, tensor)
print("FLOPs: ", flops.total())

# 分析parameters
print(parameter_count_table(model))

参考来自:https://zhuanlan.zhihu.com/p/583106030

欢迎交流补充

相关推荐
桂花饼14 小时前
告别天价API!刚刚,Gemini 3.1 Flash-Lite 彻底杀死了大模型的“性价比之战”
人工智能·gpt·qwen3-next·sora2pro·gemini-3.1pro
Elastic 中国社区官方博客14 小时前
使用 TypeScript 创建 Elasticsearch MCP 服务器
大数据·服务器·数据库·人工智能·elasticsearch·搜索引擎·全文检索
Meya112714 小时前
告别机房 U 位管理内耗!这套系统让运维效率直接拉满 ✨
大数据·运维·人工智能
AC赳赳老秦14 小时前
OpenClaw SEO写手Agent实操:生成结构化文章,适配CSDN搜索规则
大数据·人工智能·python·搜索引擎·去中心化·deepseek·openclaw
禄亿萋14 小时前
基于多维协同注意力和特征融合的小目标检测方法
人工智能·目标检测·计算机视觉
放下华子我只抽RuiKe514 小时前
深度学习 - 01 - NLP自然语言处理基础
前端·人工智能·深度学习·神经网络·自然语言处理·矩阵·easyui
华农DrLai14 小时前
知识工程和知识图谱有什么区别?如何构建完整的知识体系?
数据库·人工智能·gpt·nlp·prompt·知识图谱
xufengzhu14 小时前
Claude Code Hooks 报错异常处理:解决 Windows 环境下的 jq 命令缺失问题
人工智能·windows·claude code
AI-Ming14 小时前
程序员转行学习 AI 大模型: 模型微调| 附清晰概念分类
人工智能·pytorch·深度学习·机器学习·chatgpt·nlp·gpt-3
洛阳吕工14 小时前
AI 工程师学习路径详解:从入门到实践
人工智能·学习