基于轻量级GhostNet模型开发构建生活场景下生活垃圾图像识别系统

轻量级识别模型在我们前面的博文中已经有过很多实践了,感兴趣的话可以自行移步阅读:

《移动端轻量级模型开发谁更胜一筹,efficientnet、mobilenetv2、mobilenetv3、ghostnet、mnasnet、shufflenetv2驾驶危险行为识别模型对比开发测试》

《基于Pytorch框架的轻量级卷积神经网络垃圾分类识别系统》

《基于轻量级卷积神经网络模型实践Fruits360果蔬识别------自主构建CNN模型、轻量化改造设计lenet、alexnet、vgg16、vgg19和mobilenet共六种CNN模型实验对比分析》

《探索轻量级模型性能上限,基于GhostNet模型开发构建多商品细粒度图像识别系统》

《基于轻量级神经网络GhostNet开发构建的200种鸟类细粒度识别分析系统》

《基于MobileNet的轻量级卷积神经网络实现玉米螟虫不同阶段识别分析》

《基于轻量级模型GHoshNet开发构建眼球眼疾识别分析系统,构建全方位多层次参数对比分析实验》

《python基于轻量级卷积神经网络模型ShuffleNetv2开发构建辣椒病虫害图像识别系统》

《基于轻量级神经网络GhostNet开发构建光伏太阳能电池缺陷图像识别分析系统》

《python开发构建轻量级卷积神经网络模型实现手写甲骨文识别系统》

《基于轻量级GhostNet模型开发构建工业生产制造场景下滚珠丝杠传动表面缺陷图像识别系统》

本文的核心思想是像基于GhostNet来开发构建生活场景下的生活垃圾图像识别系统,首先看下实例效果:

GhostNet 是一种轻量级卷积神经网络,是专门为移动设备上的应用而设计的。其主要构件是 Ghost 模块,一种新颖的即插即用模块。Ghost 模块设计的初衷是使用更少的参数来生成更多特征图 (generate more features by using fewer parameters)。

官方论文地址在这里,如下所示:

官方也开源了项目,地址在这里,如下所示:

可以详细阅读官方的代码实例即可,之后可以基于自己的数据集来开发构建模型即可。

这里给出GhostNet的核心实现部分,如下所示:

python 复制代码
class GhostNet(nn.Module):
    def __init__(self, cfgs, num_classes=1000, width_mult=1.0):
        super(GhostNet, self).__init__()
        self.cfgs = cfgs
        output_channel = _make_divisible(16 * width_mult, 4)
        layers = [
            nn.Sequential(
                nn.Conv2d(3, output_channel, 3, 2, 1, bias=False),
                nn.BatchNorm2d(output_channel),
                nn.ReLU(inplace=True),
            )
        ]
        input_channel = output_channel
        block = GhostBottleneck
        for k, exp_size, c, use_se, s in self.cfgs:
            output_channel = _make_divisible(c * width_mult, 4)
            hidden_channel = _make_divisible(exp_size * width_mult, 4)
            layers.append(
                block(input_channel, hidden_channel, output_channel, k, s, use_se)
            )
            input_channel = output_channel
        self.features = nn.Sequential(*layers)
        output_channel = _make_divisible(exp_size * width_mult, 4)
        self.squeeze = nn.Sequential(
            nn.Conv2d(input_channel, output_channel, 1, 1, 0, bias=False),
            nn.BatchNorm2d(output_channel),
            nn.ReLU(inplace=True),
            nn.AdaptiveAvgPool2d((1, 1)),
        )
        input_channel = output_channel
        output_channel = 1280
        self.classifier = nn.Sequential(
            nn.Linear(input_channel, output_channel, bias=False),
            nn.BatchNorm1d(output_channel),
            nn.ReLU(inplace=True),
            nn.Dropout(0.2),
            nn.Linear(output_channel, num_classes),
        )
        self._initialize_weights()
 
    def forward(self, x, need_fea=False):
        if need_fea:
            features, features_fc = self.forward_features(x, need_fea)
            x = self.classifier(features_fc)
            return features, features_fc, x
        else:
            x = self.forward_features(x)
            x = self.classifier(x)
            return x
 
    def forward_features(self, x, need_fea=False):
        if need_fea:
            input_size = x.size(2)
            scale = [4, 8, 16, 32]
            features = [None, None, None, None]
            for idx, layer in enumerate(self.features):
                x = layer(x)
                if input_size // x.size(2) in scale:
                    features[scale.index(input_size // x.size(2))] = x
            x = self.squeeze(x)
            return features, x.view(x.size(0), -1)
        else:
            x = self.features(x)
            x = self.squeeze(x)
            return x.view(x.size(0), -1)
 
    def _initialize_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                nn.init.kaiming_normal_(m.weight, mode="fan_out", nonlinearity="relu")
            elif isinstance(m, nn.BatchNorm2d):
                m.weight.data.fill_(1)
                m.bias.data.zero_()
 
    def cam_layer(self):
        return self.features[-1]

简单看下数据集情况:

数据集分布可视化如下所示:

基于tsne算法实现了分布的可视化,可以清楚地看到:两类数据区分度还是很明显的。

整体模型训练识别的难度也是相对较低的,接下来看下loss走势:

acc曲线:

可以看到:模型的精度非常高了。

基于常用的数据增强算法来实现对原始图像数据的增强处理效果实例如下所示:

混淆矩阵如下:

感兴趣的话也都可以动手实践下!

相关推荐
徐113 小时前
文物扫描会对文物造成损伤吗?非接触式3D扫描技术的安全之道与思看科技解决方案
科技·制造·三维扫描仪
HZjiangzi4 小时前
文物古董如何实现高保真三维数字化?思看科技3DeVOK MT彩色扫描+智能贴图方案权威解析
人工智能·科技·制造·三维扫描仪
永霖光电_UVLED5 小时前
Phlux 传感器引起射击界的关注
制造
司机20485 小时前
PDK:从硅数据到可制造芯片的确定性桥梁——剖析现代CMOS工艺设计套件的架构、演进与实战核心
架构·制造
Mangguo52085 小时前
Raise3D:以创新科技引领光固化3D打印性价比新风尚
3d·制造
新启航光学频率梳21 小时前
大型拖拉机发动机缸体深孔燃油喷射孔孔深光学3D轮廓测量-激光频率梳3D轮廓技术
科技·3d·制造
瑞璐塑业peek注塑21 小时前
轻量化线性执行器PEEK注塑降本:助力人形机器人关节模组精密制造
机器人·制造
徐111 天前
突破大型工件测量瓶颈:思看科技TrackScan-Sharp在风电与船舶制造中的革新应用
科技·数码相机·制造
GAOJ_K1 天前
交叉导轨如何避免无效安装
运维·人工智能·科技·自动化·制造
HZjiangzi1 天前
航空航天大部件检测革新:思看科技无贴点跟踪扫描方案
人工智能·科技·制造