基于深度学习的手势识别算法


基于深度学习的手势识别算法

概述


本文基于论文 [Simple Baselines for Human Pose Estimation and Tracking[1]](ECCV 2018 Open Access Repository (thecvf.com)) 实现手部姿态估计。

手部姿态估计是从图像或视频帧集中找到手部关节位置的任务。近年来,姿态估计取得了显著进展。同时,姿态估计相关算法和系统的复杂性也在增加,使得算法分析和比较变得更加困难。

对此,该论文[1]提供了简单且有效的基线方法。具体来说,该论文所提出的姿态估计方法基于在骨干网络 ResNet 上添加的几个反卷积层,以此从深层和低分辨率特征图估计热图(Heatmap)。

算法原理


ResNet [2] 是图像特征提取中最常见的骨干网络,也常常被用于姿态估计。本文所使用的模型在 ResNet 的最后一个卷积阶段上简单添加了几个反卷积层。基于这种方式,其可以利用深层和低分辨率的特征生成热图,并基于热图估计关节位置。整个网络结构如图 2 所示,其使用了三个具有批量归一化和 ReLU 激活的反卷积层。每层有256个 4×4 内核的滤波器,步幅为 2。最后添加一个 1×1 的卷积层,以生成所有 k 个关键点的预测热图。

均方误差 (MSE) 被用作预测热图和目标热图之间的损失。关节 k 的目标热图是通过在第 k 个关节的真实位置上应用二维高斯分布生成的。训练过程中的损失变化如图3所示。我选取了 FreiHand[3] 作为数据集,ResNet-18 作为骨干网络进行训练。FreiHand 的训练集包含 130240 张尺寸为 224 × 224 的RGB图像。

将训练完成后的模型应用于FreiHAND测试集,得到结果如图4所示

复制代码
								图4:手势识别结果

核心逻辑


模型结构如下所示:

python 复制代码
import torch
import torch.nn as nn
import torchvision.models as models

    
class PoseNetwork(nn.Module):
    def __init__(self, joints_num=21, depth=50, pretrained=False):
        super(PoseNetwork, self).__init__()
        if pretrained:
            weights = 'DEFAULT'
        else:
            weights = None
        if depth == 18:
            resnet = models.resnet18(weights = weights)
        elif depth == 34:
            resnet = models.resnet34(weights = weights)
        elif depth == 50:
            resnet = models.resnet50(weights = weights)
        elif depth == 101:
            resnet = models.resnet101(weights = weights)
        elif depth == 152:
            resnet = models.resnet152(weights = weights)
        else:
            resnet = models.resnet50()
        self.encoder = nn.Sequential(*list(resnet.children())[:-2])
        self.decoder = nn.Sequential(
            nn.ConvTranspose2d(resnet.inplanes, 256, kernel_size=4, stride=2, padding=1, output_padding=0, bias=False),
            nn.BatchNorm2d(256),
            nn.ReLU(inplace=True),

            nn.ConvTranspose2d(256, 256, kernel_size=4, stride=2, padding=1, output_padding=0, bias=False),
            nn.BatchNorm2d(256),
            nn.ReLU(inplace=True),

            nn.ConvTranspose2d(256, 256, kernel_size=4, stride=2, padding=1, output_padding=0, bias=False),
            nn.BatchNorm2d(256),
            nn.ReLU(inplace=True),

            nn.Conv2d(256, joints_num, kernel_size=1, stride=1)
        )


    def forward(self, x):
        x = self.encoder(x)
        x = self.decoder(x)
        return x

以上代码仅作展示,更详细的代码文件请参见附件。

效果演示


配置环境并运行 main.py脚本,效果如图4所示。

此外,网站还提供了在线体验功能。用户只需要输入一张大小不超过 1MB 的单手 JPG 图像,网站就会标记出图中手的姿势,如图6所示。

复制代码
								图6:在线体验结果

使用方式


  • 解压附件压缩包并进入工作目录。如果是Linux系统,请使用如下命令:
python 复制代码
unzip hand-pose-estimation.zip
cd hand-pose-estimation
  • 代码的运行环境可通过如下命令进行配置:
python 复制代码
pip install -r requirements.txt
  • 如果希望在本地运行实时手势识别程序,请运行如下命令:
python 复制代码
python main.py
  • 如果希望在本地运行训练模型,请运行如下命令:
python 复制代码
python main.py -r "train"
  • 请注意,训练前需要自行制作或下载并处理相关公开数据集,具体格式可以参考我事先基于FreiHAND制作的一个迷你的样例数据集,其位于data\datasets\mini-example。
  • 如果希望在线部署,请运行如下命令:
python 复制代码
python main-flask.py

参考文献


1\] Xiao B, Wu H, Wei Y. Simple baselines for human pose estimation and tracking\[C\]//Proceedings of the European conference on computer vision (ECCV). 2018: 466-481. \[2\] Targ S, Almeida D, Lyman K. Resnet in resnet: Generalizing residual architectures\[J\]. arXiv preprint arXiv:1603.08029, 2016. \[3\] Zimmermann C, Ceylan D, Yang J, et al. Freihand: A dataset for markerless capture of hand pose and shape from single rgb images\[C\]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019: 813-822. * 参考文献:本文所涉及的所有资源的获取方式:https://www.aspiringcode.com/content?id=17111441004954\&uid=ca17507691274861976eacc1dfc5d827

相关推荐
alphaTao21 分钟前
LeetCode 每日一题 2026/2/2-2026/2/8
算法·leetcode
CODECOLLECT23 分钟前
技术解析|MDM移动设备管理系统无终身买断制度的底层逻辑
人工智能
甄心爱学习25 分钟前
【leetcode】判断平衡二叉树
python·算法·leetcode
北京迅为28 分钟前
《【北京迅为】itop-3568开发板NPU使用手册》- 第 7章 使用RKNN-Toolkit-lite2
linux·人工智能·嵌入式·npu
我是一只puppy34 分钟前
使用AI进行代码审查
javascript·人工智能·git·安全·源代码管理
颜酱34 分钟前
从二叉树到衍生结构:5种高频树结构原理+解析
javascript·后端·算法
阿杰学AI35 分钟前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
esmap37 分钟前
ESMAP 智慧消防解决方案:以数字孪生技术构建全域感知消防体系,赋能消防安全管理智能化升级
人工智能·物联网·3d·编辑器·智慧城市
LaughingZhu42 分钟前
Product Hunt 每日热榜 | 2026-02-08
大数据·人工智能·经验分享·搜索引擎·产品运营
芷栀夏1 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络