计算机视觉(opencv)——基于 MediaPipe 的手势识别系统


基于 MediaPipe 与 OpenCV 的手势识别系统实现详解

在计算机视觉和人机交互领域,手势识别 是一项非常重要的技术。它使得计算机能够通过摄像头识别人类手部动作,从而实现自然交互。例如,虚拟鼠标控制、手势命令控制、游戏互动等,都依赖于精准的手势检测与识别。

本文将通过 Python + OpenCV + MediaPipe 的方式,详细讲解一个能够实时识别手势(0~10)的系统实现原理与代码结构。


一、系统原理概述

手势识别的核心在于:

  1. 检测手部关键点(如手指、掌心、手腕等位置);

  2. 通过关键点之间的距离关系判断手指是否伸展或弯曲

  3. 根据手指伸展数量映射为具体的数字或手势

Google 的 MediaPipe 提供了高精度的手部检测与关键点跟踪模型,可实时返回 21 个关键点坐标。我们可以基于这些坐标信息,计算手指弯曲程度,从而判断出用户展示的手势。


二、所需库与环境

本项目需要以下 Python 库:

复制代码
pip install opencv-python mediapipe
  • OpenCV:用于图像采集与显示;

  • MediaPipe:用于手部检测与关键点识别;

  • NumPy:用于数学计算(本例中可选)。


三、完整代码实现

复制代码
import cv2
import mediapipe as mp

# 手势标签定义(0~10)
gesture = ["none", "one", "two", "three", "four", "five", 
           "six", "seven", "eight", "nine", "ten"]
flag = 0

# 初始化 MediaPipe 模块
mp_drawing = mp.solutions.drawing_utils
mp_hands = mp.solutions.hands

# 手部检测器配置
hands = mp_hands.Hands(
    static_image_mode=False,          # 视频流模式
    max_num_hands=2,                  # 最多检测两只手
    min_detection_confidence=0.75,    # 检测置信度阈值
    min_tracking_confidence=0.75)     # 跟踪置信度阈值

# 打开摄像头
cap = cv2.VideoCapture(0)

while True:
    flag = 0
    ret, frame = cap.read()
    frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
    frame = cv2.flip(frame, 1)  # 镜像翻转
    results = hands.process(frame)
    frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)

    # 如果检测到手部
    if results.multi_hand_landmarks:
        for hand_landmarks in results.multi_hand_landmarks:
            # 取若干关键点的坐标
            p0_x = hand_landmarks.landmark[0].x
            p0_y = hand_landmarks.landmark[0].y
            p5_x = hand_landmarks.landmark[5].x
            p5_y = hand_landmarks.landmark[5].y

            # 基准距离(大拇指根部到掌心距离)
            distance_0_5 = pow(p0_x - p5_x, 2) + pow(p0_y - p5_y, 2)
            base = distance_0_5 / 0.6

            # 获取其他指尖关键点
            p4_x, p4_y = hand_landmarks.landmark[4].x, hand_landmarks.landmark[4].y
            p8_x, p8_y = hand_landmarks.landmark[8].x, hand_landmarks.landmark[8].y
            p12_x, p12_y = hand_landmarks.landmark[12].x, hand_landmarks.landmark[12].y
            p16_x, p16_y = hand_landmarks.landmark[16].x, hand_landmarks.landmark[16].y
            p20_x, p20_y = hand_landmarks.landmark[20].x, hand_landmarks.landmark[20].y

            # 计算各指尖到手腕的平方距离
            distance_5_4 = pow(p5_x - p4_x, 2) + pow(p5_y - p4_y, 2)
            distance_0_8 = pow(p0_x - p8_x, 2) + pow(p0_y - p8_y, 2)
            distance_0_12 = pow(p0_x - p12_x, 2) + pow(p0_y - p12_y, 2)
            distance_0_16 = pow(p0_x - p16_x, 2) + pow(p0_y - p16_y, 2)
            distance_0_20 = pow(p0_x - p20_x, 2) + pow(p0_y - p20_y, 2)

            # 判断手指是否伸直
            if distance_0_8 > base: flag += 1   # 食指
            if distance_0_12 > base: flag += 1  # 中指
            if distance_0_16 > base: flag += 1  # 无名指
            if distance_0_20 > base: flag += 1  # 小指
            if distance_5_4 > base * 0.3: flag += 1  # 拇指
            if flag >= 10: flag = 10

            # 绘制关键点
            mp_drawing.draw_landmarks(frame, hand_landmarks, mp_hands.HAND_CONNECTIONS)

    # 显示识别结果
    cv2.putText(frame, gesture[flag], (50, 50), 0, 1.3, (0, 0, 255), 3)
    cv2.imshow('MediaPipe Hands', frame)

    # 按 ESC 退出
    if cv2.waitKey(1) & 0xFF == 27:
        break

cap.release()
cv2.destroyAllWindows()

四、算法逻辑详解

该程序的核心逻辑可以分为以下几个步骤:

1. 摄像头帧采集

使用 cv2.VideoCapture(0) 读取实时视频流,并进行逐帧处理。

2. 手部检测与关键点提取

通过 hands.process(frame),MediaPipe 会自动检测手部位置,并返回 21 个关键点坐标。

这些关键点在手部不同部位,如:

编号 名称(英文) 中文说明 所属手指
0 WRIST 手腕(连接手臂) ------
1 THUMB_CMC 拇指掌骨基部 拇指
2 THUMB_MCP 拇指第一关节(掌指关节) 拇指
3 THUMB_IP 拇指第二关节(指间关节) 拇指
4 THUMB_TIP 拇指指尖 拇指
5 INDEX_FINGER_MCP 食指根部(掌指关节) 食指
6 INDEX_FINGER_PIP 食指中部关节 食指
7 INDEX_FINGER_DIP 食指末端关节 食指
8 INDEX_FINGER_TIP 食指指尖 食指
9 MIDDLE_FINGER_MCP 中指根部 中指
10 MIDDLE_FINGER_PIP 中指中部关节 中指
11 MIDDLE_FINGER_DIP 中指末端关节 中指
12 MIDDLE_FINGER_TIP 中指指尖 中指
13 RING_FINGER_MCP 无名指根部 无名指
14 RING_FINGER_PIP 无名指中部关节 无名指
15 RING_FINGER_DIP 无名指末端关节 无名指
16 RING_FINGER_TIP 无名指指尖 无名指
17 PINKY_MCP 小指根部 小指
18 PINKY_PIP 小指中部关节 小指
19 PINKY_DIP 小指末端关节 小指
20 PINKY_TIP 小指指尖 小指

3. 距离计算与手势判断

通过比较各指尖与手腕(或掌根)的相对距离,判断该手指是否伸直。

例如:

  • distance_0_8 > base,说明食指伸直;

  • distance_0_12 > base,说明中指伸直;

  • 若四根手指均满足条件,且拇指距离也大,则识别为"5"。

4. 手势编号与映射

程序维护一个手势数组:

复制代码
gesture = ["none", "one", "two", "three", "four", "five", "six", 
           "seven", "eight", "nine", "ten"]

根据检测到的手指数量 flag,直接映射为相应的手势名称。


五、效果展示与扩展

运行程序后,摄像头窗口会实时显示手部关键点与骨架线。当你伸出不同数量的手指时,左上角的文本会显示相应的数字(如 "three"、"five" 等)。

示例效果:

手势 识别结果 描述
none 全部弯曲
☝️ one 伸出食指
✌️ two 食指+中指
🖐 five 全部伸展

六、改进与优化方向

  1. 引入深度信息

    当前算法仅基于二维坐标,容易受角度影响。可利用深度相机或双目视觉增强鲁棒性。

  2. 增加动态手势识别

    结合时间序列(如 LSTM 网络)可识别挥手、比划等动作。

  3. 加入多手识别与左右手分类

    通过 results.multi_handedness 可判断是左手还是右手,扩展为更复杂的交互。

  4. 与应用系统结合

    例如将手势映射为鼠标点击、音量调节、虚拟键盘输入等功能。


七、总结

本文展示了一个基于 MediaPipe + OpenCV 的实时手势识别系统。

通过检测手部 21 个关键点并计算距离关系,我们能够识别从"0"到"10"的静态手势。

该系统具有 实时性强、部署简单、可扩展性高 的优点,非常适合作为入门级手势识别项目或交互式系统原型。

未来可以结合深度学习模型(如 CNN + LSTM)实现更复杂的手势分类与动作识别,推动自然人机交互的发展。

相关推荐
三年呀4 小时前
指纹技术深度剖析:从原理到实践的全方位探索
图像处理·人工智能·计算机视觉·指纹识别·生物识别技术·安全算法
学习的周周啊5 小时前
一人AI自动化开发体系(Cursor 驱动):从需求到上线的全流程闭环与实战清单
运维·人工智能·自动化·ai编程·全栈·devops·cursor
后端小肥肠5 小时前
明星漫画总画不像?用 Coze +即梦 4 工作流,素描风漫画3分钟搞定,小白也能上手
人工智能·aigc·coze
flay6 小时前
5个Claude实战项目从0到1:自动化、客服机器人、代码审查
人工智能
flay6 小时前
Claude API完全指南:从入门到实战
人工智能
用户5191495848456 小时前
OAuth/OpenID Connect安全测试全指南
人工智能·aigc
初级炼丹师(爱说实话版)6 小时前
PGLRNet论文笔记
人工智能·深度学习·计算机视觉
明月照山海-6 小时前
机器学习周报十七
人工智能·机器学习
flay6 小时前
Claude进阶秘籍:10个高级技巧让效率翻倍
人工智能