学习python使用Ultralytics的YOLO26进行姿势估计的基本用法

Ultralytics的YOLO26模型提供专门的姿势估计模型以支持姿势估计,其主要预训练模型及参数如下表所示,其中的"e2e" 代表端到端性能。

  姿势估计模型的输出是一组点,这些点代表图像中对象上的关键点,通常还包括每个点的置信度分数。YOLO26的姿势估计模型的输出数据形状为[N, K, D],其中N为从图片中检测到的人数,K为每个人体的关节/特征点数量(关键点),由于预训练模型采用COCO格式,K通常为17,每个关键点代表人体不同的部位,下图为每个索引与其对应身体关节的映射关系,D为每个关键点的属性,包括关键点的坐标x、y,以及置信度分数。不过将姿势估计模型转换为onnx格式后,其输出形状变为[1,300,57]的形式,具体解析方式后续再学习。

  YOLO类的predict函数返回结果中,最重要的属性为keypoints,该属性中保存了从图像中检测出的所有人体的关键点信息,keypoints的主要属性如下图所示,详细说明见参考文献4。

  最后是示例程序及程序运行效果,如下所示:

python 复制代码
from ultralytics import YOLO

model = YOLO(r"E:\MyPrograms\Python\ultralytics\yolo26m-pose.pt")

results = model.predict(
    source="longqi.jpg",  # 图片路径
    save=True,                         # 自动保存结果到 runs/pose/predict
    show=True,
    conf=0.5,                          # 置信度阈值
    imgsz=640                          # 输入图像尺寸
)

# 获取关键点
for result in results:
    print(result.keypoints.xy)  
    print(result.keypoints.conf)  


1\]https://docs.ultralytics.com/zh/models/yolo26/ \[2\]https://docs.ultralytics.com/zh/tasks/pose/ \[3\]https://docs.ultralytics.com/zh/datasets/pose/coco/ \[4\]https://deepwiki.com/ultralytics/ultralytics/5.2-annotation-and-plotting-utilities

相关推荐
qq_3422958219 小时前
CSS如何制作点击展开时的手风琴动画_平滑过渡max-height高度
jvm·数据库·python
lwf00616419 小时前
Poetry: Python 依赖管理利器
python
智慧地球(AI·Earth)20 小时前
用AI重构Python开发:从API调用到本地部署,代码全流程自动化实战
python·自动化·api
kronos.荒20 小时前
非递减序列(python)
python·回溯
Jmayday20 小时前
Pytorch:张量创建及运算
人工智能·pytorch·python
SomeB1oody20 小时前
【Python深度学习】3.4. 循环神经网络(RNN)实战:预测股价
开发语言·人工智能·python·rnn·深度学习·机器学习
m0_7489203620 小时前
Golang goquery怎么解析HTML_Golang goquery教程【核心】
jvm·数据库·python
m0_7467523020 小时前
golang如何编写Markdown转HTML工具_golang Markdown转HTML工具编写详解
jvm·数据库·python
Bug 挖掘机20 小时前
一篇理清Prompt,Skill,MCP之间的区别
开发语言·软件测试·python·功能测试·测试开发·prompt·ai测试