自动驾驶—CARLA仿真(14)draw_skeleton demo

📌 测试用例

PythonAPI/examples/draw_skeleton.py

行人骨骼(Skeleton)可视化示例,用于:

  1. 在仿真中生成一个行人(Pedestrian)
  2. 实时获取其骨骼关节点的 3D 世界坐标
  3. 将骨骼投影到 RGB 摄像头图像上,绘制骨架连线与关键点
  4. 摄像机围绕行人做环绕运动,展示动态效果

适用于 人体姿态估计、动作捕捉、行人行为分析 等研究。

carla_draw_skeleton

🔑 主要模块解析

1. CarlaSyncMode:同步模式上下文管理器
  • 功能:封装 CARLA 同步模式的开启/关闭逻辑

  • 优势

    • 自动管理 world.tick() 与传感器数据对齐
    • 确保每帧只处理同一仿真时刻的摄像头图像和行人状态
  • 使用方式

    python 复制代码
    with CarlaSyncMode(world, camera, fps=30) as sync_mode:
        snapshot, image_rgb = sync_mode.tick(timeout=5.0)

✅ 这是 CARLA 多传感器同步的最佳实践


2. 行人骨骼获取与处理
python 复制代码
bones = ped.get_bones()  # 获取骨骼结构
for i, bone in enumerate(bones.bone_transforms):
    boneIndex[bone.name] = i
    points.append(bone.world.location)  # 3D 世界坐标
  • get_bones() 返回包含 68 个骨骼节点 的层级结构(含名称、局部/世界坐标)
  • 常见节点命名如:
    • crl_hips__C(臀部中心)
    • crl_spine__C(脊柱)
    • crl_hand__L(左手)
    • crl_Head__C(头部)

💡 这些名称对应 CARLA 内置行人模型的骨骼绑定


3. 3D→2D 投影管线
python 复制代码
def get_screen_points(camera, K, image_w, image_h, points3d):
    # 1. 构建世界→相机变换矩阵
    world_2_camera = np.array(camera.get_transform().get_inverse_matrix())
    
    # 2. 将 3D 点转为齐次坐标 (x,y,z,1)
    points = np.array([...]).reshape(-1, 4).T
    
    # 3. 变换到相机坐标系
    points_camera = np.dot(world_2_camera, points)
    
    # 4. CARLA 坐标系 → 标准 CV 坐标系: (x,y,z) → (y, -z, x)
    points = np.array([points_camera[1], -points_camera[2], points_camera[0]])
    
    # 5. 相机内参投影 + 归一化
    points_2d = np.dot(K, points)
    points_2d = [x/z, y/z, z]
  • 完整实现 从世界坐标到像素坐标的转换
  • 正确处理 CARLA 左手坐标系计算机视觉右手坐标系 的差异

4. 骨骼可视化绘制
  • draw_skeleton()
    根据预定义的骨骼连接关系(如 hips → spine, spine → neck),调用 draw_line_on_buffer 绘制 绿色骨架线
  • draw_points_on_buffer()
    在关节点位置绘制 红色圆点(除根节点外)
  • 自定义光栅化
    未使用 Pygame 高级绘图,而是直接操作 NumPy 图像缓冲区,确保与原始图像融合

✅ 支持 任意骨骼拓扑 ,只需修改 boneIndex 映射关系。


5. 动态场景控制
  • 行人动画

    python 复制代码
    ped.blend_pose(math.sin(blending))  # 混合行走/站立姿态
    controller.go_to_location(...)      # AI 控制器导航
  • 环绕摄像机

    python 复制代码
    x = math.cos(turning) * -3
    y = math.sin(turning) * 3
    trans.location = ped.location + (x, y, 2)
    trans.rotation.yaw = -360 * (turning/(2π))  # 保持面向行人
    camera.set_transform(trans)
  • 效果:摄像机以 3 米半径绕行人旋转,同时俯视 16°


6. 图像处理与显示
  • get_image_as_array()
    将 CARLA 图像转为可写的 NumPy 数组(BGR → RGB)

  • draw_image()
    使用 Pygame 显示叠加骨骼的图像

  • 多进程保存(注释掉)

    python 复制代码
    # pool.apply_async(write_image, (snapshot.frame, "ped", buffer))

    可扩展为 实时保存带骨骼标注的视频帧


🎯 核心应用场景

应用 如何利用本脚本
2D 人体姿态估计 生成带精确 2D 关键点标注的图像数据集
3D 人体重建 结合深度图 + 3D 骨骼坐标训练模型
行人行为分析 分析 blend_pose 参数与动作的关系
虚拟试衣/AR 将虚拟服装绑定到骨骼节点

⚠️ 技术点

  1. 完整的骨骼拓扑定义

    • 手动编码了 60+ 条骨骼连接(从手指到脚趾)
    • 覆盖全身细节,支持高精度姿态可视化
  2. 坐标系无缝转换

    • 正确处理 CARLA 特有的 (x,y,z) → (y,-z,x) 转换
    • 避免常见投影错误(如左右颠倒、上下翻转)
  3. 纯客户端渲染

    • 所有绘制在 Python/NumPy 完成,不依赖 CARLA 渲染管线
    • 可轻松修改为保存标注文件(JSON/PNG)

✅ 总结

该脚本是 CARLA 行人骨骼可视化的标杆示例,展示了:

  1. 如何获取 高精度行人骨骼数据
  2. 如何实现 鲁棒的 3D→2D 投影
  3. 如何在 动态场景 中实时绘制骨架

它是构建 人体姿态估计数据集行人交互系统 的理想起点,尤其适合需要 精确关节标注 的计算机视觉任务。

相关推荐
2501_941418551 分钟前
【计算机视觉】基于YOLO11-P6的保龄球检测与识别系统
人工智能·计算机视觉
码农三叔13 分钟前
(8-3)传感器系统与信息获取:多传感器同步与传输
人工智能·机器人·人形机器人
人工小情绪21 分钟前
Clawbot (OpenClaw)简介
人工智能
2501_933329551 小时前
品牌公关AI化实践:Infoseek舆情系统技术架构解析
人工智能·自然语言处理
咋吃都不胖lyh1 小时前
CLIP 不是一个 “自主判断图像内容” 的图像分类模型,而是一个 “图文语义相似度匹配模型”—
人工智能·深度学习·机器学习
xiucai_cs1 小时前
AI RAG 本地知识库实战
人工智能·知识库·dify·rag·ollama
zhangfeng11331 小时前
大模型微调时 Firefly(流萤)和 LlamaFactory(LLaMA Factory)这两个工具/框架之间做出合适的选择
人工智能·llama
zhangyifang_0091 小时前
MCP——AI连接现实世界的“标准接口”
人工智能
LOnghas12112 小时前
电动汽车充电接口自动识别与定位_yolo13-C3k2-Converse_六种主流充电接口检测分类
人工智能·目标跟踪·分类
编码小哥2 小时前
OpenCV图像滤波技术详解:从均值滤波到双边滤波
人工智能·opencv·均值算法