
8.2 外部环境传感
外部环境传感是机器人感知周边物理世界的核心系统,核心定位是全面捕获环境的三维空间信息、物体属性、动态变化及潜在风险,为机器人路径规划、目标识别、避障决策、人机协作提供数据支撑。其核心目标是解决机器人"环境感知盲区"问题,实现对复杂场景的精准认知与自适应响应,适配工业自动化、服务机器人、户外移动、医疗辅助等多场景对"环境可知、决策可控、交互安全"的需求,是机器人脱离固定场景、实现自主运行的关键技术基础。
8.2.1 深度相机
深度相机是外部环境传感的核心设备,核心定位是通过光学原理获取场景的三维深度信息与二维图像信息,同步输出"像素-距离"映射数据,构建环境的三维点云模型,让机器人具备"空间测量"与"立体感知"能力。其核心目标是解决传统2D相机"缺乏深度维度"的局限,实现对物体位置、尺寸、姿态、运动轨迹的精准捕获,适配从工业工件定位到服务机器人避障、从户外导航到人机协作安全监控等多场景需求,是机器人实现环境认知的核心视觉设备。
- 核心设计要点
深度相机的设计需围绕"感知精度、环境适配、数据效率、集成灵活"四大核心问题展开,需要兼顾不同场景的环境特性与感知需求。
(1)感知精度与范围:匹配不同场景的空间测量需求
深度相机的精度与测距范围直接决定环境认知的可靠性,需要按场景分级设计:
- 测距精度需分场景定义,工业精密定位场景(如工件抓取、装配引导)测距误差≤±1%@2m,服务机器人避障场景≤±3%@3m,户外导航场景≤±5%@10m;
- 测距范围需覆盖应用场景需求,近距离作业(如桌面操作机器人)测距范围0.1~3m,中距离交互(如家庭服务机器人)0.3~10m,远距离导航(如户外移动机器人)1~50m,部分工业场景支持多量程切换;
- 空间分辨率需保障细节捕获,点云密度≥100万点/帧,二维图像分辨率≥1920×1080(RGB图像),确保对小型物体(如电子元件)、精细结构(如工件轮廓)的精准识别;
- 姿态测量精度需适配目标定位需求,对静态物体的姿态角误差(滚转/俯仰/偏航)≤±0.5°,动态物体跟踪误差≤±1°,支持机器人对运动目标的实时跟随。
(2)环境适应性:抵御复杂光照与恶劣工况影响
深度相机需在不同光照、天气、工况下稳定工作,避免环境干扰导致感知失效:
- 光照适应性需覆盖全场景,支持0~100000lux光照范围,强光(户外正午)下测距误差增幅≤±1%,弱光(室内昏暗环境,≤10lux)下无失明现象,具备主动补光模块(红外补光,补光距离≥5m);
- 防护等级需匹配应用环境,工业场景≥IP65(防尘、防溅油、防焊接火花),户外场景≥IP67(防水浸泡、防沙尘),潮湿环境(如厨房、浴室服务机器人)需具备防雾功能;
- 温度适应范围需覆盖极端工况,工业场景-20~60℃,户外场景-40~85℃,低温环境下启动时间≤3秒,高温环境下连续工作24小时无性能衰减;
- 抗干扰能力需达标,工业场景可抵御电磁干扰(EMI)、金属反光干扰,户外场景可抵御雨滴、雪粒遮挡影响,通过算法补偿减少干扰导致的点云缺失。
(3)数据处理与集成:保障数据实时性与兼容性
深度相机需快速处理海量三维数据,并与机器人系统无缝集成:
- 数据输出帧率需满足动态感知需求,静态场景≥30fps,动态场景(如跟踪移动目标)≥60fps,工业高速作业场景≥120fps,避免因帧率不足导致目标漏检或轨迹偏移;
- 数据处理支持多模态融合,可同步输出RGB图像、深度图、点云数据,部分高端型号集成AI加速模块,支持实时目标分割、语义识别(如区分行人、障碍物、工件),推理延迟≤20ms;
- 接口兼容性需标准化,支持USB3.0、GigE、MIPI等数据接口,通信协议支持ROS、Profinet、EtherCAT,可直接对接机器人控制系统、边缘计算单元,数据传输延迟≤5ms;
- 点云优化算法需完善,内置去噪(去除离散噪点)、空洞填充(修补遮挡导致的点云缺失)、降采样(减少数据量,提升传输效率)功能,确保输出点云的完整性与实用性。
(4)安装与形态设计:适配机器人部署需求
深度相机的安装方式需要灵活适配不同类型机器人的结构特点,具体说明如下所示。
-
形态设计分模块化、集成化、轻量化三种,模块化设计支持快速拆卸与更换(如工业机器人末端加装),集成化设计可嵌入机器人机身(如人形机器人头部、移动机器人顶部),轻量化设计重量≤200g(服务机器人专用);
-
安装方式支持多方位调节,提供云台式、固定支架式、磁吸式安装,云台式支持360°水平旋转、±90°垂直俯仰,满足全场景无死角感知;
-
尺寸需小型化,模块化产品体积≤100×80×50mm,集成化产品厚度≤30mm,避免占用过多机器人空间或影响运动灵活性;
-
需要低功耗的供电需求,工作功耗≤15W(工业级)、≤5W(服务级),支持12V/24V宽电压供电,适配机器人电源系统,避免额外供电负担。
-
典型类型与应用场景
深度相机根据测距原理划分核心类型,不同类型的性能特点适配不同应用场景,核心类型与应用如下:
(1)结构光深度相机:近距离高精度场景主流选型
- 工作原理:通过投射器发射编码结构光(如散斑、条纹)到目标场景,相机捕捉被反射的结构光图案,利用三角测距原理计算像素点深度信息;
- 核心特点:近距离测距精度高(0.1~3m范围内误差≤±0.5%)、点云密度高、成本适中、功耗低,适合室内静态或低速动态场景,但受强光干扰较大,远距离性能衰减明显;
- 工业场景:工件三维轮廓扫描(如电子元件尺寸检测、铸件缺陷识别)、装配引导(如机械臂抓取不规则工件的定位)、人机协作安全监控(检测人员与机器人的距离,≤50cm时触发减速);
- 服务场景:家庭服务机器人避障(检测家具、门槛、宠物等障碍物)、人脸识别与姿态跟踪(如迎宾机器人识别访客并跟随)、桌面操作机器人精准取物(如抓取水杯、文件);
- 医疗场景:康复机器人患者姿态监测(实时捕捉肢体运动轨迹)、手术机器人手术区域三维建模(辅助医生规划手术路径)。
(2)TOF(飞行时间)深度相机:中远距离动态场景优选
- 工作原理:通过发射调制后的近红外光信号,测量光信号从相机到目标物体的往返飞行时间,结合光速计算目标距离,直接输出深度图像;
- 核心特点:测距范围广(0.3~50m)、响应速度快(帧率≥60fps)、抗环境光干扰能力强、无运动模糊,适合中远距离动态场景,但近距离精度略低于结构光相机;
- 工业场景:大型工件定位(如汽车车身装配引导)、车间环境三维建模(辅助机器人路径规划)、AGV/AMR避障与导航(检测通道内的动态障碍物);
- 服务场景:商场/机场引导机器人避障(应对人流、移动推车等动态目标)、人形机器人行走导航(检测地面台阶、凹陷)、远距离目标跟踪(如园区巡逻机器人识别远处人员);
- 户外场景:户外移动机器人(如配送机器人)导航(适应强光、弱光环境)、无人机地形测绘(捕捉地面三维地貌)、安防机器人周界监控(检测闯入目标)。
(3)双目视觉深度相机:高精度低成本场景适配
-
工作原理:模拟人类双眼视觉,通过两个间距固定的相机同步拍摄目标场景,利用视差计算原理还原三维深度信息,需配合复杂算法实现深度测量;
-
核心特点:成本低、无主动光源(隐蔽性好)、适合高分辨率场景,测距精度随基线长度提升(基线越长,远距离精度越高),但受光照条件影响大,弱光环境下性能下降;
-
工业场景:中小型工件尺寸测量(如机械零件公差检测)、流水线产品分拣(识别不同尺寸的工件并分类)、印刷品质量检测(三维表面缺陷识别);
-
服务场景:低成本服务机器人避障(如扫地机器人检测家具、门槛)、教育机器人三维建模教学(捕捉物体轮廓并生成模型);
-
医疗场景:假肢适配三维扫描(捕捉残肢三维形态,辅助定制假肢)、步态分析(同步捕捉双足运动轨迹与地面距离)。
-
关键技术要求
深度相机的技术指标需严格匹配机器人应用场景的标准化需求,核心指标如下:
-
测距性能:测距范围0.1~50m(支持多量程切换),测距精度≤±1%@2m(工业)、≤±3%@3m(服务)、≤±5%@10m(户外);
-
图像与点云:RGB分辨率≥1920×1080,点云密度≥100万点/帧,空间分辨率≤1mm@1m;
-
动态性能:帧率≥30fps(静态)、≥60fps(动态)、≥120fps(高速场景),运动模糊抑制≤1ms;
-
环境适应性:光照适应范围0~100000lux,防护等级≥IP65(工业)、≥IP67(户外),工作温度-40~85℃;
-
数据处理:支持RGB/深度图/点云同步输出,内置AI语义分割功能,推理延迟≤20ms;
-
接口与兼容性:支持USB3.0/GigE/MIPI接口,兼容ROS/EtherCAT/Profinet协议,数据传输延迟≤5ms;
-
安装与功耗:重量≤200g(服务级)、≤500g(工业级),工作功耗≤5W(服务级)、≤15W(工业级),支持12V/24V宽电压供电;
-
安全性:符合IEC61010电气安全标准,激光发射功率≤1类(人眼安全),无辐射危害。
-
典型产品
如图8-5所示,人形机器人Reachy 2搭载了奥比中光的Gemini 336立体视觉3D相机,内置了奥比中光自研的MX6800深度引擎芯片,融合主动与被动成像技术,能适应从漆黑到阳光直射的全光照场景,可输出精准可靠的三维数据,为机器人的环境感知、物体交互等任务提供核心的深度视觉支撑。

图8-5 Reachy 2搭载了奥比中光的Gemini 336立体视觉3D相机
总而言之,深度相机的核心价值是为机器人赋予"三维环境认知能力",通过精准捕获空间深度信息,打破传统2D视觉的局限,支撑机器人完成路径规划、目标定位、避障决策等关键操作。深度相机的性能直接决定了机器人的环境感知精度、决策响应速度与应用场景拓展能力。
8.2.2 激光雷达
激光雷达是外部环境传感的高端核心设备,核心定位是通过发射激光束扫描场景,利用飞行时间或三角测距原理获取三维空间信息,输出高密度点云数据,构建精准的环境三维模型。其核心目标是解决复杂场景下"远距离、高精度、抗干扰"的感知需求,适配户外导航、工业测绘、人机协作安全监控等场景,是机器人实现自主决策的关键空间感知设备。
- 核心设计要点
激光雷达的设计需围绕"测距精度、环境抗扰、数据效率、集成适配"四大核心问题,精简冗余设计,聚焦于核心需求。
(1)感知精度与范围:匹配场景测量核心需求
- 测距精度分级定义,工业定位场景≤±1%@5m,户外导航场景≤±3%@20m,近距离交互场景≤±2%@3m;
- 测距范围覆盖0.2~200m,支持近距离作业(0.2~10m)与远距离探测(10~200m)切换,满足多场景适配;
- 点云密度≥50万点/帧,角分辨率≤0.1°,确保目标轮廓与细节的精准捕获。
(2)环境适应性:抵御复杂工况干扰
- 光照适应范围0~100000lux,强光、弱光环境下测距误差增幅≤±1%,无失明现象;
- 防护等级工业场景≥IP65、户外场景≥IP67,耐温范围-40~85℃,抗电磁干扰、雨雪沙尘影响;
- 具备抗多雷达干扰功能,避免同场景多设备信号冲突。
(3)数据处理与集成:保障实时高效
- 输出帧率≥10Hz(静态场景)、≥20Hz(动态场景),数据传输延迟≤10ms;
- 支持点云、距离图同步输出,兼容ROS、EtherCAT协议,接口支持GigE、USB3.0;
- 内置点云去噪、降采样算法,减少数据冗余,提升处理效率。
(4)安装与形态:适配机器人部署
-
形态分模块化、集成化,模块化重量≤800g,集成化厚度≤50mm,体积紧凑不占用过多空间;
-
支持固定支架、云台式安装,云台式可360°水平旋转,满足全场景无死角感知;
-
工作功耗≤20W(工业级)、≤10W(服务级),支持12V/24V宽电压供电。
-
典型类型与应用场景
(1)机械旋转式激光雷达:远距离高精度场景选型
- 工作原理:通过电机驱动激光发射模块旋转扫描,全覆盖捕获环境信息;
- 核心特点:测距远(最远200m)、点云密度高、精度稳定,但体积略大、功耗较高;
- 典型应用:户外移动机器人导航(如自动驾驶、园区巡逻)、大型车间三维测绘、远距离障碍物检测。
(2)固态激光雷达:轻量化低功耗场景优选
- 工作原理:无机械旋转部件,通过MEMS微振镜或相控阵技术实现激光扫描;
- 核心特点:体积小、重量轻、寿命长(≥10⁵小时)、抗震动,适合高频次动态场景;
- 典型应用:服务机器人避障(家庭、商场)、人形机器人行走导航、无人机地形测绘。
(3)混合固态激光雷达:平衡性能与实用场景适配
-
工作原理:结合机械旋转与固态扫描优势,局部旋转实现大范围扫描,兼顾精度与紧凑性;
-
核心特点:测距范围广(0.5~100m)、功耗中等、成本均衡,适配多场景;
-
典型应用:工业AGV/AMR导航、城市配送机器人避障、中等规模场景三维建模。
-
关键技术要求
-
测距性能:测距范围0.2~200m,测距精度≤±1%@5m、≤±3%@20m;
-
点云指标:点云密度≥50万点/帧,角分辨率≤0.1°;
-
动态性能:帧率≥10Hz,运动目标跟踪误差≤±2°;
-
环境适应性:光照0~100000lux,防护等级≥IP65,工作温度-40~85℃;
-
接口与功耗:支持GigE/USB3.0,兼容ROS/EtherCAT,功耗≤20W;
-
安全性:激光发射功率≤1类(人眼安全),符合IEC60825安全标准。
-
典型产品
如图8-6所示,例如宇树科技产品H1机器人搭载的深度相机为Intel RealSense D435i,部署在其头部区域,负责捕捉环境的三维深度信息,同时与配套的3D激光雷达(LIVOX-MID360)协同工作,支撑机器人完成空间定位、障碍物检测等环境感知任务,助力其实现复杂场景下的自主交互与运动规划。

图8-6 宇树科技的H1机器人的深度相机
总而言之,激光雷达的核心价值是为机器人提供"远距离、高精度、抗干扰"的三维环境感知能力,支撑复杂场景下的路径规划、避障决策与目标定位。激光雷达是机器人拓展复杂环境应用的关键设备,其性能直接决定了机器人的环境适应能力与自主运行可靠性。
8.2.3 触觉与压力阵列
触觉与压力阵列是机器人接触式感知的核心组件,核心定位是通过分布式传感单元捕获接触面的压力分布、接触位置、受力大小及动态变化,将接触力学信号转化为量化数据,让机器人具备"触觉感知"能力。其核心目标是解决机器人"接触无反馈"的局限,实现对抓取力度、物体形态、表面材质的精准判断,适配工业精密抓取、服务人机交互、医疗康复辅助等场景,是机器人安全高效完成接触式操作的关键感知设备。
- 核心设计要点
触觉与压力阵列的设计需围绕"感知精度、集成适配、环境耐受、信号可靠"四大核心,聚焦实用需求精简冗余:
(1)感知精度与分辨率:匹配接触式操作需求
- 工业精密抓取≥10×10像素/cm²,服务交互场景≥5×5像素/cm²,医疗场景≥15×15像素/cm²;
- 力敏范围覆盖0.1~50N/cm²,测量精度≤±2%FS,支持微小压力(≤0.5N)与过载压力(1.2倍额定值)的精准捕获;
- 具备压力分布可视化能力,可实时输出接触区域的压力梯度图,辅助判断物体受力均衡性。
(2)结构集成与防护:适配不同接触场景
- 具体形态:分柔性、刚性两种,柔性阵列(厚度≤2mm)适配指尖、曲面接触(如夹爪、仿生手),刚性阵列适配平面接触(如工作台、机械臂接触面);
- 安装方式:有粘贴式、嵌入式,嵌入式设计不突出接触面,避免干涉操作;
- 防护等级:工业场景≥IP65(防油污、防尘),服务场景≥IP67(防水溅),医疗场景需耐消毒(酒精、高温)、生物相容(ISO 10993标准);
- 材质:选用耐磨、柔性材料,柔性阵列采用硅胶基底+导电高分子,刚性阵列采用铝合金基底+传感膜,使用寿命≥10⁶次接触循环。
(3)信号处理与响应:保障实时反馈
- 响应时间≤1ms(工业高速抓取)、≤5ms(服务交互),避免因信号延迟导致操作失误;
- 内置信号滤波与降噪模块,抑制环境干扰(温度漂移≤±1%FS/-40~85℃),支持零点自动校准;
- 数据输出支持并行/串行传输,兼容CAN、USB接口,通信协议适配ROS、EtherCAT,数据更新率≥100Hz。
(4)适配性设计:兼容多场景操作
-
尺寸可定制,指尖适配型最小≥10×10mm,工作台适配型最大≤500×500mm,支持拼接扩展;
-
柔性阵列可弯曲(弯曲半径≤5mm),适配异形接触面(如弧形夹爪、仿生指尖);
-
低功耗设计,工作功耗≤2W(工业级)、≤0.5W(服务级),适配机器人末端供电需求。
-
典型类型与应用场景
(1)电阻式触觉阵列:低成本通用场景选型
- 工作原理:通过压力导致导电层接触电阻变化感知压力,结构简单、成本低廉;
- 核心特点:力敏范围宽、稳定性强,但响应速度中等,适合静态/低速接触场景;
- 典型应用:工业夹爪抓取力反馈(如易碎品、异形件抓取力度均衡控制)、服务机器人接触面压力检测(如轮椅坐垫压力分布)。
(2)电容式触觉阵列:高精度动态场景优选
- 工作原理:利用压力改变电极间距或介电常数,实现高分辨率压力感知;
- 核心特点:响应速度快、空间分辨率高,支持动态压力捕获,但易受湿度干扰;
- 典型应用:仿生手指尖感知(如识别物体形状、纹理)、工业精密装配(如零件贴合压力控制)、服务机器人人机交互(如握手力度调节)。
(3)压电式触觉阵列:动态冲击场景适配
-
工作原理:通过压电材料(如PVDF)将压力转化为电信号,擅长捕获瞬时力变化;
-
核心特点:响应时间≤0.5ms、抗过载能力强,适合高速接触与冲击检测;
-
典型应用:高速抓取机器人(如流水线分拣)、医疗康复机器人(如步态压力监测)、工业冲压过程力反馈。
-
关键技术要求
-
感知指标:空间分辨率≥5×5像素/cm²,力敏范围0.1~50N/cm²,测量精度≤±2%FS;
-
动态性能:响应时间≤5ms,数据更新率≥100Hz,温度漂移≤±1%FS/-40~85℃;
-
环境耐受:防护等级≥IP65(工业)、≥IP67(服务),耐磨寿命≥10⁶次循环;
-
兼容性:支持USB/CAN接口,兼容ROS/EtherCAT协议,可与机器人控制系统无缝对接;
-
结构参数:柔性阵列厚度≤2mm、弯曲半径≤5mm,刚性阵列厚度≤5mm。
-
典型产品
例如图8-7是是帕西尼感知科技的PX6AX-GEN3-CP-M3025-Core指腹传感器,是适配人形机器人灵巧手的触觉感知组件。它的规格为30mm×25mm×8mm,紧凑小巧的尺寸刚好匹配指腹空间,便于集成在人形机器人的手指部位。作为ITPU系列的触觉产品,它具备多维力感知能力,能精准捕捉接触时的压力、力矩等信息,可支撑机器人完成精细抓取、物体材质辨识等操作,是提升人形机器人触觉交互精度与灵巧性的核心部件之一。

图8-7 PX6AX-GEN3-CP-M3025-Core指腹传感器
总之,触觉与压力阵列的核心价值是为机器人赋予"触觉反馈能力",通过精准捕获接触压力信息,支撑抓取力度调节、物体形态识别、交互安全控制等关键操作。不同类型的触觉阵列精准匹配接触式操作细分场景,是机器人提升操作安全性、适应性与智能化水平的关键组件。