家用扫地机器人结构光
核心逻辑一句话讲清:用红外光打特殊光斑→相机拍光斑→算法算光斑偏移→算出物体距离→机器人避障/建图。
一、先搞懂:结构光在扫地机器人里到底干啥?
扫地机器人要想不乱撞、不乱跑,必须知道前方哪里有墙、椅子、拖鞋,距离多远。
结构光系统就是它的「红外眼睛+大脑」:
• 光学部分:负责发射红外光斑、清晰接收光斑;
• 算法部分:负责看懂光斑、算出距离、指挥机器人。
二、光学工程师具体干啥?(通俗拆解,不搞复杂参数)
- 投射端:给环境「撒光斑」
就像往地面撒一层看不见的红外芝麻(散斑),光学工程师要做好3件事:
-
选光源:用850nm红外VCSEL灯,比普通灯更集中、不怕阳光干扰,家庭阳台强光下也能看清光斑;
-
做投射透镜:用微透镜+非球面透镜,把灯的光变成均匀的10万个小光斑,覆盖机器人前方0.3-3米范围(刚好是扫地机器人的工作距离);
-
控散热:扫地机要一直工作,得保证灯不发烫,否则光斑会飘,算法算距离就不准。
-
接收端:给光斑「拍清晰照」
相当于给机器人装一个专用红外相机,光学工程师要做好3件事:
-
选镜头:配4片塑料镜头(含1片非球面),让相机能拍清近距离、远距离的光斑,同时体积小,能塞进机器人肚子里;
-
抗干扰:加一层850nm专用滤光片,挡住阳光、灯光的杂光,只让红外光斑进来,不然照片全是噪点,算法看不懂;
-
控画质:保证拍出来的光斑清晰、不模糊,这样算法才能准确找光斑。
-
校准:调准「眼睛和灯的位置」
投射灯和相机不在同一个位置,必须校准对齐:
• 测准镜头的焦距、畸变,测准灯和相机的间距;
• 把结构光的坐标系和机器人的运动坐标系对齐,不然算出的距离和机器人实际位置对不上。
- 量产落地:保证批量做出来都好用
• 做公差测试:保证透镜、镜头的尺寸误差在很小范围内,批量生产时96%以上的产品都能达标;
• 选材料:消费级用便宜的塑料透镜,兼顾性能和成本。
三、算法工程师具体干啥?(通俗拆解,无复杂公式)
算法的核心就是看懂相机拍的光斑,算出物体距离,分4步,像玩拼图:
- 预处理:把照片「修干净」
相机拍回来的图有噪点、光斑边缘模糊,算法先做两步:
• 矫正镜头畸变:把拍歪的光斑修正;
• 去噪、提亮:去掉杂光,让所有光斑都清晰可见。
- 找光斑:把每一颗「芝麻」认出来
在干净的照片里,把10万个散斑一个个找出来,标记每个光斑的位置。
- 算距离:用「三角形」原理算深度
这是核心!投射灯和相机有个固定间距(比如15毫米),就像人的两只眼睛:
• 光斑在相机里的位置会因为物体远近发生偏移(专业叫视差);
• 算法利用「灯-相机-光斑」形成的三角形,算出光斑到机器人的距离。
- 生成地图+避障:指挥机器人
• 把所有光斑的距离拼成3D点云(相当于环境的3D轮廓);
• 识别出墙、桌子、拖鞋等障碍物,规划出扫地的路线,避开所有东西。
四、光学+算法怎么配合?(最关键的协同逻辑)
两者不是各干各的,而是互相补短板:
- 光学给算法打基础:
光学做出均匀、清晰、抗干扰的光斑,算法找光斑、算距离就会又快又准,不用消耗太多算力;
- 算法补光学的短板:
光学识别不了透明玻璃、反光金属,算法就通过纹理、深度连续性,补全这些盲区;
- 双向优化:
算法发现边缘光斑不准,光学就调整透镜公差;光学优化了散斑分布,算法匹配速度就翻倍。