从生物学到机械:人眼如何为机器人视觉系统提供无尽灵感?

人眼激发了相机机制的发展,该机制改善了机器人对周围世界的观察和反应方式。

该摄像头系统由马里兰大学(UMD)计算机科学家领导的团队开发,模仿人眼用于保持清晰稳定的视力的不自主运动。

该团队对相机的原型设计和测试称为人工微扫视增强事件相机(AMI-EV),详见Science Robotics。

"事件相机是一种相对较新的技术,比传统相机更能跟踪移动物体,但今天的事件相机在涉及大量运动时很难捕捉到清晰,无模糊的图像,"该论文的主要作者,计算机科学博士生Botao He说。"这是一个大问题,因为机器人和许多其他技术(例如自动驾驶汽车)依赖于准确和及时的图像来对不断变化的环境做出正确反应。因此,我们问自己:人类和动物如何确保他们的视觉始终集中在移动的物体上?

答案是微眼跳,这是一种小而快速的眼球运动,当一个人试图聚焦他们的视线时,会不由自主地发生。通过这些微小而连续的运动,人眼可以随着时间的推移准确地将焦点集中在物体及其视觉纹理上,例如颜色、深度和阴影。


UMD 计算机科学家 Botao He、Yiannis Aloimonos、Cornelia Fermuller、Jinxi Chen 和 Chahat Deep Singh 开发的新型相机系统图

根据UMD的说法,该团队通过在AMI-EV内部插入旋转棱镜来重定向镜头捕获的光束,从而复制了微扫视。棱镜的连续旋转运动模拟了人眼内自然发生的运动,使相机能够像人类一样稳定记录物体的纹理。然后,该团队开发了软件来补偿AMI-EV内棱镜的运动,以整合来自移动灯光的稳定图像。

"我们的眼睛拍摄我们周围的世界的照片,这些照片被发送到我们的大脑,在那里对图像进行分析。感知是通过这个过程发生的,这就是我们理解世界的方式,"该研究的合著者、马里兰大学高级计算机研究所(UMIACS)计算机视觉实验室主任Yiannis Aloimonos教授说。"当你使用机器人时,用相机代替眼睛,用计算机代替大脑。更好的相机意味着机器人有更好的感知和反应。

在早期测试中,AMI-EV能够在各种情况下准确捕捉和显示运动,包括人体脉搏检测和快速移动的形状识别。

研究人员还发现,AMI-EV可以以每秒数万帧的速度捕捉运动,优于大多数典型的商用相机,后者平均每秒捕获30至1000帧。

该团队认为,这种更流畅、更逼真的运动描述可能在各种应用中发挥关键作用,从创建更身临其境的增强现实体验和更好的安全监控到改善天文学家在太空中捕捉图像的方式。

相关推荐
田里的水稻13 小时前
LPC_激光点云定位(LSLAM)-正态分布变换(NDT)
人工智能·算法·数学建模·机器人·自动驾驶
诸葛务农14 小时前
Kinect Azure及其在人形机器人中的应用(下)
microsoft·机器人·azure
weixin_4462608515 小时前
win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力
机器人
视觉人机器视觉16 小时前
海康机器人3D 机器人引导 —— 空间基础篇一
3d·机器人
诸葛务农17 小时前
Kinect Azure及其在人形机器人中的应用(上)
microsoft·机器人·azure
吴少风1 天前
“武BOT”将是引爆机器人应用的里程碑
机器人
Sopaco2 天前
深入浅出Agent Cortex Memory三层架构设计
人工智能·机器人
向上的车轮2 天前
养老陪护机器人,有哪些功能?
机器人
Peter·Pan爱编程2 天前
打造私有AI助理:OpenClaw + Ollama本地大模型 + 飞书机器人全接入指南
人工智能·机器人·飞书
feasibility.2 天前
用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)
人工智能·科技·机器人·飞书·agi·skills·openclaw