具身智能

视觉语言导航4 天前
人工智能·深度学习·具身智能
ICASSP-2025 | 国防科大具身导航高效记忆与推理!GAR:基于图感知推理与双向选择的视觉语言导航作者: DongmingZhou, JinshengDeng, ZhengbinPang, WeiLi
一点人工一点智能5 天前
机器人·具身智能·模仿学习
让机器人学会“读心术“:FABG如何实现情感零延迟交互?编辑:陈萍萍的公主@一点人工一点智能让机器人学会"读心术":FABG如何实现情感零延迟交互?【机器人秒变读脸专家!】VR眼动追踪+58组表情传感器,连你挑眉的0.1秒微表情都能实时克隆!独家预测算法预判人类情绪,25自由度机械脸竟比人类反应更快…https://mp.weixin.qq.com/s/sTXIxFy585XoAMo6wneHaw
ModestCoder_6 天前
强化学习·具身智能
Ubuntu20.04系统安装IsaacSim4.5与IsaacLab环境今天用自己的Ubuntu20.04系统安装最新更新的IsaacSim 4.5 与 最新版的IsaacLab遇到了问题,且这个问题组里师兄之前也遇到了,我的解决方法是从头来过,所及记录一下。
一点人工一点智能13 天前
机器人·具身智能·足式机器人
HOVER:人形机器人的多功能神经网络全身控制器编辑:陈萍萍的公主@一点人工一点智能HOVER:人形机器人的多功能神经网络全身控制器HOVER通过策略蒸馏和统一命令空间设计,为人形机器人提供了通用、高效的全身控制框架。https://mp.weixin.qq.com/s/R1cw47I4BOi2UfF_m-KzWg
视觉语言导航15 天前
人工智能·机器人·具身智能
中科院自动化所人形机器人研究进展:全面综述与展望作者:Yuchuang Tong, Haotian Liu, and Zhengtao Zhang单位:中国科学院自动化研究所,中国科学院大学人工智能学院
紫雾凌寒18 天前
人工智能·计算机视觉·cnn·transformer·具身智能·ei
计算机视觉|首次写入政府工作报告!这个科技新词“具身智能”到底是什么?具身智能(Embodied Intelligence) 是人工智能领域的关键研究方向,强调智能体通过物理实体与环境交互实现认知和智能行为。与传统人工智能基于静态数据和符号推理不同,具身智能依赖动态感知与动作的协同作用。智能体通过传感器(如摄像头、激光雷达、触觉传感器)采集环境信息,经过内部决策生成动作,并在执行中实时调整,形成 “感知-思考-行动” 的闭环。例如,人形机器人在室内导航时,利用摄像头捕捉墙壁和家具布局,结合激光雷达测量距离,决策移动方向并避开障碍物。这一过程模拟了人类通过视觉、听觉和肢体协作
视觉语言导航18 天前
人工智能·深度学习·具身智能
清华大学城市空间具身连续视觉感知问答基准测试!UrbanVideo-Bench:首个针对多模态大模型的运动认知评估数据集作者:Baining Zhao, Jianjie Fang, Zichao Dai, Ziyou Wang, Jirong Zha, Weichen Zhang, Chen Gao, Yue Wang, Jinqiang Cui, Xinlei Chen, Yong Li
视觉语言导航21 天前
人工智能·深度学习·具身智能
RAG助力机器人场景理解与具身操作!EmbodiedRAG:基于动态三维场景图检索的机器人任务规划随着机器人环境规模的扩大和场景图信息复杂性的增加,直接将3D场景图(3DSGs)提供给基于大模型(LLMs)的规划器变得不可行,主要由于输入token数量限制和LLMs中的注意力偏差。
视觉语言导航1 个月前
人工智能·深度学习·具身智能
微软具身智能感知交互多面手!Magma:基于基础模型的多模态AI智能体作者: Jianwei Yang, Reuben Tan, Qianhui Wu, Ruijie Zheng, Baolin Peng, Yongyuan Liang, Yu Gu, MuCai, SeonghyeonYe, JoelJang, Yuquan Deng, Lars Liden, Jianfeng Gao
一点人工一点智能1 个月前
机器人·视觉语言模型·具身智能·人形机器人
Harmon:从语言描述中生成人形机器人的全身动作编辑:陈萍萍的公主@一点人工一点智能Harmon | 从语言描述中生成人形机器人的全身动作这篇论文介绍了一种名为“HARMON”的方法,用于从自然语言描述中生成人形机器人的全身运动。https://mp.weixin.qq.com/s/AYwufIE_cABB1e3jTTHeQQ
视觉语言导航1 个月前
人工智能·具身智能
NeurIPS-2024 | 具身智能如何理解空间关系?SpatialRGPT:视觉语言模型中的具象空间推理作者:An-Chieh Cheng, Hongxu Yin, Yang Fu, Qiushan Guo, Ruihan Yang, Jan Kautz, Xiaolong Wang, Sifei Liu
视觉语言导航1 个月前
人工智能·机器人·具身智能
ICML-2024 | 具身智能如何数据自由?RoboGen:基于生成式模拟实现全自动无限数据机器人学习作者:Yufei Wang, Zhou Xian, Feng Chen, Tsun-Hsuan Wang, Yian Wang, Katerina Fragkiadaki, Zackory Erickson, David Held, Chuang Gan
天机️灵韵2 个月前
人工智能·机器人·具身智能
主动视觉可能就是你所需要的:在双臂机器人操作中探索主动视觉AV-ALOHA 系统使用用于 AV 的 VR 耳机实现直观的数据收集,并且 用于作的 VR 控制器或引线臂。这有助于捕捉全身和头部 远程作我们的真实和模拟系统的运动,记录来自 6 个的视频 不同的摄像头,并为我们的 AV 仿制学习策略提供训练数据。
天机️灵韵2 个月前
人工智能·物联网·具身智能
天神之眼vs华为智驾“天神之眼”和“华为智驾”分别是比亚迪和华为在智能驾驶领域推出的技术方案,两者均代表了国内顶尖的自动驾驶技术水平,但在技术路线、功能侧重和生态布局上存在差异。以下是两者的对比分析:
视觉语言导航2 个月前
人工智能·深度学习·机器人·具身智能
具身导航、一环通达!RING:机器人室内导航通用策略现有的导航策略大多是特定于某个机器人配置的,无法很好地泛化到其他机器人上,即使是小的身体尺寸或相机视角的变化也可能导致失败。
Big David2 个月前
机器人·具身智能
机器人基础&&深度学习基础参考: (1)【具身抓取课程-1】机器人基础 (2)【具身抓取课程-2】深度学习基础从平面二连杆理解机器人学
datamonday2 个月前
扩散模型·具身智能·rdt·vla·dit
[EAI-027] RDT-1B,目前最大的用于机器人双臂操作的机器人基础模型论文标题:RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation 论文作者:Songming Liu, Lingxuan Wu, Bangguo Li, Hengkai Tan, Huayu Chen, Zhengyi Wang, Ke Xu, Hang Su, Jun Zhu 论文链接:https://arxiv.org/abs/2410.07864v1 项目主页:https://rdt-robotics.github.io/rdt-
视觉语言导航2 个月前
人工智能·深度学习·具身智能
构建具身智能体的时空宇宙!GRUtopia:畅想城市规模下通用机器人的生活图景作者: Hanqing Wang, Jiahe Chen, Wensi Huang, Qingwei Ben, Tai Wang, Boyu Mi, Tao Huang, Siheng Zhao, Yilun Chen, Sizhe Yang, Peizhou Cao, Wenye Yu, Zichao Ye, Jialun Li, Junfeng Long, Zirui Wang, Huiling Wang, Ying Zhao, Zhongying Tu, Yu Qiao, Dahua Lin, Ji
datamonday2 个月前
扩散模型·具身智能·vla·vlm·diffusionvla
[EAI-028] Diffusion-VLA,能够进行多模态推理和机器人动作预测的VLA模型论文标题:Diffusion-VLA: Scaling Robot Foundation Models via Unified Diffusion and Autoregression 论文作者:Junjie Wen, Minjie Zhu, Yichen Zhu, Zhibin Tang, Jinming Li, Zhongyi Zhou, Chengmeng Li, Xiaoyu Liu, Yaxin Peng, Chaomin Shen, Feifei Feng 论文链接:https://arxiv
Big David2 个月前
算法·机器人·具身智能
机器人抓取与操作经典规划算法(深蓝)——2位姿估计:(1)相机系位姿 (2)机器人系位姿 抓取位姿:(1)抓取位姿计算 (2)抓取评估和优化 路径规划:(1)笛卡尔空间点 (2)IK求解 (3)关节空间插值 任务规划:(1)装配任务 (2)派件任务(TSP问题,VRP问题)