具身智能

人工智能培训7 小时前
人工智能·多模态学习·具身智能·ai培训·人工智能工程师·物理定律
具身智能如何让智能体理解物理定律?具身智能的核心价值的是让智能体摆脱纯抽象符号的认知局限,通过“身体”(硬件载体)与物理世界的动态交互,将物理定律内化为可感知、可预测、可复用的行动能力——这区别于传统AI仅通过数据统计记忆物理规律,而是像人类婴儿学步般,在“感知-行动-反馈”的闭环中,真正“领悟”重力、摩擦、动量等定律的本质,其实现路径可分为四大核心环节,且各环节相互支撑、闭环迭代。
人工智能培训1 天前
多模态学习·具身智能·企业ai转型·ai数字化转型
基于物理交互的具身智能决策框架设计三、 典型技术路径与代表性工作四、 工程落地中的关键挑战五、 未来展望:走向“物理常识”驱动的智能六、结语
AI猫站长2 天前
人工智能·机器人·苹果·具身智能·project·灵心巧手
快讯|清华&上海期智研究院开源Project-Instinct框架,攻克机器人“感知-运动”割裂核心难题;灵心巧手入选毕马威中国“第二届智能制造科技50”榜单🐾 过去24小时,具身智能/AI行业一端是政策、资本与顶尖学术机构合力,为产业的未来搭建更坚实的地基;另一端,新旧玩家则在商业化与生存的现实中奋力搏击,接受最严酷的检验。
人工智能培训3 天前
语言模型·llm·数据采集·模型量化·多模态学习·具身智能·环境感知
具身智能如何在保证安全的前提下高效探索学习?具身智能的核心的是通过物理实体与环境的交互获取认知、优化行为,其探索学习本质是“试错—反馈—迭代”的循环。但物理交互的不可逆性(如机器人碰撞损坏、误触危险设备),使得“安全”与“高效”成为核心矛盾——过度强调安全会导致探索保守、学习低效,盲目追求高效则可能引发安全事故。结合当前技术研究成果,需从安全边界构建、学习范式优化、技术协同支撑三个层面系统设计,实现二者动态平衡,让具身智能既能“大胆探索”,也能“守住底线”。
AI猫站长3 天前
人工智能·机器人·具身智能·灵心巧手·央视
快讯|灵心巧手旗下钢琴机器人将组建“机器人F4”登陆央视迎春🐾 过去的24个小时,具身智能 / AI 赛道都发生了哪些新闻呢?灵心巧手旗下灵心乐府钢琴机器人将登录央视开启AI迎春序章,大洋两岸的巨头们用实际行动诠释了何为“All in”,从芯片底层战到太空基建,从百亿红包到百亿融资,没有一处战场是冷清的。各位系好安全带,我们直击前线。
杀生丸学AI4 天前
人工智能·扩散模型·具身智能·视频生成·世界模型·自回归·空间智能
【世界模型】AI世界模型的两次物理大考(测评)如果你让当今最先进的AI视频模型生成一段“冰块落入温水”的视频,你很可能会得到一个画质惊艳、光线完美、动态流畅的短片。它几乎能以假乱真。
feasibility.4 天前
人工智能·python·大模型·nlp·llama·多模态·具身智能
多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例克隆https://github.com/QwenLM/Qwen3-VL项目,方便之后研究阿里官方的代码,当然你也可以不克隆项目,毕竟Llama-Factory这个一站式大模型训练与微调平台对大多数个人开发者使用主流模型是简单且够用的。
传说故事4 天前
论文阅读·具身智能
【论文阅读】PROGRESSLM: 迈向VLM的Progress推理1.题目: PROGRESSLM: Towards Progress Reasoning in Vision-Language Models 2.时间: 2026.01 3.机构: Northwestern University, Arcadia University 4.3个英文关键词: Progress Reasoning, Vision-Language Models (VLMs), Robotic Manipulation
传说故事5 天前
人工智能·机器人·具身智能
【论文自动阅读】未来光流预测提升机器人控制与视频生成1.题目: Future Optical Flow Prediction Improves Robot Control & Video Generation 2.时间: 2025.08 3.机构: Salesforce AI Research, Stony Brook University 4.3个英文关键词: Future Optical Flow, Vision-Language Model (VLM), Diffusion
传说故事5 天前
论文阅读·学习·机器人·具身智能
【论文阅读】Being-H0.5:规模化以人为中心的机器人学习以实现跨具身化泛化1.题目: Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization 2.时间: 2026.01 3.机构: BeingBeyond Team 4.3个英文关键词: Vision-Language-Action (VLA), Human-Centric Learning, Cross-Embodiment Generalization
传说故事5 天前
论文阅读·具身智能
【论文阅读】SILENTDRIFT利用action chunking对VLA进行隐蔽后门攻击1.题目: SILENTDRIFT: Exploiting Action Chunking for Stealthy Backdoor Attacks on Vision-Language-Action Models 2.时间: 2026 (推断基于arXiv引用的2025年文献及当前时间) 3.机构: University of Southern California, University of Central Florida, Illinois Institute of Technology 4.3
人工智能培训5 天前
人工智能·大模型·知识图谱·具身智能·人工智能 培训·企业人工智能培训
如何将模拟器中的技能有效迁移到物理世界?模拟器凭借无风险、高效率、低成本的优势,已成为机器人、自动驾驶、工业操作等领域技能训练的核心场景——无论是波士顿动力Atlas机器人在仿真中练习上千次后空翻,还是工业机械臂模拟抓取精度达99%,仿真训练都能快速积累海量操作经验。但当这些在虚拟场景中“炉火纯青”的技能迁移到物理世界时,往往会因“现实差距”出现性能骤降,甚至完全失效。要实现技能的有效迁移,核心是**缩小虚拟与现实的环境、感知、动力学差异**,通过科学的技术路径和落地流程,让虚拟训练的策略适配真实世界的复杂性,具体可从以下四大维度推进。
传说故事5 天前
人工智能·具身智能
【论文自动阅读】RoboBrain 2.01.题目: RoboBrain 2.0 Technical Report 2.时间: 2025 (基于参考文献推断,文中图表引用了2025年的数据) 3.机构: BAAI RoboBrain Team (北京智源人工智能研究院) 4.3个英文关键词: Embodied AI, Spatial Reasoning, Temporal Planning
攻城狮7号6 天前
人工智能·机器人·具身智能·宇树科技·unifolm-vla-0
宇树 开源 UnifoLM-VLA-0 大模型:给人形机器人装上通用的“直觉大脑”目录前言一、告别“特长生”,迎接“全能王”二、VLA:当大模型长出了“手”三、“No Thinking”模式:直觉比思考更重要
传说故事6 天前
人工智能·具身智能
【论文自动阅读】GREAT MARCH 100:100项细节导向任务用于评估具身AI agent1.题目: THE GREAT MARCH 100:100 DETAIL-ORIENTED TASKS FOR EVALUATING EMBODIED AI AGENTS 2.时间: 2026.01 3.机构: ISJTU, SII, RHOS.ai, Robbyant, Antgroup 4.3个英文关键词: Robot Learning, Task Design, Evaluation Benchmark
机器觉醒时代6 天前
机器人·ai大模型·具身智能·人形机器人
Helix 02 :移动+操作融合,解锁人形机器人全身控制的VLA模型移动操作一直是人形机器人领域的关键挑战。真正的难点不在于实现其中任何一种单一能力,而在于将二者无缝融合为单一、连贯的行为。
具身智能之心6 天前
具身智能·机器人抓取
智源x清华团队推出DKT:秒解透明物体的感知,机器人抓取任务上“质的提升”透明和强反射物体一直是感知系统中的难题:折射、反射与透射效应破坏了立体视觉、ToF 以及纯判别式单目深度方法所依赖的基本假设,导致深度估计中出现空洞,并在时间维度上表现出明显的不稳定性。
曾小蛙7 天前
具身智能·lingbot-vla·lingbot-depth
【论文+VLA】2601.蚂蚁灵波开源LingBot-VLA能拿透明玻璃杯( LingBot-Depth感知增强)【论文】一种实用的VLA基础模型 —— 2601.A Pragmatic VLA Foundation Model 【项目主页】:https://technology.robbyant.com/lingbot-vla
具身智能之心7 天前
具身智能·vlm·iclr 2026
ICLR 2026中稿工作VLASER: 究竟哪些多模态能力和数据对提升机器人的控制表现最关键?在具身智能(Embodied AI)的浪潮中,研究界致力于将强大的视觉-语言模型(VLM)转化为具备机器人操控能力的 Vision-Language-Action (VLA) 模型 。然而,这一转化过程面临着一道巨大的“鸿沟”:上游 VLM 通常依托海量互联网数据预训练,拥有卓越的通用推理能力;而下游 VLA 却需要在具体的物理环境中实现精准的动作控制 。
亚鲁鲁7 天前
机械臂·具身智能·deepseek·物理ai
具身智能-机械臂项目实战写作目标:生物的进化:与外界交互的循环传统大模型与具身智能区别:是否有与外界的交互特点:具身智能不是一种简单的机器人+AI,它是一种全新的模式。它让物理的实体智能体能够在物理世界与环境进行实时的闭环交互,通过不断的试错来理解世界,最终完成复杂的任务。