LINGO-1 - 自动驾驶的 视觉语言动作模型

文章目录



【LINGO-1:将自然语言应用于无人驾驶增强学习和可解释性】

  • 探索将视觉、语言和行动相结合的视觉语言行动模型(VLAM),以增强自动驾驶模型的解释性和训练效果。
  • 构建包含图像、语言和行动的数据集,通过专家驾驶员讲解的方式收集。
  • 开发了LINGO-1开环驾驶评论模型,可以生成驾驶评论和回答视觉问题。
  • LINGO-1可以增强闭环驾驶模型的规划和推理,优化少样本学习,应对长尾场景。
  • 当前局限还包括泛化能力有限、存在幻觉、上下文能力等。
  • 自然语言具有提高自动驾驶安全性、可解释性、可靠性的潜力,是值得探索的方向。

"链式思维"自动驾驶------自动驾驶系统能够"大声思考"并用文字表述出来!

LINGO-1是我最近一段时间读到的关于自动驾驶领域最有趣的研究。

以前的模式是:感知 -> 驾驶行动

现在的模式是:感知 -> 文本推理 -> 行动

LINGO-1通过训练一个视频-语言模型来对正在进行的场景评论。你可以让它解释自己的决策和计划(例如:"你为什么停下来?"、"你接下来打算做什么?")。


明确的推理步骤带来了几个关键的优势:

  • 可解释性:驾驶模型不再是一个神秘的黑箱,你对其安全性一无所知。
  • 反事实情景:它能够想象训练数据中没有的场景,并通过推理来正确处理这些场景。
  • 长尾编程:驾驶中有太多的边缘场景。对所有场景进行良好的数据覆盖是不可能的。现在,你不再需要收集成千上万的数据案例来"神经编程"某一个案例,而是可以通过编写简短的文本提示(prompts),由人类专家解释和指导系统如何处理某些特定或复杂的情景。

LINGO-1与游戏AI领域的一些研究密切相关:

  • MineDojo : https://minedojo.org
    学习一个奖励模型,将我的世界(Minecraft)的游戏视频与它们的文字记录对齐。
    这种模型,叫做"MineCLIP",能够将评论文本与视频像素关联起来。
  • 思维克隆(由Jeff Clune提出):在像素世界中实现像素 -> 语言 -> 行动的循环。

2023-10-07

相关推荐
资讯分享周8 分钟前
BOE(京东方)“向新2025”年终媒体智享会落地成都 持续创新引领产业步入高价值增长新纪元
人工智能·媒体
IT古董15 分钟前
【漫话机器学习系列】014.贝叶斯法则(Bayes Theorem)
人工智能·机器学习
Crossoads1 小时前
【汇编语言】端口 —— 「从端口到时间:一文了解CMOS RAM与汇编指令的交汇」
android·java·汇编·深度学习·网络协议·机器学习·汇编语言
拓端研究室2 小时前
【专题】2024年悦己生活消费洞察报告汇总PDF洞察(附原数据表)
人工智能
月眠老师2 小时前
拓展AI超级智能后的人类生活场景
人工智能·生活
是十一月末2 小时前
Opencv实现图片的边界填充和阈值处理
人工智能·python·opencv·计算机视觉
机智的叉烧3 小时前
前沿重器[57] | sigir24:大模型推荐系统的文本ID对齐学习
人工智能·学习·机器学习
凳子花❀3 小时前
强化学习与深度学习以及相关芯片之间的区别
人工智能·深度学习·神经网络·ai·强化学习
泰迪智能科技015 小时前
高校深度学习视觉应用平台产品介绍
人工智能·深度学习
盛派网络小助手5 小时前
微信 SDK 更新 Sample,NCF 文档和模板更新,更多更新日志,欢迎解锁
开发语言·人工智能·后端·架构·c#