LINGO-1 - 自动驾驶的 视觉语言动作模型

文章目录



【LINGO-1:将自然语言应用于无人驾驶增强学习和可解释性】

  • 探索将视觉、语言和行动相结合的视觉语言行动模型(VLAM),以增强自动驾驶模型的解释性和训练效果。
  • 构建包含图像、语言和行动的数据集,通过专家驾驶员讲解的方式收集。
  • 开发了LINGO-1开环驾驶评论模型,可以生成驾驶评论和回答视觉问题。
  • LINGO-1可以增强闭环驾驶模型的规划和推理,优化少样本学习,应对长尾场景。
  • 当前局限还包括泛化能力有限、存在幻觉、上下文能力等。
  • 自然语言具有提高自动驾驶安全性、可解释性、可靠性的潜力,是值得探索的方向。

"链式思维"自动驾驶------自动驾驶系统能够"大声思考"并用文字表述出来!

LINGO-1是我最近一段时间读到的关于自动驾驶领域最有趣的研究。

以前的模式是:感知 -> 驾驶行动

现在的模式是:感知 -> 文本推理 -> 行动

LINGO-1通过训练一个视频-语言模型来对正在进行的场景评论。你可以让它解释自己的决策和计划(例如:"你为什么停下来?"、"你接下来打算做什么?")。


明确的推理步骤带来了几个关键的优势:

  • 可解释性:驾驶模型不再是一个神秘的黑箱,你对其安全性一无所知。
  • 反事实情景:它能够想象训练数据中没有的场景,并通过推理来正确处理这些场景。
  • 长尾编程:驾驶中有太多的边缘场景。对所有场景进行良好的数据覆盖是不可能的。现在,你不再需要收集成千上万的数据案例来"神经编程"某一个案例,而是可以通过编写简短的文本提示(prompts),由人类专家解释和指导系统如何处理某些特定或复杂的情景。

LINGO-1与游戏AI领域的一些研究密切相关:

  • MineDojo : https://minedojo.org
    学习一个奖励模型,将我的世界(Minecraft)的游戏视频与它们的文字记录对齐。
    这种模型,叫做"MineCLIP",能够将评论文本与视频像素关联起来。
  • 思维克隆(由Jeff Clune提出):在像素世界中实现像素 -> 语言 -> 行动的循环。

2023-10-07

相关推荐
量子-Alex4 小时前
【多模态大模型】Qwen2-VL项目代码初步解析
人工智能
飞鹰514 小时前
深度学习算子CUDA优化实战:从GEMM到Transformer—Week4学习总结
c++·人工智能·深度学习·学习·transformer
工程师老罗4 小时前
Pytorch如何验证模型?
人工智能·pytorch·深度学习
Hi_kenyon4 小时前
Skills精选
人工智能
沈浩(种子思维作者)4 小时前
铁的居里点(770度就不被磁铁吸了)道理是什么?能不能精确计算出来?
人工智能·python·flask·量子计算
沛沛老爹4 小时前
Web开发者转型AI:多模态Agent视频分析技能开发实战
前端·人工智能·音视频
张小凡vip4 小时前
数据挖掘(九) --Anaconda 全面了解与安装指南
人工智能·数据挖掘
zhangfeng11334 小时前
Ollama 支持模型微调但是不支持词库,支持RAG,go语言开发的大模型的推理应用,
人工智能·深度学习·golang
格林威4 小时前
Baumer相机铆钉安装状态检测:判断铆接是否到位的 5 个核心算法,附 OpenCV+Halcon 的实战代码!
人工智能·opencv·算法·计算机视觉·视觉检测·工业相机·堡盟相机
李昊哲小课4 小时前
OpenCV Haar级联分类器人脸检测完整教程
人工智能·opencv·计算机视觉