GPT-4V在自动驾驶corner case识别考试的答卷:你打几分?
题记
图森中国CTO王乃岩用五个case对GPT-4V(ChatGPT推出的图像理解功能)在自动驾驶场景中的表现做了测试,令人印象深刻。
5个case不够过瘾,于是我准备在更多的case上测试GPT-4V,对其在自动驾驶场景中的图片理解能力有更进一步的理解。
数据集
自动驾驶传统的感知模型,需要标注交通灯、交通标志、道路标线、车辆、行人等各种类别的大量数据。一个难点就是那些出现情况比较少、人工标注很难覆盖到的corner case。为此,这次测试我专门找到了CODA,这个华为发布的自动驾驶corner case数据集。
人力所限,我只用到了CODA base val set这个子集,包含4884张图片,标注信息中包括29个类别的元素:
Prompt
此次测试使用的Prompt为:
你是一个自动驾驶专家,专长是识别交通场景,并做出驾驶决策。我将向你展示一系列自车拍摄的交通图片,请用精简、结构化的语言描述图中的道路状况、交通标识、交通参与者(可见范围内的所有行人、车辆等目标的特征、方位、行驶方向等)、周围环境、异常情况、自动驾驶策略。
说明与结论
下面的测试结果,以图片展现为主,我会用箭头➡️标识重要的关注点,用圆圈⭕️圈出GPT-4V相应的输出,绿色标识理解准确✅,红色标识理解有误❌。话不多说,请各位读图感受。
下文多图流量预警,所以先上结论:
-
在自动驾驶场景中,GPT-4V大模型以非常高的准确性,在路面修补、施工区域、工程车、雨雾、特殊行人、狗子等corner case中,表现优秀,展现出远超自动驾驶感知模型的世界知识。
-
在夜色、炫光,以及目标互相交叠的场景中,GPT-4V的表现差强人意,其空间感知能力弱,幻觉严重。
这个结论是在多场景下与GPT-4V对话得到的定性结论,主观性较强。 "如何定量地衡量视觉大模型在自动驾驶场景的表现?" 这个问题也在测试过程中不断在脑袋中回响。现在我有一些零散的想法,如果你也感兴趣,欢迎在文末的评论区留言交流。
以下就是本次测试的场景,包括:
-
那路
-
那车
-
那人
-
那狗
-
像雾,像雨,像雪
-
夜色,炫光
-
西湖,走走
那路
雨后湿滑
修修补补
高架桥下
金属板材
土方堆积
建筑框架
那车
中国道路上那些狂野的车们。
工程车:靠得太近,误认为合体
作业平台
混凝土搅拌机
还有这样的
三轮车:挺别致
外卖
运输车:谁敢比我长
装点货
那人
人在旅途
重叠遮挡
手里有个啥?
送水的人
几多车,几多人
孩子呢
那狗
狗子
这个误会大了
"那人好像一条狗啊!"
我牵着你
荒村,黑狗
穿行中,勿扰
我是一只狗,不是一只羊
像雾,像雨,像雪
"天空它下着沙"
下雨🌧了,快回家
因为雨天,所以卡车?
快到雪地里撒个欢
雨天路滑
打伞的人,还有雕塑
夜色,炫光
夜色温柔
你的影子无所不在
红的不是车,是光
还这么坚持?
亮瞎了!
西湖,走走
绿杨烟里
白沙堤
以上就是我这次测试的所有出题和GPT-4V的答卷,你会给它打几分?
由于时间关系,我没有对GPT-4V在每个case上追问更多问题,就它第一次回答直接做了判卷。也许深入的发问,可以让它消除一些幻觉。同时,Prompt可以进一步优化,以获得更加丰富和结构化的结果。大家可以进一步探索。