(论文速读)EgoLife:走向自我中心的生活助手

论文题目:EgoLife: Towards Egocentric Life Assistant(走向自我中心的生活助手)

会议:CVPR2025

摘要:我们推出了EgoLife项目,这是一个以自我为中心的生活助手,通过人工智能可穿戴眼镜陪伴并提高个人效率。为了为这款助手奠定基础,我们进行了一项全面的数据收集研究,六名参与者在一起生活了一周,持续记录他们的日常活动------包括讨论、购物、烹饪、社交和娱乐------使用人工智能眼镜进行多模式自我中心视频捕捉。伴随着同步的第三人称视角视频参考。这一努力产生了EgoLife数据集,这是一个全面的300小时以自我为中心、人际关系、多视角和多模式的日常生活数据集,带有密集的注释。利用这个数据集,我们引入了EgoLifeQA,这是一套长期上下文、以生活为导向的问答任务,旨在通过解决实际问题(如回忆过去的相关事件、监测健康习惯和提供个性化建议),为日常生活提供有意义的帮助。

为了解决以下关键技术挑战:1)为以自我为中心的数据开发鲁棒的视听模型,2)实现身份识别,以及3)促进对大量时间信息的长上下文问题回答,我们引入了EgoBulter,这是一个由EgoGPT和EgoRAG组成的集成系统。EgoGPT是一个在以自我为中心的数据集上训练的全模态模型,在以自我为中心的视频理解上实现了最先进的性能。EgoRAG是一个基于检索的组件,支持回答超长上下文问题。我们的实验研究验证了它们的工作机制,揭示了关键因素和瓶颈,指导了未来的改进。通过发布我们的数据集、模型和基准,我们的目标是促进以自我为中心的人工智能助手的进一步研究。

项目地址:https://egolife-ai.github.io/


EgoLife------开启以自我为中心的AI生活助手新时代

想象一下,未来有一个AI助手能无缝融入你的日常生活:根据你的习惯提供个性化的饮食建议,提醒你下班后要买的东西,不仅分析你的活动,还能理解你家人的需求。这样的助手将极大提升个人和人际效率,提供有意义的生活导向辅助和可操作的见解。来自南洋理工大学、北京邮电大学等机构的研究团队在CVPR 2025上发表的论文《EgoLife: Towards Egocentric Life Assistant》,正朝着这个愿景迈出了重要一步。

为什么我们需要EgoLife?

当前的自我中心视觉研究面临着显著的局限性。尽管现有数据集如Epic-Kitchen和Ego4D支持许多有价值的任务,但它们受限于相对较短的录制时长和主要的单人视角。这些限制使得它们难以捕捉全面的习惯模式和复杂的社交互动动态。

要克服这些挑战,我们需要一个能够跨越长时间活动、整合多模态数据并融入多人视角的数据集,以反映真实生活体验的复杂性。EgoLife项目应运而生。

EgoLife数据集:前所未有的规模和深度

数据收集设计

在为期一周的时间里,六名参与者共同居住在一个完全配备仪器的生活环境中,每天使用Meta Aria眼镜录制约八小时的自我中心多模态视频。这产生了EgoLife数据集,一个丰富的300小时自我中心、多模态和多视角数据集合。

多视角捕捉:

  • 6名参与者佩戴Meta Aria智能眼镜
  • 15个战略性放置的GoPro相机从多个角度记录参与者的活动
  • 毫米波雷达提供空间和运动数据

真实的生活场景

在这一周期间,参与者被要求在倒数第二天组织一次地球日派对。为了准备,他们举行会议和讨论,排练表演(如音乐和舞蹈),练习和分享烹饪技能,并装饰房子以符合地球日主题。活动甚至延伸到房子之外,参与者去购物和观光。

密集的标注体系

数据集配备了多层次的标注:

  1. 转录标注:使用语音识别生成初始带时间戳的转录,然后使用开源说话人分离算法区分说话者,产生带有重叠对话的初步转录。这50小时的转录经过仔细审核以确保准确性。

  2. 字幕标注

    • 初始标注包括361K个简短的、字幕样式的短语,平均每个标注2.65秒
    • 使用GPT-4o-mini将相关短语合并为25K个"合并字幕"
    • 通过与代表性帧(以1 FPS采样)和相应转录配对,将其扩展为"视听字幕"
  3. 活动分类:数据集涵盖14个活动类别,包括社交互动(183次)、家务(145次)、烹饪(86次)等。

EgoLifeQA:面向生活的问答基准

基于EgoLife数据集,研究团队引入了EgoLifeQA基准测试,包含3,000个长上下文、面向生活的问答对。这些问题旨在评估AI助手在真实生活场景中提供有意义帮助的能力。

五种问题类型

1. EntityLog(实体日志)

  • 示例:我们买一杯酸奶最接近哪个价格?A. 2元 B. 3元 C. 4元 D. 5元
  • 该问题类型占总数的18%需要音频信息

2. EventRecall(事件回忆)

  • 示例:计划跳舞后提到的第一首歌是什么?
  • 52%的问题需要音频信息

3. HabitInsight(习惯洞察)

  • 示例:我通常在喝咖啡时做什么活动?
  • 75%的问题需要音频信息

4. RelationMap(关系图谱)

  • 示例:Shure现在正在弹吉他。还有谁通常和我们一起弹吉他?
  • 55%的问题需要音频信息

5. TaskMaster(任务管理)

  • 示例:我的购物车里已经有很多东西了。我之前讨论过但还没买的物品是什么?
  • 86%的问题需要音频信息

认证长度分布

值得注意的是,EgoLifeQA在认证长度方面与其他基准测试有显著区别:997个问题的认证长度低于2小时,而2,003个问题超过2小时。相比之下,EgoSchema、EgoPlan-Bench、EgoThink等现有基准测试中所有问题的认证长度都低于2小时。

EgoButler:智能的自我中心生活助手系统

为了应对EgoLifeQA提出的挑战,研究团队开发了EgoButler系统,它由两个核心子系统组成。

System-I: EgoGPT------片段级理解

EgoGPT是一个基于LLaVA-OneVision微调的轻量级个性化视听语言模型。它在EgoButler中发挥两个主要功能:

  1. 连续视频字幕生成:处理每个30秒的片段,使用视觉和音频输入生成字幕
  2. 问答辅助:利用从EgoRAG检索的线索协助回答问题

训练数据:EgoIT-99K

为了更好地与自我中心视频领域对齐并整合音频理解,研究团队引入了EgoIT-99K,一个多样化且具代表性的自我中心视频数据集。该数据集包含:

  • 来自9个经典自我中心视频数据集的43.16小时视频
  • 1,529个视频(其中686个包含音频)
  • 99.48K个问答对

音频整合:

由于LLaVA-OneVision基于Qwen2构建,研究团队开发了类似Ola的音频分支,使用Whisper Large v3编码音频,并在LibriSpeech上训练音频投影模块。

个性化微调:

为了实现个性化,研究团队在EgoLife第1天的视频上微调EgoGPT,使其能够在EgoLifeQA中进行身份感知的提问。

System-II: EgoRAG------长上下文问答

EgoRAG是一个检索增强生成(RAG)系统,增强记忆和查询能力,实现个性化和长期理解。它采用两阶段方法:

1. 记忆库构建

EgoRAG与EgoGPT集成,提取视频片段字幕并将其存储在结构化记忆模块中,确保高效检索带时间戳的上下文信息。字幕由EgoGPT持续生成,并由语言模型在每小时和每日级别进行摘要,形成多级记忆库以实现可扩展检索。

记忆库M由以下组成:

  • ci:片段特征
  • di:文本描述
  • ti:带时间戳的摘要(每小时、每日)

2. 内容检索和响应生成

当提出问题时,EgoRAG通过首先检索更高级别的摘要ti并从日到小时细化搜索,来假设相关时间窗口。在选定的窗口内,使用基于相关性的评分函数执行细粒度检索。

评分函数平衡视觉和文本相关性:

复制代码
si = Similarity(q, ci) + λ·Similarity(q, di)

然后选择得分最高的top-k个片段,输入到语言模型生成回答。

实验结果:突破性的性能

EgoGPT在现有基准测试上的表现

在EgoSchema基准测试上,EgoGPT(EgoIT)达到73.2的准确率,EgoGPT(EgoIT+EgoLifeD1)达到75.4。这些成绩显著优于其他最先进的模型:

模型 参数量 EgoSchema EgoPlan EgoThink
GPT-4v - 56.6 38.0 65.5
Gemini-1.5-Pro - 72.2 31.3 62.4
GPT-4o - 72.2 32.8 65.5
LLaVA-OV 7B 60.1 30.7 54.2
Qwen2-VL 7B 66.7 34.3 59.3
EgoGPT (EgoIT) 7B 73.2 32.4 61.7
EgoGPT (EgoIT+EgoLifeD1) 7B 75.4 33.4 61.4

EgoLifeQA上的性能

在EgoLifeQA上,EgoGPT识别个体和有效整合全模态信息的能力使其区别于GPT-4o和Gemini-1.5-Pro等通用商业模型。

模型 EntityLog EventRecall HabitInsight RelationMap TaskMaster 平均
Gemini-1.5-Pro 36.0 37.3 45.9 30.4 34.9 36.9
GPT-4o 34.4 42.1 29.5 30.4 44.4 36.2
LLaVA-OV 36.8 34.9 31.1 22.4 28.6 30.8
EgoGPT (EgoIT-99K) 35.2 36.5 27.9 29.6 36.5 33.1
EgoGPT (EgoIT-99K+D1) 39.2 36.5 31.1 33.6 39.7 36.0

EgoRAG的巨大提升

EgoRAG的整合显著增强了视频语言模型在长上下文问答中的性能,特别是对于需要更长认证长度的问题。

不同认证长度下的性能对比:

模型 < 2h 2h-6h 6h-24h > 24h
Gemini-1.5-Pro 27.9 14.8 25.0 18.4
EgoGPT 28.2 29.1 26.8 25.0
EgoGPT+EgoRAG 27.2 35.7 38.9 35.4

对于跨越超过24小时的查询,EgoGPT+EgoRAG达到35.4分,而单独的EgoGPT和Gemini-1.5-Pro分别只有25.0和18.4分,展示了长期检索的关键作用。

消融实验的发现

人工标注显示,人工字幕产生最高得分(45.5),强调了高质量字幕对更好检索的重要性。

不同字幕来源的性能:

字幕来源 视觉 音频 平均分
叙述(人工) 31.5
转录(人工) 29.6
视听字幕(人工) 45.5
EgoGPT(仅音频) 27.2
EgoGPT(仅视觉) 31.2
EgoGPT(视觉+音频,EgoIT-99K) 33.1
EgoGPT(视觉+音频,EgoIT-99K+D1) 36.0

仅使用音频的模型表现最弱,而仅使用视觉的模型表现更好,表明音频本身不足以应对EgoLifeQA。结合视觉和音频输入实现了最佳性能,添加EgoLife第1天字幕后进一步改善。

定性分析:优势与挑战

研究团队通过定性实验揭示了系统的优势和局限性:

EgoGPT的优势:

  • 在个性化和上下文相关字幕方面表现出色
  • 相比通用模型,在自我中心视频上产生更少的幻觉

当前的局限性:

  • 在语音理解方面存在困难,特别是情绪和笑声
  • 对第1天数据过拟合,导致个体误识别
  • EgoRAG检索长上下文证据,但缺乏多步推理能力,当关键信息缺失时会失败

未来的改进应该聚焦于语音理解、个性化和高级检索。

研究意义与未来展望

EgoLife项目通过提供全面的数据集、基准测试和系统,填补了自我中心AI研究中的关键空白。这些资源为面向生活的AI的未来研究奠定了坚实基础。

未来计划:

  • 扩展数据集以覆盖更广泛的语言、地点和活动
  • 开发更复杂的模型,推动AI理解和增强日常生活能力的边界
  • 最终目标是接近AI眼镜无缝支持和丰富人类体验的世界

结语

EgoLife项目代表了自我中心AI助手研究的重要里程碑。通过300小时的多模态、多视角数据,创新的EgoLifeQA基准测试,以及强大的EgoButler系统,研究团队为开发真正理解和辅助我们日常生活的AI助手铺平了道路。

虽然仍有许多挑战需要克服------从改进语音理解到增强个性化能力------但这项研究展示了AI技术在成为我们生活中不可或缺伙伴方面的巨大潜力。随着技术的不断进步,我们可以期待一个AI助手不仅能记住我们的习惯,理解我们的需求,还能预测我们的愿望,真正增强我们的日常体验的未来。

相关推荐
Godspeed Zhao8 小时前
自动驾驶中的传感器技术24.2——Camera(17)
人工智能·机器学习·自动驾驶
pen-ai8 小时前
【数据工程】19. 从 DataOps 到可扩展机器学习:让数据与模型协同进化
人工智能·机器学习
Blossom.1188 小时前
把AI“编”进草垫:1KB决策树让宠物垫自己报「如厕记录」
java·人工智能·python·算法·决策树·机器学习·宠物
rengang669 小时前
03-深度学习与机器学习的对比:分析深度学习与传统机器学习的异同
人工智能·深度学习·机器学习
倔强青铜三9 小时前
苦练Python第73天:玩转对象持久化,pickle模块极速入门
人工智能·python·面试
咕咚-萌西9 小时前
DeepSeek-OCR
人工智能·深度学习·ocr
xcbeyond9 小时前
从 MCP 到 RAG 再到 Agent:AI 应用架构的下一次跃迁
人工智能
Godspeed Zhao9 小时前
自动驾驶中的传感器技术74——Navigation(11)
人工智能·机器学习·自动驾驶
Godspeed Zhao9 小时前
自动驾驶中的传感器技术75——Navigation(12)
人工智能·机器学习·自动驾驶