【论文笔记】Token Turing Machines

🍎个人主页:小嗷犬的个人主页

🍊个人网站:小嗷犬的技术小站

🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。


基本信息

标题 : Token Turing Machines
作者 : Michael S. Ryoo, Keerthana Gopalakrishnan, Kumara Kahatapitiya, Ted Xiao, Kanishka Rao, Austin Stone, Yao Lu, Julian Ibarz, Anurag Arnab
发表 : CVPR 2023
arXiv : https://arxiv.org/abs/2211.09119

摘要

我们提出了一种Token图灵机(TTM),这是一种具有记忆功能的顺序自回归Transformer模型,用于现实世界的顺序视觉理解。

我们的模型受到开创性的神经图灵机的启发,并具有一个外部记忆,由一组总结先前历史(即帧)的标记组成。

这个记忆通过在每个步骤使用Transformer作为处理单元/控制器来高效地寻址、读取和写入。

模型的记忆模块确保新的观察结果只与记忆内容(而不是整个历史)进行处理,这意味着它可以高效地处理长序列,并在每个步骤保持有限的计算成本。

我们表明,在两个现实世界的顺序视觉理解任务上,TTM优于其他替代方案,例如为长序列设计的其他Transformer模型和循环神经网络,这些任务包括从视频中在线检测时间活动以及基于视觉的机器人动作策略学习。

代码开源于:https://github.com/google-research/scenic/tree/main/scenic/projects/token_turing

方法

模型架构

模型由存储器(Memory)、读写模块和处理单元构成。

Reader

接受Memory和Inputs输入,压缩为处理单元输入所需的大小。

Writer

接受处理单元输出、Memory和Inputs输入,压缩为Memory所需的大小。

实验

主实验

TTM在Charades temporal activity detection任务上与先前SOTA方法的对比。

TTM与其他不同序列模型的对比。

消融实验

总结

我们引入了Token图灵机用于序列决策。

Token图灵机可以看作是神经图灵机的现代化,其内存读写是通过标记摘要来设计的。

它具有现代基于Transformer模型的优点,同时得益于拥有外部内存:无论历史长度如何,计算都是恒定的。

这种能力在许多序列决策和在线推理问题中尤为重要,例如机器人动作策略学习。

我们通过具有挑战性视觉输入的真实世界任务验证了其能力:即即兴表演活动定位和基于视觉的机器人动作策略学习。

相关推荐
AI十八式11 分钟前
KDD 2025 顶会最新力作,多变量时间序列预测登顶!
算法·机器学习·支持向量机
吾鳴12 分钟前
扣子(coze)实战|我用扣子搭建了一个自动分析小红薯笔记内容的AI应用|详细步骤拆解
人工智能
iTiro18 分钟前
LIME深度解析:如何让复杂的机器学习模型“开口说话”?
人工智能
Gofree32 分钟前
Pytorch实现mnist手写数字识别
人工智能
蚝油菜花35 分钟前
月之暗面开源16B轻量级多模态视觉语言模型!Kimi-VL:推理仅需激活2.8B,支持128K上下文与高分辨率输入
人工智能·开源
童欧巴35 分钟前
即梦3.0全面测评,AI文生图的天花板又被击穿了
人工智能·aigc
蚝油菜花36 分钟前
传统OCR集体阵亡!Versatile-OCR-Program:开源多语言OCR工具,精准解析表格和数学公式等复杂结构
人工智能·开源
蚝油菜花39 分钟前
一键生成魔童哪吒数字人!FantasyTalking:阿里北邮联手打造静态肖像生成可控数字人框架
人工智能·开源
6confim39 分钟前
解锁AI新时代:Google A2A协议,让AI们变身"超级朋友圈"!
人工智能
点我头像干啥41 分钟前
基于Transformer框架实现微调后Qwen/DeepSeek模型的非流式批量推理
人工智能·深度学习·transformer