技术栈

rt-1

lovep1
3 小时前
机器人·具身智能·vla·rt-1
VLA系列RT-1: Robotics Transformer for Real-World Control 论文阅读和理解验证上述问题的难点:如何解决:贡献点:这里有一个值得思考的地方:text token其实根据token-prune相关的paper中会发现占比是很重要的,也就是当遇到这种类似场景时,text-token比视觉token更重要,会不会带来vla泛化性能有问题使得模型更关注指令而非视觉?
Shannon@
10 个月前
深度学习·机器人·llm·transformer·具身智能·gato·rt-1
(下)通用智能体与机器人Transformer:Gato和RT-1技术解析及与LLM Transformer的异同接上篇《(上)通用智能体与机器人Transformer:Gato和RT-1技术解析及与LLM Transformer的异同 》
我是有底线的