(7-4)力觉与触觉感知:多模态接触感知模型在论文《AnyTouch: Learning Unified Static‑Dynamic Representation across Multiple Visuo‑tactile Sensors》中提出了一种统一的多传感器触觉表征学习框架,通过构建一个对齐的多模态触觉数据集TacQuad(包含来自GelSight Mini、DIGIT、DuraGel、Tac3D等多种视觉‑触觉传感器的静态图像与动态触觉视频),AnyTouch设计了多层次结构来同时学习 静态细节与动态触觉信息 的统一表征,从而增强模型对