技术栈

inr

小冷爱读书
6 小时前
深度学习·inr·函数张量分解
F-INR: Functional Tensor Decomposition for Implicit Neural Representations隐式神经表示 (INR) 已成为使用神经网络将离散信号编码为连续、可微函数的强大工具。然而,不幸的是,这些模型通常依赖单体架构来表示高维数据,随着维度的增长,导致计算成本过高。我们提出了 F-INR,这是一个框架,它通过函数张量分解重新制定 INR 学习,将高维任务分解为轻量级的、特定于轴的子网络。每个子网络学习一个低维数据组件(例如,空间或时间)。然后,我们通过张量运算组合这些组件,降低前向传递的复杂性,同时通过专业学习提高准确性。F-INR 是模块化的,因此与架构无关,与 MLP、SIREN、WIRE
我是有底线的