phaseDNN文章解读

文章DOI : https://doi.org/10.48550/arXiv.1905.01389

作者是 Southern Methodist University 的Wei Cai 教授

A Parallel Phase Shift Deep Neural Network for Adaptive Wideband Learning

一种并行移相深度神经网络来自适应学习宽带频率信号

20190514

核心思想:通过相变技术把高频部分转化为低频部分,这样便可以提高神经网络训练过程中网络的收敛速度

感觉这篇文章的信息好少,搜不到多少资料。

摘要

PhaseDNN利用了许多DNN首先在低频范围内实现收敛的事实(这个可参考许志钦老师的主页 https://ins.sjtu.edu.cn/people/xuzhiqin/,或知乎https://zhuanlan.zhihu.com/p/571517635),因此,对于更高频率范围,并行地构建和训练一系列中等大小的DNN。

借助于频域中的相移,通过对训练数据进行简单的相位因子乘法来实现,序列中的每个DNN将被训练为在特定范围内近似目标函数的较高频率内容。

由于相移,每个DNN都达到了在低频范围内的收敛速度。因此,PhaseDNN系统能够将宽带频率学习转换为低频学习,从而允许通过频率自适应训练对宽带高维函数进行统一学习。数值结果表明,PhaseDNN能够从低频到高频均匀地学习目标函数的信息。

具体实现过程

背景知识​

许志钦:​

深度神经网络的频率原则: DNN首先在低频范围内实现收敛​

这个可参考许志钦老师的主页 https://ins.sjtu.edu.cn/people/xuzhiqin/,​

或知乎https://zhuanlan.zhihu.com/p/571517635​

应用

多种频率的信号叠加的波/高频波,使用此相移方法,把高频转为低频,实现快速收敛。​

例如:多频叠加的信号,比如可能:音频分类、时序预测

GitHub

相关推荐
Watermelo61729 分钟前
从DeepSeek大爆发看AI革命困局:大模型如何突破算力囚笼与信任危机?
人工智能·深度学习·神经网络·机器学习·ai·语言模型·自然语言处理
pchmi7 小时前
CNN常用卷积核
深度学习·神经网络·机器学习·cnn·c#
神经美学_茂森9 小时前
神经网络防“失忆“秘籍:弹性权重固化如何让AI学会“温故知新“
人工智能·深度学习·神经网络
阿_旭10 小时前
【超详细】神经网络的可视化解释
人工智能·深度学习·神经网络
終不似少年遊*12 小时前
循环神经网络RNN原理与优化
人工智能·rnn·深度学习·神经网络·lstm
WHATEVER_LEO1 天前
【每日论文】Text-guided Sparse Voxel Pruning for Efficient 3D Visual Grounding
人工智能·深度学习·神经网络·算法·机器学习·自然语言处理
SylviaW081 天前
神经网络八股(三)
人工智能·深度学习·神经网络
紫雾凌寒1 天前
计算机视觉基础|卷积神经网络:从数学原理到可视化实战
人工智能·深度学习·神经网络·机器学习·计算机视觉·cnn·卷积神经网络
真智AI2 天前
使用AI创建流程图和图表的 3 种简单方法
人工智能·深度学习·神经网络·机器学习·自然语言处理·流程图
9命怪猫2 天前
DeepSeek底层揭秘——微调
人工智能·深度学习·神经网络·ai·大模型