信号处理与AI中的卷积的关系

一、卷积

在前面的文章中引用了知乎上的经典说明"卷积就是平衡、叠加",其物理意义就是加权叠加。卷积的数学定义如下:

(f∗g)(t)=∫f(τ)g(t−τ)dτ

它包含两个步骤即反转(将g(τ)变为g(-τ))和平移相乘再求和(积分)。也可以将其分为四步即反转、平移、相乘和求和。它在信号处理和图像处理中应用非常广泛。特别是现代的AI的底层框架深度学习中,卷积更是无法避开的一个核心的概念。

二、工程中用到的卷积

在实际开发的工程为了处理超声采集的信号,也应用到了卷积。但在工程中卷积的目的是为了实现包络和滤波。也就是说,卷积是用于对信号进行线性不变系统的输出。不过在工程代码中并没有实现显示的"反转"这个动作,但在应用的希尔伯特和Fir中都进行了隐式的"反转"实现。不过从上层应用来看,更接近于"cross-correlation"(互相关),有过深度学习经验的可能会对其更容易理解。其应用的公式:

复制代码
H{x}[n] = sum_{k=0}^{L-1} x[n - L/2 + k] * h[k]
和
y[n] = sum_{k=0}^{N-1} x[n - D + k] * g[k]

三、深度学习中的卷积

深度学习中的卷积从数学意义上看就是"cross-correlation"。它不进行反转,主要原因在于其卷积核是训练学习出来的而不是预设的。如果反转其实意义不大。毕竟在深度学习中可以自由调整权重来适应运算,反而是采用互相关更简单快捷。所以说,深度学习中卷积并不是严格的数学意义上的卷积。

四、二者的关系

从工程实践来看,信号处理和深度学习中的卷积,目的都是相同的。但在实现的细节上有着明显的不同。以本次开发的工程为例,它们的联系如下:

一)相同之处

  1. 都需要在局部的窗口中进行相乘叠加
  2. 窗口会在范围内进行滑动
  3. 重复使用相同的一组系数
  4. 都可以对相同的参数进行计算
    二)不同之处
  5. 卷积核来源不同。工程中来自于解析设计,有着明确的物理意义;而深度学习则来自训练
  6. 用途不同。工程中用来进行希尔伯特变换等操作;而深度学习用来进行牲提取
  7. 维度不同。工程中的维度是单维度线性的;而深度学习是多维度平面的
  8. 操作的具体方式不同。工程中需要进行反转;而深度学习不用

也就是说,工程中的卷积是固定核的数字信号的处理;而深度学习中则是训练核的特征提取。

五、工程中实现的相关代码

下面看一下工程中的相关代码,看一下滤波相关卷积:

c 复制代码
int sPoint = sIdxIn - gDelay;
for (int tap = 0; tap < tCount; tap++) {
  int idx = sPoint + tap;
  sum += in[scanlineIdx + idx * nScanlines] * taps[tap];
}

这段代码对应着前面的第二个公式,看上去没有明显的反转。但在TAPS数组中是以中心对称的,所以其实现的结果与标准的卷积是相同的。这也算是一种隐式的反转吧。

六、总结

在前面的"卷积及其物理意义"中,对卷积进行过初步的分析。作为非专业算法人员,重点是对算法的理解和应用,希望通过上面的对比,能够总结经验并能给大家以借鉴。

相关推荐
基算仿真2 小时前
AI如何用MCP“玩转”仿真软件?
人工智能
大转转FE2 小时前
转转前端周刊第192期: 财务数仓 Claude AI Coding 应用实战
前端·人工智能
cd_949217212 小时前
灵析数智:以 AI GEO 重构品牌增长,领跑生成式引擎优化新赛道
人工智能·搜索引擎·重构
yunhuibin2 小时前
videopipe学习之demo运行
人工智能·深度学习·学习
晓晓不觉早2 小时前
Hermes Agent 与 OpenClaw 全面对比:从“宠物级”到“自我进化”的本地 AI Agent 之争
人工智能
fzil0012 小时前
让 AI 自己协作 —— 多智能体(Swarm)系统的设计与实现
java·开发语言·人工智能·ubuntu
跨境卫士-小汪3 小时前
多渠道获客复杂化跨境卖家如何优化整体结构
大数据·人工智能·产品运营·跨境电商·跨境
java1234_小锋3 小时前
Spring AI快速入门
人工智能·spring·neo4j
研究点啥好呢3 小时前
Github热门项目推荐 | 开放数据的新时代
大数据·人工智能·机器学习·github·数据