上帝的乐谱:从线性代数视角重构傅里叶变换 (FT) 的数学表达式

在上一篇文章中,我们用"频率的缠绕"这种物理直觉解释了傅里叶变换。今天,我们换一副眼镜,戴上线性代数的透镜,重新审视那个著名的公式:

F(ω)=∫−∞∞f(t)e−iωtdt F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-i\omega t} dt F(ω)=∫−∞∞f(t)e−iωtdt

为什么是积分?为什么是 e−iωte^{-i\omega t}e−iωt?为什么有负号?

所有的答案都隐藏在两个数学概念中:内积 (Inner Product)正交基 (Orthogonal Basis)


01. 核心思想:函数即向量

在高中,我们处理的是二维、三维向量 v⃗=(3,4)\vec{v} = (3, 4)v =(3,4)。

在大学数学中,我们将概念推广:函数也是向量

  • 向量 v⃗\vec{v}v 是有限维空间的一个点。
  • 函数 f(t)f(t)f(t) 是无穷维空间(希尔伯特空间)的一个点。

如果我们把 f(t)f(t)f(t) 看作一个向量,那么 ttt 的每一个取值,就是这个向量的一个"分量"。因为 ttt 是连续的,所以这个向量有无穷多个分量。


02. 投影的艺术:从点积到积分

向量的点积

在欧几里得空间中,如何计算一个向量 a⃗\vec{a}a 在另一个单位向量 b⃗\vec{b}b 上的投影(分量大小)?用点积

投影=a⃗⋅b⃗=∑iaibi \text{投影} = \vec{a} \cdot \vec{b} = \sum_{i} a_i b_i 投影=a ⋅b =i∑aibi

函数的内积

将求和 ∑\sum∑ 推广到连续域,就是积分 ∫\int∫。对于复数函数,内积定义为:

⟨f,g⟩=∫−∞∞f(t)g(t)‾dt \langle f, g \rangle = \int_{-\infty}^{\infty} f(t) \overline{g(t)} dt ⟨f,g⟩=∫−∞∞f(t)g(t)dt

(注意:对于复数向量,第二个元素必须取共轭 g(t)‾\overline{g(t)}g(t),这是为了保证长度定义 ⟨f,f⟩\langle f, f \rangle⟨f,f⟩ 是实数)

傅里叶变换的真面目

现在回头看公式:

F(ω)=∫−∞∞f(t)⋅e−iωtdt F(\omega) = \int_{-\infty}^{\infty} f(t) \cdot e^{-i\omega t} dt F(ω)=∫−∞∞f(t)⋅e−iωtdt

根据欧拉公式,e−iωte^{-i\omega t}e−iωt 正是 eiωte^{i\omega t}eiωt 的复共轭!

所以,傅里叶变换本质上就是计算函数 f(t)f(t)f(t) 与基函数 eiωte^{i\omega t}eiωt 的内积

F(ω)=⟨f(t),eiωt⟩ F(\omega) = \langle f(t), e^{i\omega t} \rangle F(ω)=⟨f(t),eiωt⟩

结论 :F(ω)F(\omega)F(ω) 仅仅是一个数值(系数),它代表了 f(t)f(t)f(t) 这个巨大向量,在 eiωte^{i\omega t}eiωt 这个基向量方向上的投影分量

Image of vector projection analogy for Fourier transform


03. 为什么选 eiωte^{i\omega t}eiωt?正交性的奇迹

既然要分解信号,我们为什么偏偏选 eiωte^{i\omega t}eiωt (正弦/余弦波)做基底?为什么不选方波或三角波?

因为它们是正交的。

在向量空间中,正交基(如 X 轴和 Y 轴)最好用,因为它们互不干扰。

对于函数系 {eiωt}\{e^{i\omega t}\}{eiωt},我们可以证明(在一定区间内):

∫0Teimω0t⋅einω0t‾dt={T,m=n0,m≠n \int_{0}^{T} e^{i m \omega_0 t} \cdot \overline{e^{i n \omega_0 t}} dt = \begin{cases} T, & m=n \\ 0, & m \neq n \end{cases} ∫0Teimω0t⋅einω0tdt={T,0,m=nm=n

  • m≠nm \neq nm=n 时 :内积为 0。这意味着不同频率的波是完全无关的。
  • m=nm = nm=n 时:内积不为 0。

正是因为这种完美的正交性 (Orthogonality) ,我们可以把任意信号 f(t)f(t)f(t) 唯一地分解成这些波的线性组合,而不用担心系数之间纠缠不清。


04. 逆变换:坐标系的重构

既然 F(ω)F(\omega)F(ω) 只是一个个坐标系数,那么要把信号还原回来,只需要把这些系数乘以对应的基向量,然后加起来:

f(t)=12π∫−∞∞F(ω)eiωtdω f(t) = \frac{1}{2\pi} \int_{-\infty}^{\infty} F(\omega) e^{i\omega t} d\omega f(t)=2π1∫−∞∞F(ω)eiωtdω

  • F(ω)F(\omega)F(ω):系数(在这个频率上由多少份量)。
  • eiωte^{i\omega t}eiωt:基向量(这个频率原本的样子)。
  • ∫...dω\int \dots d\omega∫...dω:广义的求和(把所有频率成分拼回去)。

(注:前面的 12π\frac{1}{2\pi}2π1 是归一化系数,取决于你对正变换的定义,目的是为了保持能量守恒,即帕塞瓦尔定理)


05. 所谓的"负频率"是什么?

数学表达式中,积分区间是 (−∞,+∞)(-\infty, +\infty)(−∞,+∞),这意味着 ω\omegaω 可以取负值。

物理上频率怎么可能是负的?

这纯粹是数学表达的需要。

eiωt=cos⁡(ωt)+isin⁡(ωt) e^{i\omega t} = \cos(\omega t) + i\sin(\omega t) eiωt=cos(ωt)+isin(ωt)

为了凑出一个实数的 cos⁡(ωt)\cos(\omega t)cos(ωt),我们需要正负频率的对消:

cos⁡(ωt)=eiωt+e−iωt2 \cos(\omega t) = \frac{e^{i\omega t} + e^{-i\omega t}}{2} cos(ωt)=2eiωt+e−iωt

所以,数学上的负频率 ,实际上是复平面上反向旋转的分量。它们与正频率分量共轭叠加,才构成了我们在示波器上看到的实数信号。


06. 总结

从数学角度看,傅里叶变换并没有什么魔法,它只是无穷维空间中的线性代数

  1. 函数 就是向量
  2. 傅里叶变换 就是求内积(计算投影坐标)。
  3. eiωte^{i\omega t}eiωt 就是正交基(坐标轴)。
  4. 积分 就是求和

当你理解了这一点,你就不再只是在套公式,而是在脑海中看到一个函数向量,被优雅地投影到了频率的坐标系中。


复制代码
相关推荐
万俟淋曦9 小时前
【论文速递】2025年第52周(Dec-21-27)(Robotics/Embodied AI/LLM)
人工智能·深度学习·机器学习·机器人·大模型·论文·具身智能
咚咚王者9 小时前
人工智能之核心基础 机器学习 第十章 降维算法
人工智能·算法·机器学习
凤希AI伴侣10 小时前
告别文件存储的混乱:我用SQLite重构了AI对话记录管理
人工智能·重构·sqlite·凤希ai伴侣
少林码僧18 小时前
2.31 机器学习神器项目实战:如何在真实项目中应用XGBoost等算法
人工智能·python·算法·机器学习·ai·数据挖掘
钱彬 (Qian Bin)18 小时前
项目实践15—全球证件智能识别系统(切换为Qwen3-VL-8B-Instruct图文多模态大模型)
人工智能·算法·机器学习·多模态·全球证件识别
宝贝儿好19 小时前
【强化学习】第六章:无模型控制:在轨MC控制、在轨时序差分学习(Sarsa)、离轨学习(Q-learning)
人工智能·python·深度学习·学习·机器学习·机器人
Niuguangshuo19 小时前
EM算法详解:解密“鸡生蛋“的机器学习困局
算法·机器学习·概率论
wm104319 小时前
机器学习之线性回归
人工智能·机器学习·线性回归
sonadorje20 小时前
逻辑回归中的条件概率
算法·机器学习·逻辑回归