基于频谱处理的音频分离方法

基于频谱处理的音频分离方法

在音频处理领域,音频分离是一个重要的任务,尤其是在语音识别、音乐制作和通信等应用中。音频分离的目标是从混合信号中提取出单独的音频源。通过频谱处理进行音频分离是一种有效的方法,本文将介绍其基本原理、公式以及如何通过降噪作为一个具体的例子来实现音频分离。

1. 频谱处理音频分离的原理

频谱处理音频分离的基本思想是将音频信号从时间域转换到频率域,通过分析频谱中的成分,去除或抑制不需要的成分,从而恢复目标音频信号。常用的频谱分析方法是短时傅里叶变换(STFT)。

1.1 短时傅里叶变换(STFT)

短时傅里叶变换将时间域信号分成多个短时间段,并对每个段进行傅里叶变换。对于离散时间信号 (x[n]),STFT 的离散形式可以表示为:

X [ m , k ] = ∑ n = − ∞ ∞ x [ n ] w [ n − m ] e − j 2 π N k n X[m, k] = \sum_{n=-\infty}^{\infty} x[n] w[n - m] e^{-j \frac{2\pi}{N}kn} X[m,k]=n=−∞∑∞x[n]w[n−m]e−jN2πkn

其中:

  • X [ m , k ] X[m, k] X[m,k] 是在时间帧 (m) 和频率 (k) 的复数频谱。
  • x [ n ] x[n] x[n] 是输入信号。
  • w [ n ] w[n] w[n] 是窗函数,用于限制信号的时间范围。
  • N N N是窗的长度。

1.2 逆短时傅里叶变换(ISTFT)

逆短时傅里叶变换用于将频谱信息转换回时间域信号。对于离散时间信号,ISTFT 的离散形式可以表示为:

x [ n ] = ∑ m = − ∞ ∞ X [ m , k ] w [ n − m ] e j 2 π N k n x[n] = \sum_{m=-\infty}^{\infty} X[m, k] w[n - m] e^{j \frac{2\pi}{N}kn} x[n]=∑m=−∞∞X[m,k]w[n−m]ejN2πkn

其中:

  • x [ n ] x[n] x[n] 是恢复后的离散时间信号。
  • X [ m , k ] X[m, k] X[m,k]是去噪后的频谱。

1.3 音频分离算法

在频谱域中,音频分离的基本步骤如下:

  1. 计算 STFT:对混合信号(包含多个音源)进行 STFT,得到频谱表示。
  2. 源信号估计:通过分析混合信号的频谱,估计各个源信号的频谱成分。
  3. 频谱相减或掩码:从混合信号的频谱中减去或应用掩码来提取目标音源的频谱。
  4. 逆 STFT:对提取后的频谱进行逆 STFT,恢复到时间域信号。

2. 降噪作为音频分离的例子

降噪是音频分离中的一个具体应用场景。在降噪过程中,我们的目标是从包含噪声的混合信号中提取出干净的音频信号。降噪的基本步骤如下:

2.1 完全降噪

在完全降噪的情况下,我们假设噪声的频谱可以被准确估计并完全从混合信号中去除。此时,频谱相减的公式为:

Y ( f ) = X ( f ) − N ( f ) Y(f) = X(f) - N(f) Y(f)=X(f)−N(f)

在这种情况下,重建的音频信号将尽可能接近原始的干净信号。

2.2 不完全降噪

在不完全降噪的情况下,噪声的频谱可能无法完全准确地估计,或者在去噪过程中可能会对语音信号造成一定的抑制。此时,我们可以引入一个随机因子来模拟这种情况:

Y ( f ) = X ( f ) − N ( f ) ⋅ factor Y(f) = X(f) - N(f) \cdot \text{factor} Y(f)=X(f)−N(f)⋅factor

其中,factor 是一个在 0.8 到 1.2 之间的随机值。这个因子可以模拟噪声没有完全消除的情况,或者在去噪过程中对语音信号的抑制。

3. 代码实现

python 复制代码
import numpy as np
import librosa
import matplotlib.pyplot as plt
import soundfile as sf
import librosa.display

# 1. 读取两个文件并进行时域混合
def load_and_mix(audio_file, noise_file, duration):
    audio, sr_audio = librosa.load(audio_file, sr=None)
    noise, sr_noise = librosa.load(noise_file, sr=None)

    if sr_audio != sr_noise:
        raise ValueError("Sampling rates of the audio and noise files must be the same.")

    min_length = min(len(audio), len(noise), duration * sr_audio)
    audio = audio[:min_length]
    noise = noise[:min_length]

    mixed_signal = audio + noise
    return audio, noise, mixed_signal, sr_audio

# 2. 计算 STFT
def compute_stft(signal):
    return librosa.stft(signal)

# 3. 计算噪声的 STFT
def compute_noise_stft(noise):
    return librosa.stft(noise)

# 4. 频谱相减
def subtract_stft(mixed_stft, noise_stft, factor):
    return mixed_stft - (noise_stft * factor)

# 5. ISTFT 重新生成语音
def reconstruct_audio(subtracted_stft):
    return librosa.istft(subtracted_stft)

# 6. 可视化过程
def visualize_process(original, noise, mixed, reconstructed_best, reconstructed_partial, sr):
    plt.figure(figsize=(12, 10))

    plt.subplot(5, 1, 1)
    plt.title('Original Audio Signal')
    librosa.display.waveshow(original, sr=sr, alpha=1)
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')

    plt.subplot(5, 1, 2)
    plt.title('Noise Signal')
    librosa.display.waveshow(noise, sr=sr, alpha=1)
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')

    plt.subplot(5, 1, 3)
    plt.title('Mixed Audio Signal')
    librosa.display.waveshow(mixed, sr=sr, alpha=1)
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')

    plt.subplot(5, 1, 4)
    plt.title('Reconstructed Audio Signal (Best Case)')
    librosa.display.waveshow(reconstructed_best, sr=sr, alpha=1)
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')

    plt.subplot(5, 1, 5)
    plt.title('Reconstructed Audio Signal (Partial Case)')
    librosa.display.waveshow(reconstructed_partial, sr=sr, alpha=1)
    plt.xlabel('Time (s)')
    plt.ylabel('Amplitude')

    plt.tight_layout()
    plt.show()

    # 绘制语谱图
    plt.figure(figsize=(12, 10))

    original_stft = compute_stft(original)
    noise_stft = compute_noise_stft(noise)
    mixed_stft = compute_stft(mixed)
    reconstructed_best_stft = compute_stft(reconstructed_best)
    reconstructed_partial_stft = compute_stft(reconstructed_partial)

    plt.subplot(5, 1, 1)
    plt.title('Original Audio Spectrogram')
    librosa.display.specshow(librosa.amplitude_to_db(np.abs(original_stft), ref=np.max), sr=sr, y_axis='log', x_axis='time')
    plt.colorbar(format='%+2.0f dB')

    plt.subplot(5, 1, 2)
    plt.title('Noise Spectrogram')
    librosa.display.specshow(librosa.amplitude_to_db(np.abs(noise_stft), ref=np.max), sr=sr, y_axis='log', x_axis='time')
    plt.colorbar(format='%+2.0f dB')

    plt.subplot(5, 1, 3)
    plt.title('Mixed Audio Spectrogram')
    librosa.display.specshow(librosa.amplitude_to_db(np.abs(mixed_stft), ref=np.max), sr=sr, y_axis='log', x_axis='time')
    plt.colorbar(format='%+2.0f dB')

    plt.subplot(5, 1, 4)
    plt.title('Reconstructed Audio Spectrogram (Best Case)')
    librosa.display.specshow(librosa.amplitude_to_db(np.abs(reconstructed_best_stft), ref=np.max), sr=sr, y_axis='log', x_axis='time')
    plt.colorbar(format='%+2.0f dB')

    plt.subplot(5, 1, 5)
    plt.title('Reconstructed Audio Spectrogram (Partial Case)')
    librosa.display.specshow(librosa.amplitude_to_db(np.abs(reconstructed_partial_stft), ref=np.max), sr=sr, y_axis='log', x_axis='time')
    plt.colorbar(format='%+2.0f dB')

    plt.tight_layout()
    plt.show()

# 主程序
def main():
    audio_file = '1.wav'  # 语音文件
    noise_file = '3.wav'  # 噪声文件
    duration = 20  # 取样长度(秒)

    original_audio, noise, mixed_signal, sr = load_and_mix(audio_file, noise_file, duration)

    mixed_stft = compute_stft(mixed_signal)
    noise_stft = compute_noise_stft(noise)

    # 完全降噪
    subtracted_stft_best = subtract_stft(mixed_stft, noise_stft, factor=np.ones_like(noise_stft))
    reconstructed_best_audio = reconstruct_audio(subtracted_stft_best)

    # 不完全降噪
    random_factor = np.random.uniform(0.8, 1.2, noise_stft.shape)
    subtracted_stft_partial = subtract_stft(mixed_stft, noise_stft, factor=random_factor)
    reconstructed_partial_audio = reconstruct_audio(subtracted_stft_partial)

    sf.write('mixed_signal.wav', mixed_signal, sr)
    sf.write('reconstructed_audio_best.wav', reconstructed_best_audio, sr)
    sf.write('reconstructed_audio_partial.wav', reconstructed_partial_audio, sr)

    visualize_process(original_audio, noise, mixed_signal, reconstructed_best_audio, reconstructed_partial_audio, sr)

if __name__ == "__main__":
    main()
相关推荐
点云SLAM39 分钟前
CVPR 2024 视频处理方向总汇(视频监控、视频理解、视频识别和视频预测等)
python·计算机视觉·音视频·视频监控·视频处理·视频理解
无限大.4 小时前
使用FFmpeg和Python将短视频转换为GIF的使用指南
python·ffmpeg·音视频
D^ε^S6 小时前
AV1视频编解码简介、码流结构(OBU)
音视频·av1
努力挣钱的小鑫9 小时前
【Vue】vue3 video 保存视频进度,每次进入加载上次的视频进度
前端·javascript·音视频
王da魔13 小时前
Web前端------HTML多媒体标签之音频和视频标签
前端·html·音视频
neter.asia17 小时前
微信小程序:播放音频
小程序·ffmpeg·音视频
光谷码农18 小时前
ffmpeg视频总帧数获取,取某一帧的图像方法
ffmpeg·音视频
cuijiecheng201819 小时前
音视频入门基础:RTP专题(4)——FFmpeg源码中,判断某文件是否为SDP文件的实现
ffmpeg·音视频
爱在拜城_sunbea19 小时前
基于WebRTC实现音视频通话
音视频·webrtc·通信
学习嵌入式的小羊~1 天前
RV1126+FFMPEG推流项目(4)VENC模块视频编码流程
ffmpeg·音视频