声纹模型全流程实践-开发(训练 - 微调 - 部署 - 调用)

文章目录

  • 前言
  • 一.声纹模型的功能
  • 二.技术实现
    • 2.1 业务侧-预处理阶段
    • 2.2 模型侧-模型处理
      • 2.2.1 技术实现细节
        • 2.2.1.1音频预处理
        • 2.2.1.2 VAD分片
        • 2.2.1.3 模型特征预测
        • 2.2.1.4聚类与日志生成
        • 2.1.2.5后处理
  • 三.结语

前言

也许此刻的坚持无人喝彩,满是汗水与疲惫,可最难的终究是坚持。"心之所向,素履以往。生如逆旅,一苇以航。" 我们只问自由、盛放、深情、初心与勇敢,无问西东。这个时代,并不缺少完美的人,而是缺从自己心底给出真心、正义、无畏和同情的人 。

上一篇说到funASR能够完整处理音频转文本,那对于一些场景需要识别说话人身份,并对说话人的说话内容进行截取分析。提升沟通效率和表达准确性。本篇介绍声纹模型主要功能和实现。

本项目参考 夜雨飘零 的声纹识别实现,并在此基础上进行功能补充和优化,完整项目可见: mxr-voiceprint-recognition-pytorch

本文将整体介绍这个声纹项目的目标、功能、核心技术以及应用价值。如果你正在学习声纹识别,或希望在自己的业务中落地语音身份识别,这篇文章会对你有所帮助。但其中项目的readme.md讲的已足够详尽,本篇不会叙述太多,仅讲解大致思路和各项功能,详细请自行调试代码,在项目中学习效果更佳。


一.声纹模型的功能

声纹识别

对输入的音频文件进行分析,提取声纹特征,并判断说话人身份。可应用于门禁验证、会议记录、呼叫中心身份确认等场景。

说话人日志

对长时音频或多说话人音频进行分段、聚类与识别,实现说话人的自动分离和日志记录,方便后续的分析与检索。可用于会议纪要、访谈整理等。

声纹对比

对两个音频文件提取的声纹特征进行相似度计算,判断是否为同一说话人。适合于身份验证、语音匹配等应用场景。


二.技术实现

2.1 业务侧-预处理阶段

在应用层预处理统一音频格式交付声纹大模型,虽然声纹模型也会自动处理,但是文件大小不一致对网络传输和存储都有一定压力。

在该阶段主要进行

  • 音频格式统一(16kHz、单声道)
  • 去噪、归一化、静音切除
  • 特征提取(MFCC、Mel Spectrogram 等)

我探索了Java Sound和JAVE2包,最终选择JAVE2处理。以下可供参考

java 复制代码
/**
 * 音频文件归一化
 * 使用jave2工具包,处理wav文件为统一压缩格式 16k单声道
 * className WavNormalizer
 * author YuanJie
 * date 2025/12/11 16:05
 */
public class WavNormalizerUtils {

    private static final long FFMPEG_TIMEOUT = 20;

    public static File convertTo16kMono(MultipartFile inputFile) throws Exception {
        // 1.保存 MultipartFile 到临时文件
        String originalName = inputFile.getOriginalFilename();
        if (originalName == null || originalName.isEmpty() || !originalName.toLowerCase().endsWith(".wav")) {
            throw new BadCommonException("Invalid input file: " + originalName);
        }
        File tempInput = File.createTempFile("upload_" + FilenameUtils.getName(originalName), ".tmp");
        inputFile.transferTo(tempInput);

        // 2.输出文件
        File outputFile = new File(originalName);

        // 3.设置音频参数
//        AudioAttributes audio = new AudioAttributes();
//        audio.setCodec("pcm_s16le");  // PCM 16-bit little-endian
//        audio.setChannels(1);          // 单声道
//        audio.setSamplingRate(16000);  // 16kHz
//
//        EncodingAttributes attrs = new EncodingAttributes();
//        attrs.setAudioAttributes(audio);
//
//        // 4.执行转换
//        Encoder encoder = new Encoder();
//        encoder.encode(new MultimediaObject(tempInput), outputFile, attrs);

// 上述可替换为 ffmpegConvert(tempInput,outputFile); 处理 上述不支持音量和降噪标准化
        ffmpegConvert(tempInput,outputFile);
        // 5.删除临时输入文件
        tempInput.delete();

        return outputFile;
    }

    /**
     * 场景	推荐滤镜
     * 空调噪声、办公室 afftdn
     * 风噪、车内	anlm
     * 麦克风底噪	afftdn
     * 电话回声	高通/带通 + afftdn
     * 混杂噪声(多人讲话)	anlm 或 AI 模型
     * 编码	PCM Signed 16-bit
     * 端序	Little-endian
     * 采样率 16000 Hz
     * 声道	1(单声道)
     * 封装	WAV
     *
     * loudnorm EBU R128 响度标准滤镜
     * 响度标准化 综合响度-16 LUFS
     * 真实峰值限制 1.5音爆限制
     * 响度动态范围 11 LU
     */
    @SneakyThrows
    private static void ffmpegConvert(File input, File out) {
        // FFmpeg 命令:统一音量 + 16k + 单声道 + s16le
        List<String> cmd = List.of(
                "ffmpeg",
                "-hide_banner",
                "-y",
                "-i", input.getAbsolutePath(),
                "-af", "anlm=s=8:r=10:p=0.8, loudnorm=I=-16:TP=-1.5:LRA=11",
                "-ar", "16000",
                "-ac", "1",
                "-acodec", "pcm_s16le",
                out.getAbsolutePath()
        );

        ProcessBuilder pb = new ProcessBuilder(cmd);
        Process process = pb.start();
        boolean ok = process.waitFor(FFMPEG_TIMEOUT, TimeUnit.SECONDS);

        if (!ok || process.exitValue() != 0) {
            throw new RuntimeException("ffmpeg normalization failed.");
        }
    }

}

2.2 模型侧-模型处理

我已在项目中提供模型web接口。可以参考web接口传输数据。后续可能会补充ws传输。

声纹识别(Speaker Identification) 流程大致为:

1.对音频进行归一化和预处理

2.提取声纹特征向量

3.与数据库中已注册的声纹向量进行匹配

4.输出最可能的说话人

说话人日志(Speaker Diarization)

它的核心任务是:将一段长音频拆分成多个说话人的片段,并标注出"谁在什么时候说了什么"。

它的流程大致为:

先做 Voice Activity Detection(VAD)

然后对每段音频提取向量

再使用聚类算法(本项目主要使用拉普拉斯矩阵的谱聚类方法)区分说话人

最后生成可阅读的日志

声纹对比(Speaker Verification)

给模型两个音频,它可以判断:这两段音频是不是同一个人说的

本质上是计算两个声纹向量的相似度(常用余弦相似度)。

2.2.1 技术实现细节

本节主要讲比较复杂的说话人分离

2.2.1.1音频预处理

主要采用yeaudio.audio库

为了提高模型健壮性,项目对原始音频做了多种标准化处理:

统一采样率:16kHz

单声道(Mono)

去噪(如 anlm)

音量归一化(如 loudnorm)

静音裁剪

限幅与波形清洗

2.2.1.2 VAD分片

该小节也没什么好讲好的,就是使用vad模型检测人声。

语音具有明显的结构特点:

  • 共振峰(Formant)
  • 声道衰减结构
  • 清浊音差异(Voicing)
  • 高频 fricatives 特征
  • 能量分布在 300hz--3400hz(但不是均匀的)等,使用VAD模型更容易判断。
2.2.1.3 模型特征预测

声纹模型需要将音频转换为特征向量。

常用特征包括:

MelSpectrogram为梅尔频谱(Fbank),Spectrogram为语谱图,MFCC梅尔频谱倒谱系数等等。

这些特征比原始波形更能体现个体特有的声道特性。

对VAD处理的有效片段载入cam++等多说话人分离模型。转化为特征矩阵供后续聚类分离。

声纹系统中前置模块是

python 复制代码
# 默认配置了FBank 滤波器组提取特征向量,为啥选这个,因为你可以参考readme.md的测试数据。
self._audio_featurizer = AudioFeaturizer(...)

然后就是
1.加载音频 + 统一采样率 + 统一响度

python 复制代码
'''
统一采样率(如 16kHz)
dB 归一化
ndarray 转 float32
保留干净波形
'''
input_data = self._load_audio(audio_data)
audios_data1.append(input_data.samples)

2.padding 对齐

python 复制代码
batch = sorted(audios_data1, key=lambda a: a.shape[0], reverse=True)
max_audio_length = batch[0].shape[0]
inputs = np.zeros((input_size, max_audio_length), dtype=np.float32)

找出长度最长的音频

按它的长度创建一个空矩阵 (batch_size, max_length)

把短音频放进去,多出来的部分用 0 补齐.类似于报文帧,帮助区分有效帧和填充帧.但是为啥不用变长头?因为这是要特征提取,转化为统一矩阵啊喂!

python 复制代码
# 告诉模型真实长度(隐藏的 mask 信息)
input_lens_ratio.append(seq_length / max_audio_length)

3.声学特征提取

python 复制代码
audio_feature = self._audio_featurizer(inputs, input_lens_ratio)

这一行就是 分离模型真正工作的地方:

将 wav→ 特征矩阵(如 FBank)

处理 padding mask

保证输出对齐、时长一致

生成给 backbone 模型可接受的输入

实现 原始变长音频 → 多帧声学特征(T × D) → 对齐后的特征批量

4.声纹模型批量预测

audio_feature 已经是统一形状 (batch, time, dim)

声纹模型(CAMPPlus / ResNet34 / ECAPA)可以直接前向计算

每条音频输出一个 192-d / 256-d / 512-d 的 embedding

最终返回

python 复制代码
features: ndarray [batch_size, embedding_dim]
2.2.1.4聚类与日志生成

经过上述音频转特征值后即可聚类了。

对每个语音片段生成声纹向量

使用特定算法(拉普拉斯,k-means等)进行聚类

自动标注每段的"说话人id"

项目中实现的 SpectralCluster 类,基于非归一化拉普拉斯矩阵与特征间隙(Eigengap)技术,能够在未知说话人数量的条件下,自动推断聚类数量,并获得更稳定的说话人分割效果。

总体而言进行以下日志分离流程:VAD有效片段提取→ 先构造相似度矩阵 → 拉普拉斯矩阵 → 求特征向量(嵌入空间),然后对这些低维谱嵌入做最终聚类。

1.相似度矩阵

python 复制代码
@staticmethod
def get_sim_mat(X):
    return sklearn.metrics.pairwise.cosine_similarity(X, X)

是为了构建 声纹片段之间的两两相似度矩阵,(可以简单理解为单位向量余弦值的计算)用于后续的:

  • p_pruning(修剪)
  • Laplacian(拉普拉斯矩阵)
  • 谱嵌入(spectral embedding)
  • KMeans 聚类

2.P-Pruning 相似度修剪

python 复制代码
    # 根据阈值pval修剪相似度矩阵A
    def p_pruning(self, A):
    		# 保护性调整:当样本数 N 很小时,将最小保留数限定为 6
        if A.shape[0] * self.pval < 6:
            pval = 6. / A.shape[0]
        else:
            pval = self.pval
        # 将较小的相似度强制设为 0。仅保留每行 最高的部分相似度。防止弱关系导致错误连边
        n_elems = int((1 - pval) * A.shape[0])

        # 关联矩阵中的每一行中的前n_elems个最小值下标
        for i in range(A.shape[0]):
            low_indexes = np.argsort(A[i, :])
            low_indexes = low_indexes[0:n_elems]
            # 用0替换较小的相似度值
            A[i, low_indexes] = 0
        return A

输入 A 是一个 相似度矩阵(通常由 cosine_similarity(X,X) 得到,形状为 N×N)。然后目对相似度矩阵做 稀疏化(pruning):每一行只保留最相似的若干列,把其它较小的相似度置为 0。这样可以把原来稠密的图(每对样本都有边)变成稀疏图,有利于谱聚类的稳定性和去噪。

3. 拉普拉斯矩阵(Laplacian)计算

python 复制代码
    # 计算对称相似度矩阵M的拉普拉斯矩阵
    @staticmethod
    def get_laplacian(M):
        M[np.diag_indices(M.shape[0])] = 0
        D = np.sum(np.abs(M), axis=1)
        D = np.diag(D) # 度矩阵
        L = D - M  # 非归一化拉普拉斯
        return L

我们构建图 G:

顶点:每个音频片段

边:两个片段的相似度

拉普拉斯矩阵具有图论意义:通过 L 的特征向量,可以获得更健壮的"低维空间聚类表示"。

4. 特征间隙(Eigengap)自动估计聚类数量

python 复制代码
    # 计算拉普拉斯矩阵L的谱嵌入,并根据特征间隙或指定的oracle_num确定聚类数量
    def get_spec_embs(self, L, k_oracle=None):
        lambdas, eig_vecs = scipy.linalg.eigh(L)

        if k_oracle is not None:
            num_of_spk = k_oracle
        else:
            lambda_gap_list = self.get_eigen_gaps(lambdas[self.min_num_spks - 1:self.max_num_spks + 1])
            num_of_spk = np.argmax(lambda_gap_list) + self.min_num_spks

        emb = eig_vecs[:, :num_of_spk]
        return emb, num_of_spk

当不指定 oracle_num(即不知道说话人数)时:
计算特征值序列 λ -->寻找 最大间隙(eigengap)-->推断说话人数量
这是谱聚类的核心优势:可以自动决定 k 值,而不像 KMeans 必须提前指定 k。 很多场景我们都不知道一段音频有多少人说话。

5.KMeans 对谱嵌入空间聚类

经过上一轮特征聚类估计数量,我们可以使用k-means聚类。在低维嵌入空间(如 15~50 维)做 KMeans:1.低维空间结构清晰 2.类簇分布更接近球状 3.KMeans 的缺陷被极大弱化。这也是谱聚类比直接 KMeans 准确得多的原因。其他算法性能反而会下降,例如:

  • DBSCAN 偏向空间密度判断,谱嵌入后的点往往密度均匀,难以找到簇边界;
  • 层次聚类在维度稍大时不稳定,复杂度高;
  • GMM 会受到初始参数敏感,效果不稳定。
    因此 谱聚类 + K-Means 被认为是天然配套组合。K-Means 在高维小样本上数值稳定、计算快。我们之前是有做VAD的。
2.1.2.5后处理

也就是把处理结果转成一定的json格式返回。包括标签校正、片段合并、重叠区域分配和平滑处理。

三.结语

建议多看看项目,这也就为了让你理解流程。这篇文章我有点摆了,累了。特别的readme.md中已详细说明docker跨平台部署方案,你可一键启动。

相关推荐
RisunJan2 小时前
Linux命令-getenforce命令(快速检查 Linux 系统中 SELinux 的当前运行模式)
linux·运维·服务器
SMF19192 小时前
解决在 Linux 系统中,当你尝试以 root 用户登录时遇到 “Access denied“ 的错误
java·linux·服务器
翼龙云_cloud2 小时前
亚马逊云渠道商:新手怎么利用AWS Lightsail部署 WordPress?
运维·服务器·云计算·aws
铭哥的编程日记2 小时前
【标准项目】C++仿muduo库实现高并发服务器
运维·服务器
Aspect of twilight2 小时前
vscode python debug方式
ide·vscode·python·debug
Henry Zhu1232 小时前
VPP中ACL实战配置指南与VPP的API使用初探
运维·服务器·网络·计算机网络·云原生
陪我一起学编程2 小时前
uv包管理工具
python·uv·虚拟环境·包管理工具·项目工程化·项目规范·pip、conda、pdm
盼哥PyAI实验室2 小时前
Python自定义HTTP客户端:12306抢票项目的网络请求管理
开发语言·python·http
这儿有一堆花2 小时前
Python优化内存占用的技巧
开发语言·python