文章目录
- 前言
- 一.声纹模型的功能
- 二.技术实现
-
- 2.1 业务侧-预处理阶段
- 2.2 模型侧-模型处理
-
- 2.2.1 技术实现细节
-
- 2.2.1.1音频预处理
- 2.2.1.2 VAD分片
- 2.2.1.3 模型特征预测
- 2.2.1.4聚类与日志生成
- 2.1.2.5后处理
- 三.结语
前言
也许此刻的坚持无人喝彩,满是汗水与疲惫,可最难的终究是坚持。"心之所向,素履以往。生如逆旅,一苇以航。" 我们只问自由、盛放、深情、初心与勇敢,无问西东。这个时代,并不缺少完美的人,而是缺从自己心底给出真心、正义、无畏和同情的人 。
上一篇说到funASR能够完整处理音频转文本,那对于一些场景需要识别说话人身份,并对说话人的说话内容进行截取分析。提升沟通效率和表达准确性。本篇介绍声纹模型主要功能和实现。
本项目参考 夜雨飘零 的声纹识别实现,并在此基础上进行功能补充和优化,完整项目可见: mxr-voiceprint-recognition-pytorch
本文将整体介绍这个声纹项目的目标、功能、核心技术以及应用价值。如果你正在学习声纹识别,或希望在自己的业务中落地语音身份识别,这篇文章会对你有所帮助。但其中项目的readme.md讲的已足够详尽,本篇不会叙述太多,仅讲解大致思路和各项功能,详细请自行调试代码,在项目中学习效果更佳。
一.声纹模型的功能
声纹识别
对输入的音频文件进行分析,提取声纹特征,并判断说话人身份。可应用于门禁验证、会议记录、呼叫中心身份确认等场景。
说话人日志
对长时音频或多说话人音频进行分段、聚类与识别,实现说话人的自动分离和日志记录,方便后续的分析与检索。可用于会议纪要、访谈整理等。
声纹对比
对两个音频文件提取的声纹特征进行相似度计算,判断是否为同一说话人。适合于身份验证、语音匹配等应用场景。
二.技术实现
2.1 业务侧-预处理阶段
在应用层预处理统一音频格式交付声纹大模型,虽然声纹模型也会自动处理,但是文件大小不一致对网络传输和存储都有一定压力。
在该阶段主要进行
- 音频格式统一(16kHz、单声道)
- 去噪、归一化、静音切除
- 特征提取(MFCC、Mel Spectrogram 等)
我探索了Java Sound和JAVE2包,最终选择JAVE2处理。以下可供参考
java
/**
* 音频文件归一化
* 使用jave2工具包,处理wav文件为统一压缩格式 16k单声道
* className WavNormalizer
* author YuanJie
* date 2025/12/11 16:05
*/
public class WavNormalizerUtils {
private static final long FFMPEG_TIMEOUT = 20;
public static File convertTo16kMono(MultipartFile inputFile) throws Exception {
// 1.保存 MultipartFile 到临时文件
String originalName = inputFile.getOriginalFilename();
if (originalName == null || originalName.isEmpty() || !originalName.toLowerCase().endsWith(".wav")) {
throw new BadCommonException("Invalid input file: " + originalName);
}
File tempInput = File.createTempFile("upload_" + FilenameUtils.getName(originalName), ".tmp");
inputFile.transferTo(tempInput);
// 2.输出文件
File outputFile = new File(originalName);
// 3.设置音频参数
// AudioAttributes audio = new AudioAttributes();
// audio.setCodec("pcm_s16le"); // PCM 16-bit little-endian
// audio.setChannels(1); // 单声道
// audio.setSamplingRate(16000); // 16kHz
//
// EncodingAttributes attrs = new EncodingAttributes();
// attrs.setAudioAttributes(audio);
//
// // 4.执行转换
// Encoder encoder = new Encoder();
// encoder.encode(new MultimediaObject(tempInput), outputFile, attrs);
// 上述可替换为 ffmpegConvert(tempInput,outputFile); 处理 上述不支持音量和降噪标准化
ffmpegConvert(tempInput,outputFile);
// 5.删除临时输入文件
tempInput.delete();
return outputFile;
}
/**
* 场景 推荐滤镜
* 空调噪声、办公室 afftdn
* 风噪、车内 anlm
* 麦克风底噪 afftdn
* 电话回声 高通/带通 + afftdn
* 混杂噪声(多人讲话) anlm 或 AI 模型
* 编码 PCM Signed 16-bit
* 端序 Little-endian
* 采样率 16000 Hz
* 声道 1(单声道)
* 封装 WAV
*
* loudnorm EBU R128 响度标准滤镜
* 响度标准化 综合响度-16 LUFS
* 真实峰值限制 1.5音爆限制
* 响度动态范围 11 LU
*/
@SneakyThrows
private static void ffmpegConvert(File input, File out) {
// FFmpeg 命令:统一音量 + 16k + 单声道 + s16le
List<String> cmd = List.of(
"ffmpeg",
"-hide_banner",
"-y",
"-i", input.getAbsolutePath(),
"-af", "anlm=s=8:r=10:p=0.8, loudnorm=I=-16:TP=-1.5:LRA=11",
"-ar", "16000",
"-ac", "1",
"-acodec", "pcm_s16le",
out.getAbsolutePath()
);
ProcessBuilder pb = new ProcessBuilder(cmd);
Process process = pb.start();
boolean ok = process.waitFor(FFMPEG_TIMEOUT, TimeUnit.SECONDS);
if (!ok || process.exitValue() != 0) {
throw new RuntimeException("ffmpeg normalization failed.");
}
}
}
2.2 模型侧-模型处理
我已在项目中提供模型web接口。可以参考web接口传输数据。后续可能会补充ws传输。
声纹识别(Speaker Identification) 流程大致为:
1.对音频进行归一化和预处理
2.提取声纹特征向量
3.与数据库中已注册的声纹向量进行匹配
4.输出最可能的说话人
说话人日志(Speaker Diarization)
它的核心任务是:将一段长音频拆分成多个说话人的片段,并标注出"谁在什么时候说了什么"。
它的流程大致为:
先做 Voice Activity Detection(VAD)
然后对每段音频提取向量
再使用聚类算法(本项目主要使用拉普拉斯矩阵的谱聚类方法)区分说话人
最后生成可阅读的日志
声纹对比(Speaker Verification)
给模型两个音频,它可以判断:这两段音频是不是同一个人说的
本质上是计算两个声纹向量的相似度(常用余弦相似度)。
2.2.1 技术实现细节
本节主要讲比较复杂的说话人分离
2.2.1.1音频预处理
主要采用yeaudio.audio库
为了提高模型健壮性,项目对原始音频做了多种标准化处理:

统一采样率:16kHz
单声道(Mono)
去噪(如 anlm)
音量归一化(如 loudnorm)
静音裁剪
限幅与波形清洗
2.2.1.2 VAD分片
该小节也没什么好讲好的,就是使用vad模型检测人声。
语音具有明显的结构特点:
- 共振峰(Formant)
- 声道衰减结构
- 清浊音差异(Voicing)
- 高频 fricatives 特征
- 能量分布在 300hz--3400hz(但不是均匀的)等,使用VAD模型更容易判断。
2.2.1.3 模型特征预测
声纹模型需要将音频转换为特征向量。
常用特征包括:
MelSpectrogram为梅尔频谱(Fbank),Spectrogram为语谱图,MFCC梅尔频谱倒谱系数等等。
这些特征比原始波形更能体现个体特有的声道特性。
对VAD处理的有效片段载入cam++等多说话人分离模型。转化为特征矩阵供后续聚类分离。
声纹系统中前置模块是
python
# 默认配置了FBank 滤波器组提取特征向量,为啥选这个,因为你可以参考readme.md的测试数据。
self._audio_featurizer = AudioFeaturizer(...)
然后就是
1.加载音频 + 统一采样率 + 统一响度
python
'''
统一采样率(如 16kHz)
dB 归一化
ndarray 转 float32
保留干净波形
'''
input_data = self._load_audio(audio_data)
audios_data1.append(input_data.samples)
2.padding 对齐
python
batch = sorted(audios_data1, key=lambda a: a.shape[0], reverse=True)
max_audio_length = batch[0].shape[0]
inputs = np.zeros((input_size, max_audio_length), dtype=np.float32)
找出长度最长的音频
按它的长度创建一个空矩阵 (batch_size, max_length)
把短音频放进去,多出来的部分用 0 补齐.类似于报文帧,帮助区分有效帧和填充帧.但是为啥不用变长头?因为这是要特征提取,转化为统一矩阵啊喂!
python
# 告诉模型真实长度(隐藏的 mask 信息)
input_lens_ratio.append(seq_length / max_audio_length)
3.声学特征提取
python
audio_feature = self._audio_featurizer(inputs, input_lens_ratio)
这一行就是 分离模型真正工作的地方:
将 wav→ 特征矩阵(如 FBank)
处理 padding mask
保证输出对齐、时长一致
生成给 backbone 模型可接受的输入
实现 原始变长音频 → 多帧声学特征(T × D) → 对齐后的特征批量
4.声纹模型批量预测
audio_feature 已经是统一形状 (batch, time, dim)
声纹模型(CAMPPlus / ResNet34 / ECAPA)可以直接前向计算
每条音频输出一个 192-d / 256-d / 512-d 的 embedding
最终返回
python
features: ndarray [batch_size, embedding_dim]
2.2.1.4聚类与日志生成
经过上述音频转特征值后即可聚类了。
对每个语音片段生成声纹向量
使用特定算法(拉普拉斯,k-means等)进行聚类
自动标注每段的"说话人id"
项目中实现的 SpectralCluster 类,基于非归一化拉普拉斯矩阵与特征间隙(Eigengap)技术,能够在未知说话人数量的条件下,自动推断聚类数量,并获得更稳定的说话人分割效果。

总体而言进行以下日志分离流程:VAD有效片段提取→ 先构造相似度矩阵 → 拉普拉斯矩阵 → 求特征向量(嵌入空间),然后对这些低维谱嵌入做最终聚类。
1.相似度矩阵
python
@staticmethod
def get_sim_mat(X):
return sklearn.metrics.pairwise.cosine_similarity(X, X)
是为了构建 声纹片段之间的两两相似度矩阵,(可以简单理解为单位向量余弦值的计算)用于后续的:
- p_pruning(修剪)
- Laplacian(拉普拉斯矩阵)
- 谱嵌入(spectral embedding)
- KMeans 聚类
2.P-Pruning 相似度修剪
python
# 根据阈值pval修剪相似度矩阵A
def p_pruning(self, A):
# 保护性调整:当样本数 N 很小时,将最小保留数限定为 6
if A.shape[0] * self.pval < 6:
pval = 6. / A.shape[0]
else:
pval = self.pval
# 将较小的相似度强制设为 0。仅保留每行 最高的部分相似度。防止弱关系导致错误连边
n_elems = int((1 - pval) * A.shape[0])
# 关联矩阵中的每一行中的前n_elems个最小值下标
for i in range(A.shape[0]):
low_indexes = np.argsort(A[i, :])
low_indexes = low_indexes[0:n_elems]
# 用0替换较小的相似度值
A[i, low_indexes] = 0
return A
输入 A 是一个 相似度矩阵(通常由 cosine_similarity(X,X) 得到,形状为 N×N)。然后目对相似度矩阵做 稀疏化(pruning):每一行只保留最相似的若干列,把其它较小的相似度置为 0。这样可以把原来稠密的图(每对样本都有边)变成稀疏图,有利于谱聚类的稳定性和去噪。
3. 拉普拉斯矩阵(Laplacian)计算
python
# 计算对称相似度矩阵M的拉普拉斯矩阵
@staticmethod
def get_laplacian(M):
M[np.diag_indices(M.shape[0])] = 0
D = np.sum(np.abs(M), axis=1)
D = np.diag(D) # 度矩阵
L = D - M # 非归一化拉普拉斯
return L
我们构建图 G:
顶点:每个音频片段
边:两个片段的相似度
拉普拉斯矩阵具有图论意义:通过 L 的特征向量,可以获得更健壮的"低维空间聚类表示"。
4. 特征间隙(Eigengap)自动估计聚类数量
python
# 计算拉普拉斯矩阵L的谱嵌入,并根据特征间隙或指定的oracle_num确定聚类数量
def get_spec_embs(self, L, k_oracle=None):
lambdas, eig_vecs = scipy.linalg.eigh(L)
if k_oracle is not None:
num_of_spk = k_oracle
else:
lambda_gap_list = self.get_eigen_gaps(lambdas[self.min_num_spks - 1:self.max_num_spks + 1])
num_of_spk = np.argmax(lambda_gap_list) + self.min_num_spks
emb = eig_vecs[:, :num_of_spk]
return emb, num_of_spk
当不指定 oracle_num(即不知道说话人数)时:
计算特征值序列 λ -->寻找 最大间隙(eigengap)-->推断说话人数量
这是谱聚类的核心优势:可以自动决定 k 值,而不像 KMeans 必须提前指定 k。 很多场景我们都不知道一段音频有多少人说话。
5.KMeans 对谱嵌入空间聚类
经过上一轮特征聚类估计数量,我们可以使用k-means聚类。在低维嵌入空间(如 15~50 维)做 KMeans:1.低维空间结构清晰 2.类簇分布更接近球状 3.KMeans 的缺陷被极大弱化。这也是谱聚类比直接 KMeans 准确得多的原因。其他算法性能反而会下降,例如:
- DBSCAN 偏向空间密度判断,谱嵌入后的点往往密度均匀,难以找到簇边界;
- 层次聚类在维度稍大时不稳定,复杂度高;
- GMM 会受到初始参数敏感,效果不稳定。
因此 谱聚类 + K-Means 被认为是天然配套组合。K-Means 在高维小样本上数值稳定、计算快。我们之前是有做VAD的。
2.1.2.5后处理
也就是把处理结果转成一定的json格式返回。包括标签校正、片段合并、重叠区域分配和平滑处理。
三.结语
建议多看看项目,这也就为了让你理解流程。这篇文章我有点摆了,累了。特别的readme.md中已详细说明docker跨平台部署方案,你可一键启动。