WhisperX

文章目录


一、关于 WhisperX

WhisperX:具有字级时间戳的自动语音识别(和分类)



该存储库提供快速语音识别(70倍实时与big-v2)与字级时间戳和说话人分类。

  • ⚡批量推断70x实时转录使用耳语大v2
  • 🪶更快的耳语后端,需要<8GB的gpu内存用于beam_size=5的big-v2
  • 🎯使用wave 2vec2对齐准确的字级时间戳
  • 👯‍♂️多扬声器ASR使用来自pyannote音频的扬声器分类(扬声器ID标签)
  • 🗣️VAD预处理,减少幻觉和批处理,没有WER降解

Whisper 是一个ASR模型由OpenAI开发,在各种音频的大型数据集上进行训练。虽然它确实产生了高度准确的转录,但相应的时间戳是在话语级别,而不是每个单词,并且可能不准确几秒钟。OpenAI的耳语本身不支持批处理。

Phoneme-Based ASR(基于音素的ASR) 一套经过微调的模型,用于识别区分单词的最小语音单位,例如"tap"中的元素p。一个流行的示例模型是wav2vec2.0.

Forced Alignment(强制对齐) 是指将正交转录与录音对齐以自动生成手机级分割的过程。

语音活动检测(VAD) 是检测是否存在人类语音。

Speaker Diarization 是根据每个说话者的身份将包含人类语音的音频流划分为同质段的过程。


新闻 🚨

  • 第一名在Ego4d转录挑战🏆
  • WhisperX在INTERSPEECH 2023上被接受
  • V3成绩单segment-per-sentence:使用nltksent_tokenize更好的字幕和更好的分词
  • V3发布,70倍加速开源。使用批量耳语和更快的耳语后端!
  • v2发布,代码清理,导入耳语库VAD过滤现在默认打开,如论文所示。
  • 🎓👨‍🏫!请参阅我们的ArxiV预印本,了解WhisperX的基准测试和详细信息。我们还引入了更高效的批处理推理,从而产生*60-70x实时速度的big-v2。

二、设置⚙️

已针对PyTorch 2.0、Python 3.10进行测试(使用其他版本需自行承担风险!)

GPU执行需要在系统上安装NVIDIA库cuBLAS 11.x和cuDNN 8.x。请参阅 CTranslate2 documentation.


1、创建Python3.10环境

shell 复制代码
conda create --name whisperx python=3.10
conda activate whisperx

2、安装PyTorch,例如Linux和Windows CUDA11.8:

shell 复制代码
conda install pytorch==2.0.0 torchaudio==2.0.0 pytorch-cuda=11.8 -c pytorch -c nvidia

其他方法可见 这里。


3、安装此repo

shell 复制代码
pip install git+https://github.com/m-bain/whisperx.git

如果已安装,请将包更新为最近提交

shell 复制代码
pip install git+https://github.com/m-bain/whisperx.git --upgrade

如果希望修改此软件包,请以可编辑模式克隆并安装:

shell 复制代码
$ git clone https://github.com/m-bain/whisperX.git
$ cd whisperX
$ pip install -e .

您可能还需要安装ffmpeg、rust等。请在此处按照openAI说明进行操作 https://github.com/openai/whisper#setup


4、Speaker Diarization

启用 Speaker Diarization ,请包含您可以从此处 生成的拥 Hugging Face token(read)在-hf_token参数之后,接受以下模型的用户协议:SegmentationSpeaker-Diarization-3.1(如果您选择使用Speaker Diarization 2.x,请按照要求此处 操作替代)

:截至2023年10月11日,在WhatperX中存在一个关于pyannote/Speaker-Diarization-3.0性能缓慢的已知问题。这是由于更快的耳语和pyannote音频3.0.0之间的依赖冲突。有关更多详细信息和潜在的解决方法,请参阅此问题


三、使用💬(命令行)


1、English

在示例段上运行耳语(使用默认参数,耳语小)添加 --highlight_words True 来可视化.srt 文件中的单词计时。

shell 复制代码
--highlight_words True
whisperx examples/sample01.wav

使用WhisperX强制对齐到wav2vec2.0大的结果:

sample01.mp4


将此与许多转录不同步的原始耳语进行比较:

sample_whisper_og.mov


为了提高时间戳的准确性,以更高的gpu mem为代价,使用更大的模型(更大的对齐模型没有那么有用,见论文)例如。

shell 复制代码
whisperx examples/sample01.wav --model large-v2 --align_model WAV2VEC2_ASR_LARGE_LV60K_960H --batch_size 4

要用说话者ID标记成绩单(如果已知,请设置说话者数量,例如-min_speakers 2, --max_speakers-2):

shell 复制代码
whisperx examples/sample01.wav --model large-v2 --diarize --highlight_words True

要在CPU而不是GPU上运行(以及在Mac OS X上运行):

shell 复制代码
whisperx examples/sample01.wav --compute_type int8


2、他语言

特定语言的 自动挑选从torchaudio管道或huggingface--language``--model large

{en, fr, de, es, it, ja, zh, nl, uk, pt}拥抱脸模型集线器


例如德语
shell 复制代码
whisperx --model large-v2 --language de examples/sample_de_01.wav

sample_de_01_vis.mov

More EXAMPLES



四、Python使用🐍

shell 复制代码
import whisperx
import gc 

device = "cuda" 
audio_file = "audio.mp3"
batch_size = 16 # reduce if low on GPU mem
compute_type = "float16" # change to "int8" if low on GPU mem (may reduce accuracy)

# 1. Transcribe with original whisper (batched)
model = whisperx.load_model("large-v2", device, compute_type=compute_type)

# save model to local path (optional)
# model_dir = "/path/"
# model = whisperx.load_model("large-v2", device, compute_type=compute_type, download_root=model_dir)

audio = whisperx.load_audio(audio_file)
result = model.transcribe(audio, batch_size=batch_size)
print(result["segments"]) # before alignment

# delete model if low on GPU resources
# import gc; gc.collect(); torch.cuda.empty_cache(); del model

# 2. Align whisper output
model_a, metadata = whisperx.load_align_model(language_code=result["language"], device=device)
result = whisperx.align(result["segments"], model_a, metadata, audio, device, return_char_alignments=False)

print(result["segments"]) # after alignment

# delete model if low on GPU resources
# import gc; gc.collect(); torch.cuda.empty_cache(); del model_a

# 3. Assign speaker labels
diarize_model = whisperx.DiarizationPipeline(use_auth_token=YOUR_HF_TOKEN, device=device)

# add min/max number of speakers if known
diarize_segments = diarize_model(audio)
# diarize_model(audio, min_speakers=min_speakers, max_speakers=max_speakers)

result = whisperx.assign_word_speakers(diarize_segments, result)
print(diarize_segments)
print(result["segments"]) # segments are now assigned speaker IDs


五、Demos 🚀

https://replicate.com/victor-upmeet/whisperx
https://replicate.com/daanelson/whisperx
https://replicate.com/carnifexer/whisperx

如果您无法访问自己的GPU,请使用上面的链接试用WhisperX。


六、技术细节👷‍♂️

有关批处理和对齐、VAD的效果以及所选对齐模型的具体详细信息,请参阅预印本 paper.

要减少GPU内存需求,请尝试以下任何一项(2.&3.会影响质量):

  1. 减少批量大小,例如--batch_size 4
  2. 使用较小的ASR模型--model base
  3. 使用更轻的计算类型--compute_type int8

与openai耳语的转录差异:

  1. 没有时间戳的转录。要启用单程批处理,执行耳语推理--without_timestamps True,这确保了批处理中每个样本1次正向传递。但是,这可能会导致默认耳语输出的差异。
  2. 基于VAD的片段转录,不同于openai的缓冲转录。在Wthe WhisperX论文中,我们展示了这可以降低WER,并实现准确的批量推断
  3. --condition_on_prev_text默认设置为False(减少幻觉)

七、限制⚠️

  • 对齐模型字典中不包含字符的抄本单词,例如"2014"或"13.6英镑"无法对齐,因此没有给出时间。
  • 耳语或耳语不能很好地处理重叠的语言
  • 分类远非完美
  • 需要语言特定的wave 2vec2模型

2024-07-21(日)

相关推荐
_一条咸鱼_1 小时前
Python 数据类型之可变与不可变类型详解(十)
人工智能·python·面试
_一条咸鱼_1 小时前
Python 入门之基本运算符(六)
python·深度学习·面试
_一条咸鱼_1 小时前
Python 流程控制之 for 循环(九)
人工智能·python·面试
_一条咸鱼_1 小时前
Python 语法入门之流程控制 if 判断(七)
人工智能·python·面试
_一条咸鱼_2 小时前
Python 流程控制之 while 循环(八)
人工智能·python·面试
HtwHUAT2 小时前
实验四 Java图形界面与事件处理
开发语言·前端·python
Tech Synapse2 小时前
基于Surprise和Flask构建个性化电影推荐系统:从算法到全栈实现
python·算法·flask·协同过滤算法
麦麦大数据2 小时前
vue+flask+CNN电影推荐系统
pytorch·python·cnn·flask·scikit-learn·电影推荐
腾飞开源2 小时前
02_Flask是什么?
python·flask·python web开发·flask快速入门教程·人人都能学·小白看得懂学得会·跟我学编程
終不似少年遊*2 小时前
国产之光DeepSeek架构理解与应用分析04
人工智能·python·深度学习·算法·大模型·ds