python实现ASR能力实践

背景

本文介绍了一个python实现ASR(语音识别)能力的基础实现,供有需要的人参考。

方案内容

导出语音

使用python的三方库,将视频中的语音导出为 mp3格式。

安装依赖:

shell 复制代码
pip install moviepy

代码如下:

python 复制代码
from moviepy.editor import VideoFileClip

def extract_audio_from_video(video_path, audio_path):
    # 加载视频文件
    video_clip = VideoFileClip(video_path)

    # 从视频中提取音频
    audio_clip = video_clip.audio

    # 写入音频文件
    audio_clip.write_audiofile(audio_path)

# 使用示例
video_path = r'\path\to\source\vedio\source.mp4'  # 视频文件路径
audio_path = r'\path\to\export\voice\export_voice.mp3'  # 提取的音频文件保存路径
extract_audio_from_video(video_path, audio_path)

语音切割

对于一个培训视频来说,市场一般在半小时到一小时之间,有些甚至长达几个小时。对于这种长视频,需要对音频进行切分,才能更加快速的生成语音和准确的生成概要内容。参考通义 · 听悟中对于音频内容分割的做法,将音频按分钟在静音处切分,然后每3-5个片段生成一个概要内容,作为章节。

实际落地中,使用PyDub库对语音文件进行切分。

语音识别

将分离出来的语音识别成带时间戳的文本。

视频语音识别方面,做的比较好的就是阿里的听悟。这个产品将视频语音识别出来后,做了视频定位,内容分段,段落摘要和全文摘要等。不仅是语音识别,而是通过语音识别衍生出很多其他服务。从产品角度来说,有很多能力和我们要做的事情是吻合的。但由于听悟并不开源,所以只能是找一些开源模型作为替代。

语音识别目前市面上有很多开源的框架可以使用,有大厂背景的模型有:百度-PaddleSpeech,阿里-MMSpeech,阿里-Paraformer,openai-whisper。网上找了一篇介绍的文章,直接引用文章结论,使用 Paraformer作为语音识别工具。正好 Paraformer也是支持时间戳导出的。

>>基于百度、阿里、openai的中文语音识别研究测试报告<<

Paraformer模型发布在魔搭社区,通过魔搭社区的示例代码直接引用测试。Paraformer可以运行在 modescope框架上,也可以运行在 funasr框架上。以下是funasr版本的示例。

以下示例采用的是在线模型,实际应用时,应切换到本地离线模型。

python 复制代码
from funasr import AutoModel
# paraformer-zh is a multi-functional asr model
# use vad, punc, spk or not as you need
model = AutoModel(model="paraformer-zh", model_revision="v2.0.4",
                  vad_model="fsmn-vad", vad_model_revision="v2.0.4",
                  punc_model="ct-punc-c", punc_model_revision="v2.0.4",
                  # spk_model="cam++", spk_model_revision="v2.0.2",
                  )
res = model.generate(input=r'D:\工作资料\15-浩鲸大模型\视频检索\录音.mp3',
                     batch_size_s=300, sentence_timestamp=True,
                     hotword='魔搭')
print(res)

通过指定 sentence_timestamp=True来输出子句信息。使用测试语音,识别出来的结果如下:

json 复制代码
[
    {
        "key": "rand_key_2yW4Acq9GFz6Y",
        "text": "支持数据库的清洗、转储操作。支持mysql oracle等多个数据库。",
        "timestamp": [[1480, 1660], [1660, 1900], [1980, 2140], [2140, 2320], [2320, 2560], [2560, 2800], [3100, 3340], [3400, 3640], [3740, 3980], [3980, 4220], [4240, 4460], [4460, 4700], [5220, 5460], [5480, 5720], [5780, 6560], [6560, 7140], [7180, 7420], [7440, 7660], [7660, 7880], [7880, 8080], [8080, 8320], [8320, 8645]],
        "sentence_info": [
            {
                "text": "支持数据库的清洗、",
                "start": 1480,
                "end": 3640,
                "timestamp": [[1480, 1660], [1660, 1900], [1980, 2140], [2140, 2320], [2320, 2560], [2560, 2800], [3100, 3340], [3400, 3640]]
            },
            {
                "text": "转储操作。",
                "start": 3640,
                "end": 4700,
                "timestamp": [[3740, 3980], [3980, 4220], [4240, 4460], [4460, 4700]]
            },
            {
                "text": "支持 mysql oracle 等多个数据库。",
                "start": 4700,
                "end": 8645,
                "timestamp": [[5220, 5460], [5480, 5720], [5780, 6560], [6560, 7140], [7180, 7420], [7440, 7660], [7660, 7880], [7880, 8080], [8080, 8320], [8320, 8645]]
            }
        ]
    }
]

取结果中的 sentence_info下的数据,作为识别结果。其中 text为文本内容,start/end为该句子的起止时间。单位是 ms,在转化为视频定位时,需要进行转化。

内容摘要

后续,可继续优化结果。定位到句子对于一个长视频来说意义不大,所以,最终还是需要将识别出来的内容,按照语义进行分段,然后概括段落概要,并记录段落的起止时间。该操作需要基于上述的处理结果,通过gpt大模型来实现。实际后续的检索,也是基于段落概要来进行的。

相关推荐
测试开发技术1 天前
什么样的 prompt 是好的 prompt?
人工智能·ai·大模型·prompt
小新学习屋1 天前
大模型-智能体-【篇一:单智能体框架】
大模型·智能体
小新学习屋1 天前
大模型-智能体-【篇二:多智能体框架】
大模型·多智能体
居7然1 天前
DeepSeek-7B-chat 4bits量化 QLora 微调
人工智能·分布式·架构·大模型·transformer
OpenCSG2 天前
【活动预告】2025斗拱开发者大会,共探支付与AI未来
人工智能·ai·开源·大模型·支付安全
万俟淋曦2 天前
【论文速递】2025年第28周(Jul-06-12)(Robotics/Embodied AI/LLM)
人工智能·ai·机器人·大模型·论文·robotics·具身智能
梵得儿SHI2 天前
Prompt Engineering 核心知识:从基础模式到思维链,掌握大模型高效交互秘籍
大模型·prompt·交互·提示词·对话·大模型提问艺术·极简指令
加油20192 天前
ASR+LLM:B站学习视屏下载并生成学习笔记
llm·学习笔记·b站·asr·bilibili
hzp6662 天前
Magnus:面向大规模机器学习工作负载的综合数据管理方法
人工智能·深度学习·机器学习·大模型·llm·数据湖·大数据存储
START_GAME2 天前
语音合成系统---IndexTTS2:环境配置与实战
人工智能·语音识别