流式语音识别概述-paddlespeech

语音识别技术(Automatic Speech Recognition)是一种将人的语音转换为文本的技术。在智能问答中,可通过语音接入用户query,实现问答。

在流式语音识别系统中,客户端不断地将音频数据实时传输至服务器,而服务器则负责对这些数据进行即时语音识别,并将识别出的文本结果实时回传给客户端。

PaddleSpeech,采用WebSocket协议来确保客户端与服务器之间能够长时间稳定地保持连接。WebSocket协议以其支持全双工通信的特性而著称,在同一网络连接上,客户端和服务器可以同时发送和接收消息,无需像传统HTTP请求那样频繁地建立和断开连接。

流式 TTS 服务支持 http 和 webscoket 两种协议。

http 支持流式返回,可以满足目前的流式 TTS 的方案,即请求一次,返回流式数据,响应返回结束会自动断开连接。

而 websocket 支持双工,适用于需要长连接的场景,也可应用于目前的流式 TTS 的方案,可以在一次连接中请求多次,相比 http 请求多次而言,可减少建立连接的次数。

除此之外,流式 ASR 使用的是 websocket 协议,使用 webscoket 协议启动服务,可以同时启动包含流式 ASR 和流式 TTS 的服务。

访问流式 TTS 服务流程图(左:访问 http 服务;右:访问 websocket 服务)

客户端操作:

  1. client 端向 server 端发送 http 请求(在这个过程中,client 端会先向 server 端发送建立连接请求并和 server 端建立连接)

  2. server 端收到请求后先检查字段内容是否有效,然后去引擎池取对应的引擎

  3. 引擎进行推理生成合成音频,将其封装成设计的响应格式,返回响应到 client 端,并自动断开连接

  4. client 端收到响应后,对其结果进行后处理(保存音频操作)

    复制代码
     async with websockets.connect('ws://ip:8090/paddlespeech/asr/streaming') as ws:
        
         # 第一次调用需要发送开始指令
         audio_info = json.dumps({"name": "test.wav", "signal": "start", "nbest": 1})
         await ws.send(audio_info)
         msg = await ws.recv()
         # {'status': 'ok', 'signal': 'server_ready'}
         msg = json.loads(msg)
         print(msg)
         # 输出内容长度
         length = 0
       
         # 计算在给定的采样率(RATE)、数据块大小(CHUNK)和录制时长(RECORD_SECONDS)下,需要读取多少个数据块来完成整个录制过程。
         print(int(RATE / CHUNK * RECORD_SECONDS))
         for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
             data = stream.read(CHUNK)
             await ws.send(data)
             msg = await ws.recv()
             # {'result': ''}
             msg = json.loads(msg)
         .........
    
         # 发送结束指令
         audio_info = json.dumps({"name": "test.wav", "signal": "end", "nbest": 1})
         await ws.send(audio_info)
         msg = await ws.recv()
         # {'status': 'ok', 'signal': 'finished', 'result': '', 'times': [{'w': '', 'bg': 0.0, 'ed': 0.68}, ...]}
         msg = json.loads(msg)
         if tag and len(msg['result']) > 0:
             punc_text = punc(msg['result'])
             msg['result'] = punc_text
         print(msg['result'])

服务端:

  1. 准备服务对应的配置参数文件,文件内包含该服务启动使用的模型相关信息和服务端口,引擎选择的相关信息

  2. 根据配置文件中引擎的选择将对应的引擎加入到引擎池中(该步骤的目的是为了使得启动的服务入口可以支持多个语音服务)

  3. 根据配置文件中的模型配置对上述对应的引擎进行初始化

  4. 使用 fastapi 和 uvicorn 启动服务

    from paddlespeech.server.bin.paddlespeech_server import ServerExecutor

    server_executor = ServerExecutor()
    server_executor(
    config_file="./conf/application.yaml",
    log_file="./log/paddlespeech.log")

注:部分内容摘自百度飞桨平台。

相关推荐
dazzle8 分钟前
计算机视觉处理(OpenCV基础教学(十九):图像轮廓特征查找技术详解)
人工智能·opencv·计算机视觉
拌面jiang9 分钟前
过拟合--Overfitting(#拌面)
人工智能·深度学习·机器学习
MM_MS15 分钟前
Halcon控制语句
java·大数据·前端·数据库·人工智能·算法·视觉检测
桂花饼19 分钟前
基于第三方中转的高效 Sora-2 接口集成方案
人工智能·aigc·ai视频生成·gemini 3 pro·gpt-5.2·ai绘画4k·sora_video2
golang学习记24 分钟前
Zed 编辑器的 6 个隐藏技巧:提升开发效率的「冷知识」整理
人工智能
武汉大学-王浩宇32 分钟前
LLaMa-Factory的继续训练(Resume Training)
人工智能·机器学习
weisian15135 分钟前
入门篇--知名企业-28-字节跳动-2--字节跳动的AI宇宙:从技术赋能到生态共建的深度布局
人工智能·字节跳动·扣子·豆包
NGBQ121381 小时前
原创餐饮店铺图片数据集:344张高质量店铺图像助力商业空间识别与智能分析的专业数据集
人工智能
FIT2CLOUD飞致云1 小时前
应用升级为智能体,模板中心上线,MaxKB开源企业级智能体平台v2.5.0版本发布
人工智能·ai·开源·1panel·maxkb
haiyu_y1 小时前
Day 58 经典时序模型 2(ARIMA / 季节性 / 残差诊断)
人工智能·深度学习·ar