解决安装pynini和WeTextProcessing报错问题

点击这里,访问博客

0. 背景

最近在给别人有偿部署ASR-LLM-TTS项目时遇到安装pyniniWeTextProcessing依赖报错的问题,报错信息如下:

markdown 复制代码
IC:\Program Files (x86)\Windows Kits\10\include\10.0.22621.0\ucrt" "-IC:\Program Files (x86)\Windows Kits\10\include\10.0.22621.0\um" "-IC:\Program Files (x86)\Windows Kits\10\include\10.0.22621.0\shared" "-IC:\Program Files (x86)\Windows Kits\10\include\10.0.22621.0\winrt" "-IC:\Program Files (x86)\Windows Kits\10\include\10.0.22621.0\cppwinrt" /EHsc /Tpextensions/_pywrapfst.cpp /Fobuild\temp.win-amd64-cpython-311\Release\extensions/_pywrapfst.obj -std=c++17 -Wno-register -Wno-deprecated-declarations -Wno-unused-function -Wno-unused-local-typedefs -funsigned-char
cl: 命令行 error D8021 :无效的数值参数"/Wno-register"
error: command 'D:\Visual_Studio2022\VC\Tools\MSVC\14.42.34433\bin\HostX86\x64\cl.exe' failed with exit code 2
[end of output]

note: This error originates from a subprocess, and is likely not a problem with pip.
ERROR: Failed building wheel for pynini
Running setup.py clean for pynini
Failed to build pynini
ERROR: ERROR: Failed to build installable wheels for some pyproject.toml based projects (pynini)

1. 解决pynini依赖报错问题

我使用了pip install 方式来安装,结果也是会报错。

于是在网上找到了解决方案,点击这里,跳转到原文。

使用pip install方式,安装报错,那么就可以考虑使用conda install方式安装,如下所示:

shell 复制代码
conda install -c conda-forge pynini=2.1.6

2. 解决WeTextProcessing依赖报错问题

可以使用下面命令解决。

shell 复制代码
pip install WeTextProcessing --no-deps

3. 其它

ASR-LLM-TTS项目源码,点击这里

前后端分离ASR_LLM_TTS项目后端源码,点击这里

前后端分离ASR_LLM_TTS项目前端源码,点击这里

原文出自我的博客,点击这里

相关推荐
moz与京3 小时前
[附C++,JS,Python题解] Leetcode 面试150题(10)——轮转数组
c++·python·leetcode
什码情况4 小时前
回文时间 - 携程机试真题题解
数据结构·python·算法·华为od·机试
Alfadi联盟 萧瑶4 小时前
Python-Django入手
开发语言·python·django
漠北尘-Gavin6 小时前
【Python3.12.9安装llama-cpp-python遇到编译报错问题解决】
python·llama
测试老哥6 小时前
什么是集成测试?集成的方法有哪些?
自动化测试·软件测试·python·测试工具·职场和发展·单元测试·集成测试
豆芽8197 小时前
Conda配置Python环境
python·conda·pip
CANI_PLUS7 小时前
python 列表-元组-集合-字典
开发语言·python
东方佑7 小时前
使用 Python 自动处理 Excel 数据缺失值的完整指南
开发语言·python·excel
weixin_478689767 小时前
pytorch与其他ai工具
人工智能·pytorch·python