一、概述
执行如下:
python
def split_spacy(text):
import spacy
nlp = spacy.load( "zh_core_web_sm" )
doc = nlp(text)
for s in doc.sents:
print(s)
# d:\programdata\anaconda3\envs\python310\lib\site-packages
if __name__=="__main__":
text = "我是一个名为 ChatGLM3-6B 的人工智能助手,是基于清华大学 KEG 实验室和智谱 AI公司于 2023 年共同训练的语言模型开发的。我的目标是通过回答用户提出的问题来帮助他们解决问题。由于我是一个计算机程序,所以我没有实际的存在,只能通过互联网来与用户交流。"
# split_normal(text)
# sp=split_sentences_with_delimiters(text)
# print(f"sp:{sp}")
split_spacy(text)
报:
[E050] Can't find model 'zh_core_web_sm'. It doesn't seem to be a Python package or a valid path to a data directory.
二、解决方案
(1)前提条件:
spacy必须是3.7.0版本
(2)操作方式:
1.从spacy/zh_core_web_sm at main下载zh_core_web_sm-any-py3-none-any.whl
2.安装pip install zh_core_web_sm-any-py3-none-any.whl
3再运行,就能正确输出内容。