jieba

友猫2 个月前
python·jieba·wordcloud
wordcloud分词生成代码如下 _使用的文本 _ 1.xiaoshuo.txt文件 2.背景为白色的一张图片,538eba130bea1e8c.webp 结果
林鸿群3 个月前
tensorflow·matplotlib·jieba·xtarfile
macOS平台TensorFlow环境安装1.安装xtarfile2.安装3.安装jieba4.安装tensorflow安装成功
逐梦苍穹4 个月前
人工智能·自然语言处理·jieba·结巴分词
【NLP】文本处理的基本方法【jieba分词、命名实体、词性标注】🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。 🦅个人主页:@逐梦苍穹 📕所属专栏:人工智能 🌻gitee地址:xzl的人工智能代码仓库 ✈ 您的一键三连,是我创作的最大动力🌹
有勇气的牛排5 个月前
自然语言处理·中文分词·jieba
中文分词库 jieba 详细使用方法与案例演示jieba 是一个非常流行的中文分词库,具有高效、准确分词的效果。它支持3种分词模式:测试环境:python3.10.9
guts3508 个月前
python·搜索引擎·自然语言处理·jieba·nltk
【python】swjtu西南交大互联网搜索引擎 项目一 报告:搜索引擎文本预处理通过下载引擎(Web Crawler/Spider)自动下载至少500个英文文档/网页,以及500个中文文档/网页,越多越好,并保留原始的文档/网页备份(如:News_1_Org.txt)
Mount2561 年前
python·jieba·wordcloud·词云
wordcloud库和jieba库的使用在使用wordcloud库的时候,运行报错:ValueError: Only supported for TrueType fonts
爱看书的小沐1 年前
python·自然语言处理·tf-idf·分词·sklearn·jieba·nltk
【小沐学NLP】Python实现TF-IDF算法(nltk、sklearn、jieba)TF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF是词频(Term Frequency),IDF是逆文本频率指数(Inverse Document Frequency)。
微小冷1 年前
python·tkinter·jieba·wordcloud·词云
Python词云生成工具3:定制更多参数我们所有的设置都放在了wcDct中,所以若想用更多的参数来定制词云,那么只需在wcDct中添加内容,例如下面这些整型参数
llsxily1 年前
django·haystack·whoosh·jieba
稍微深度踩坑haystack + whoosh + jieba说到django的全文检索,网上基本推荐的都是 haystack + whoosh + jieba 的方案。 由于我的需求对搜索时间敏感度较低,但是要求不能有数据的错漏。 但是没有调试的情况下,搜索质量真的很差,搞得我都想直接用Like搜索数据库算了。 但是峰回路转,还是让我找到几个信息,稍微优化了一下搜索结果。