Python 数据分析的敲门砖 jieba模块中文分词


文章目录

文章开篇

Python的魅力,犹如星河璀璨,无尽无边;人生苦短、我用Python!


Jieba简介

jieba 是一个用于中文文本分词 的 Python 库。

它能够将一整段中文文本切分成有意义的词语或短语

分词是中文**自然语言处理(NLP)**中非常重要的一步,因为中文句子中的词与词之间不像英文那样有明确的空格分隔,所以需要专门的工具来进行分词。


使用场景

在文本分析中,可能需要知道文本中哪些词或短语出现的频率最高 ,或者文本的主题 是什么。

在情感分析中,分词可以帮助你识别文本中的关键词或短语 ,进而判断文本的情感倾向

在机器翻译时,源语言和目标语言都需要进行分词,以便将文本转换成机器可以理解的格式

在搜索引擎中,需要对输入的查询内容进行分词,以便更好地理解用户的意图,并返回相关的搜索结果。


jieba的引用

jieba属于第三方模块,使用前需要额外下载安装

python 复制代码
pip install jieba

下载安装完成后,即可导入使用

python 复制代码
import jieba

jieba常用的方法


1.精确模式分词

jieba.cut(sentence, cut_all=False) :核心函数,用于将中文文本切分成词语;

sentence 是要分词的文本

cut_all 是一个可选参数,默认为False;

  • 当它为 True 时,使用全模式进行分词;
  • 当为 False 时,使用精确模式进行分词;

返回值是一个生成器,包含了分词后的结果

python 复制代码
import jieba

sentence = "你的男朋友是个盖世垃圾,将会脚踏七彩祥云迎娶你的闺蜜"
seg_list = jieba.cut(sentence, cut_all=True)
print("模糊模式分词结果:", "/ ".join(seg_list)) # 模糊模式分词结果: 你/ 的/ 男朋友/ 朋友/ 是/ 个/ 盖世/ 垃圾/ ,/ 将/ 会/ 脚踏/ 七彩/ 祥云/ 迎娶/ 你/ 的/ 闺/ 蜜

seg_list = jieba.cut(sentence, cut_all=False)
print("精确模式分词结果:", "/ ".join(seg_list)) # 精确模式分词结果: 你/ 的/ 男朋友/ 是/ 个/ 盖世/ 垃圾/ ,/ 将会/ 脚踏/ 七彩/ 祥云/ 迎娶/ 你/ 的/ 闺蜜

2.搜索引擎模式分词

jieba.cut_for_search(sentence) :用于搜索引擎的分词模式,适合短文本分词;

返回值是一个生成器,包含了分词后的结果;

python 复制代码
import jieba

sentence = "今天的天气很糟糕"
seg_list = jieba.cut_for_search(sentence)

print("搜索引擎模式分词结果:", "/ ".join(seg_list))   # 搜索引擎模式分词结果: 今天/ 的/ 天气/ 很/ 糟糕

3.添加新词

jieba.add_word(word, freq=None, tag=None) :用于向 jieba 的词典中添加新词;

word 是要添加的新词

freq 是可选参数,表示该词的出现频率

tag 是可选参数,表示该词的词性

python 复制代码
import jieba

# 使用新词进行分词
sentence = "网络热词公主请上车"
seg_list = jieba.cut(sentence, cut_all=False)

print("分词结果:", "/ ".join(seg_list)) # 分词结果: 网络/ 热词/ 公主/ 请/ 上车

# 添加新词到词典
jieba.add_word("公主请上车", 20)
seg_list = jieba.cut(sentence, cut_all=False)

print("分词结果包含新词:", "/ ".join(seg_list)) # 分词结果包含新词: 网络/ 热词/ 公主请上车

4.调整词频

jieba.suggest_freq(segment, tune=True) :调整单个词语的词频,使其能(或不能)被分出来。

segment 是要调整词频的词语。

tune 是一个可选参数,当为 True 时,调整词频后,会立即更新词典;当为 False 时,不更新词典。

python 复制代码
import jieba

sentence = "天蚕土豆是一个网文作者"
seg_list = jieba.cut(sentence, cut_all=False)
print("分词结果:", "/ ".join(seg_list)) # 分词结果: 天蚕/ 土豆/ 是/ 一个/ 网文/ 作者

# 调整词频,使得"调整"可以被切分出来
jieba.suggest_freq("天蚕土豆", True)

seg_list = jieba.cut(sentence, cut_all=False)
print("分词结果包含调整词频后的词:", "/ ".join(seg_list))    # 分词结果包含调整词频后的词: 天蚕土豆/ 是/ 一个/ 网文/ 作者

5.提取关键词

jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=()) :用于文本关键词提取。

sentence 是要提取关键词的文本。

topK 是可选参数,表示返回关键词的个数。

withWeight 是可选参数,当为 True 时,返回关键词及其权重;当为 False 时,只返回关键词。

allowPOS 是可选参数,用于指定需要提取的关键词的词性。

python 复制代码
import jieba.analyse

text = "今天天气非常的糟糕,我不喜欢阴雨天"
keywords = jieba.analyse.extract_tags(text, topK=5, withWeight=True)
print("关键词提取结果:", keywords) # 关键词提取结果: [('今天天气', 2.4582479479), ('阴雨天', 2.3196185118), ('糟糕', 1.6664666296419999), ('喜欢', 1.140517680604), ('非常', 0.9806566012679999)]

应用案例

python 复制代码
import jieba.posseg as pseg

# 示例文本
text = "这部电影真的很好看,演员演技出色,剧情也很吸引人。"

# 使用jieba进行词性标注
words = pseg.cut(text)

# 情感分析(简单示例,实际应用可能需要复杂的模型)
sentiment = 0  # 初始情感分数
for word, flag in words:
    if 'n' in flag:  # 名词可能包含情感信息
        sentiment += 1
    elif 'd' in flag:  # 副词可能加强或减弱情感
        sentiment += 2 if word in ['非常', '十分', '特别', '极其'] else -1

# 根据情感分数判断情感倾向
if sentiment > 0:
    print("正面情感")
elif sentiment < 0:
    print("负面情感")
else:
    print("中性情感")

总结

使用jieba库可以轻松地对中文文本进行分词和词频统计,展现文本中的高频词汇。

然而,jieba库的功能远不止于此,它还包括词性标注、关键词提取等,是一个功能强大的中文分词第三方库,广泛应用于自然语言处理任务中。

相关推荐
WDeLiang1 分钟前
Flask学习笔记 - 表单
笔记·学习·flask
小付同学呀2 分钟前
前端快速入门学习3——CSS介绍与选择器
前端·css·学习
码界筑梦坊3 分钟前
基于FLask的重庆市造价工程信息数据可视化分析系统
python·信息可视化·数据分析·flask·毕业设计
Evand J6 分钟前
【MATLAB例程】TDOA(到达时间差)定位的chan-tylor计算方法,三维环境,附代码下载链接
开发语言·matlab
Bruce_Liuxiaowei6 分钟前
基于Flask的Windows命令大全Web应用技术解析与架构设计
前端·windows·python·flask
用户776601166649710 分钟前
【AI编程学习之Python】第五天:Python的变量和常量
python
難釋懷17 分钟前
JavaScript基础-移动端常用开发框架
开发语言·javascript
dot to one17 分钟前
深入理解 C++ 三大特性之一 继承
开发语言·c++·visual studio
哈哈哈哈哈哈哈哈哈...........18 分钟前
【无标题】object,wait,notifyAll
java·开发语言
不剪发的Tony老师23 分钟前
Redash:一个开源的数据查询与可视化工具
数据分析·bi