Python实战:小说分词统计-数据可视化

在这篇博客中,我们将利用Python的jiebamatplotlib库,对经典小说《战争与和平》进行中文词语分析,统计小说中出现最多的10个人名,并以柱形图的形式展示结果。我们会特别处理一些别名,使统计结果更为准确。

步骤概览

具体实现

读取文本数据 : 我们首先将《战争与和平》的文本文件读入程序中。这里假设文件名为war_and_peace.txt并且位于当前工作目录。

使用jieba进行分词jieba是一个中文分词工具,我们使用它将整篇文章分割成一个个单词。

统计人名出现次数 : 我们定义了一个包含主要人名的列表,并使用Counter对这些人名在分词结果中的出现次数进行统计。

合并别名: 为了统计的准确性,我们将一些别名合并到相应的人名。例如,"公爵"计入"安德烈","小姐"计入"娜塔莎","伯爵"计入"皮埃尔"。

绘制统计图表 : 使用matplotlib绘制柱形图,展示出现次数最多的10个人名及其出现次数。

结果展示

运行上述代码后,我们得到一张柱形图,显示了《战争与和平》中出现次数最多的10个人名及其出现次数。这种可视化方法可以帮助我们更直观地理解小说中主要人物的出场频率和重要性。

总结

通过这篇博客,我们展示了如何利用Python的jiebamatplotlib库对中文文本进行词语分析,并绘制统计图表。希望这篇博客能对你有所帮助,如果有任何问题或建议,欢迎留言讨论!


请确保在运行代码前已安装必要的Python库:

sh 复制代码
pip install jieba matplotlib

并将《战争与和平》的文本文件命名为war_and_peace.txt,放置在当前工作目录中。

程序

👉更多项目,点我查看

相关推荐
鸟哥大大几秒前
【Python】pypinyin-汉字拼音转换工具
python·自然语言处理
jiugie8 分钟前
MongoDB学习
数据库·python·mongodb
十八朵郁金香28 分钟前
通俗易懂的DOM1级标准介绍
开发语言·前端·javascript
阿尔法波31 分钟前
python与pycharm如何设置文件夹为源代码根目录
开发语言·python·pycharm
xing251640 分钟前
pytest下allure
开发语言·python·pytest
眸笑丶44 分钟前
使用 Python 调用 Ollama API 并调用 deepseek-r1:8b 模型
开发语言·python
dexianshen1 小时前
配置mysql8.0使用PXC实现高可用
python
中国loong1 小时前
pandas连接mysql数据库
python
enyp801 小时前
Qt QStackedWidget 总结
开发语言·qt
带娃的IT创业者1 小时前
《Python实战进阶》专栏 No.3:Django 项目结构解析与入门DEMO
数据库·python·django