wordcloud分词生成

代码如下 _

复制代码
from wordcloud import WordCloud
import PIL.Image as image
import numpy as np
import jieba

def cut(text):
    word_list = jieba.cut(text,cut_all= True)
    # 分词后在单独个体之间加上空格
    result = " ".join(word_list)
    return result

#导入文本文件,进行分词,制作词云
with open("xiaoshuo.txt") as fp:
    text = fp.read()
    # 将读取的中文文档进行分词
    text = cut(text)
    
#设置词云形状
mask = np.array(image.open("538eba130bea1e8c.webp"))
#自定义词云
wordcloud = WordCloud(mask=mask,background_color='#FFFFFF',font_path=r'C:\windows\Fonts\汉仪书魂体简.TTF').generate(text)

#返回对象
image_produce = wordcloud.to_image()
#保存图片
wordcloud.to_file("new_wordcloud.jpg")
#显示图像
image_produce.show()

使用的文本 _

1.xiaoshuo.txt文件

2.背景为白色的一张图片,538eba130bea1e8c.webp

结果

相关推荐
Wise玩转AI5 小时前
Day 27|智能体的 UI 与用户交互层
人工智能·python·ui·ai·chatgpt·ai智能体
s***46985 小时前
【玩转全栈】----Django模板语法、请求与响应
数据库·python·django
runepic6 小时前
Python + PostgreSQL 批量图片分发脚本:分类、去重、断点续拷贝
服务器·数据库·python·postgresql
codists6 小时前
2025年11月文章一览
python
生而为虫6 小时前
31.Python语言进阶
python·scrapy·django·flask·fastapi·pygame·tornado
言之。6 小时前
Claude Code 实用开发手册
python
计算机毕设小月哥6 小时前
【Hadoop+Spark+python毕设】中国租房信息可视化分析系统、计算机毕业设计、包括数据爬取、Spark、数据分析、数据可视化、Hadoop
后端·python·mysql
2***c4357 小时前
Redis——使用 python 操作 redis 之从 hmse 迁移到 hset
数据库·redis·python
二川bro8 小时前
模型部署实战:Python结合ONNX与TensorRT
开发语言·python
秋邱8 小时前
AI + 社区服务:智慧老年康养助手(轻量化落地方案)
人工智能·python·重构·ar·推荐算法·agi