用python生成词云图 --- 新手练手

类似生成各种形状的云图,我也会啦!

其实也就是针对新手吧,我估计老手分分钟,哈哈哈,我怕我忘了,随手记录下~

四个步骤吧:

  1. 读文件
  2. 分词
  3. 生成词云图
  4. 显示词云图

1. 读文件

使用了下 codecs 库,读取内容更方便。

python 复制代码
import codecs
def get_file_content(filePath):
  with codecs.open(filePath, 'r', 'utf-8') as f:
      txt = f.read()
  return txt

2. 分词

jieba是一个分词库,可以将一段文本分割成词语。cut 是将文本精确切分开,不存在冗余词语。比如颜酱是一个厉害的厨师,会变成['颜酱', '厉害', '厨师']Counter是一个计数器,可以统计词语出现的次数,most_common 是取出最常用的词语。

python 复制代码
import jieba
from collections import Counter
def get_words(txt):
    # 先分词,得到词语数组
    seg_list = jieba.cut(txt)
    # 开始计数
    c = Counter()
    for x in seg_list:
        if len(x)>1 and x != '\r\n':
            c[x] += 1
    word_list = []
    print('常用词频度统计结果')
     # 统计前99个词
    for (k,v) in c.most_common(99):
        word_list.append(str(k))
    # 将词语生成文本文件
    file = open("./dist/out_words.txt", 'w').close()
    with open("./dist/out_words.txt",'a+',encoding='utf-8') as writeFile:
        for (k,v) in c.most_common(99):    # 统计前99个词
            writeFile.write(str(k))
            writeFile.write(str(v))
            writeFile.write('\n')
    print(word_list)
    # ['发展','平安']
    return word_list

3. 生成云图

wordcloud 是一个词云库,可以将词语生成词云图片。

python 复制代码
import wordcloud;
def generate_cloud_image(file_path, shape_image_path):
  word_list = get_words(get_file_content(file_path))
  string = ' '.join(word_list)
  # 读取词云形状图片
  image = imageio.v2.imread(shape_image_path)
  # 先实例化一个词云对象
  wc = wordcloud.WordCloud(width=image.shape[0],     # 词云图宽度同原图片宽度
                          height=image.shape[1],
                          background_color='white',  # 背景颜色白色
                          font_path='Arial Unicode.ttf',    # 指定字体路径,微软雅黑,可从自带的字体库中找
                          mask=image,   # mask 指定词云形状图片,默认为矩形
                          scale=3)      # 默认为1,越大越清晰
  # 生成词云
  wc.generate(string)
  # 保存成文件,output_wordcloud.png,词云图
  wc.to_file('dist/output_wordcloud.png')
  # 弹出图片显示
  alert_image('dist/output_wordcloud.png')

4. 显示词云图

matplotlib是一个绘图库,可以将图片显示出来,plt 用于显示图片,mpimg 用于读取图片。

python 复制代码
#
# plt用于显示图片
import matplotlib.pyplot as plt
# mpimg 用于读取图片
import matplotlib.image as mpimg
def alert_image(image_path):
  # 这里是让词云图弹出来显示
  lena = mpimg.imread(image_path) # 读取和代码处于同一目录下的 lena.png
  # 此时 lena 就已经是一个 np.array 了,可以对它进行任意处理
  lena.shape #(512, 512, 3)
  plt.imshow(lena) # 显示图片
  plt.axis('off') # 不显示坐标轴
  plt.show()

这就可以了!

其他文件

准备好文件实验:

input.txt

input.txt

cloud.jpg

generate_cloud_image.py

generate_cloud_image.py:

python 复制代码
import codecs
import jieba
import imageio
import wordcloud
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
from collections import Counter
# def get_words(txt):...
# def get_file_content:...
# def alert_image(image_path):...
# def generate_cloud_image(file_path, shape_image_path):...
generate_cloud_image('input.txt', 'cloud.jpg')

完整版:

python 复制代码
import codecs
import jieba
import imageio
import wordcloud
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
from collections import Counter
#  get_words函数用于统计词频,生成out.txt,展示词语和词频 如发展218 坚持170
def get_words(txt):
    seg_list = jieba.cut(txt)
    c = Counter()
    for x in seg_list:
        if len(x)>1 and x != '\r\n':
            c[x] += 1
    word_list = []
    print('常用词频度统计结果')
     # 统计前99个词
    for (k,v) in c.most_common(99):
        word_list.append(str(k))

    file = open("./out_words.txt", 'w').close()
    with open("./out_words.txt",'a+',encoding='utf-8') as writeFile:
        for (k,v) in c.most_common(99):    # 统计前99个词
            writeFile.write(str(k))
            writeFile.write(str(v))
            writeFile.write('\n')
    print(word_list)
    # ['发展','平安']
    return word_list

def get_file_content(filePath):
    with codecs.open(filePath, 'r', 'utf-8') as f:
        txt = f.read()
    return txt
def alert_image(image_path):
    # 这里是让词云图弹出来显示
    lena = mpimg.imread(image_path) # 读取和代码处于同一目录下的 lena.png
    # 此时 lena 就已经是一个 np.array 了,可以对它进行任意处理
    lena.shape #(512, 512, 3)
    plt.imshow(lena) # 显示图片
    plt.axis('off') # 不显示坐标轴
    plt.show()

# 根据文件生成词云图,file_path是文本文件路径,shape_image_path是词云图的图片途径
def generate_cloud_image(file_path, shape_image_path):
    word_list = get_words(get_file_content(file_path))
    string = ' '.join(word_list)
    # 读取词云形状图片
    image = imageio.v2.imread(shape_image_path)
    # 生成词云图片,先实例化一个词云对象
    wc = wordcloud.WordCloud(width=image.shape[0],     # 词云图宽度同原图片宽度
                            height=image.shape[1],
                            background_color='white',  # 背景颜色白色
                            font_path='Arial Unicode.ttf',    # 指定字体路径,微软雅黑,可从win自带的字体库中找
                            mask=image,   # mask 指定词云形状图片,默认为矩形
                            scale=3)      # 默认为1,越大越清晰
    # 再给词云
    wc.generate(string)
    # 保存成文件,output_wordcloud.png,词云图
    wc.to_file('output_wordcloud.png')
    alert_image('output_wordcloud.png')

generate_cloud_image('input.txt', 'cloud.jpg')

运行

记得先pip3 install jieba imageio wordcloud matplotlib

然后python3 generate_cloud_image.py

📢:文件在同一目录,进到这个目录下运行命令

相关推荐
lihuayong2 分钟前
计算机视觉:主流数据集整理
人工智能·计算机视觉·mnist数据集·coco数据集·图像数据集·cifar-10数据集·imagenet数据集
政安晨11 分钟前
政安晨【零基础玩转各类开源AI项目】DeepSeek 多模态大模型Janus-Pro-7B,本地部署!支持图像识别和图像生成
人工智能·大模型·多模态·deepseek·janus-pro-7b
羊小猪~~11 分钟前
MYSQL学习笔记(九):MYSQL表的“增删改查”
数据库·笔记·后端·sql·学习·mysql·考研
一ge科研小菜鸡16 分钟前
DeepSeek 与后端开发:AI 赋能云端架构与智能化服务
人工智能·云原生
冰 河18 分钟前
‌最新版DeepSeek保姆级安装教程:本地部署+避坑指南
人工智能·程序员·openai·deepseek·冰河大模型
维维180-3121-145519 分钟前
AI赋能生态学暨“ChatGPT+”多技术融合在生态系统服务中的实践技术应用与论文撰写
人工智能·chatgpt
豌豆花下猫26 分钟前
Python 潮流周刊#90:uv 一周岁了,优缺点分析(摘要)
后端·python·ai
終不似少年遊*31 分钟前
词向量与词嵌入
人工智能·深度学习·nlp·机器翻译·词嵌入
杜大哥40 分钟前
如何在WPS打开的word、excel文件中,使用AI?
人工智能·word·excel·wps
Leiditech__1 小时前
人工智能时代电子机器人静电问题及电路设计防范措施
人工智能·嵌入式硬件·机器人·硬件工程