• Python + wordcloud + jieba 十分钟学会用任意中文文本生成词云


    前述

    本文需要的两个Python类库
    jieba:中文分词分词工具
    wordcloud:Python下的词云生成工具

    写作本篇文章用时一个小时半,阅读需要十分钟,读完该文章后你将学会如何将任意中文文本生成词云
    Python词云 wordcloud 十五分钟入门与进阶
    Python中文分词 jieba 十五分钟入门与进阶

    代码组成简介

    1. 代码部分来源于其他人的博客,但是因为bug或者运行效率的原因,我对代码进行了较大的改变
    2. 代码第一部分,设置代码运行需要的大部分参数,你可以方便的直接使用该代码而不需要进行过多的修改
    3. 第二部分为jieba的一些设置,当然你也可以利用isCN参数取消中文分词
    4. 第三部分,wordcloud的设置,包括图片展示与保存

    如果你想用该代码生成英文词云,那么你需要将isCN参数设置为0,并且提供英文的停用词表,但是我更推荐你使用Python词云 worldcloud 十五分钟入门与进阶这篇文章中的代码,因为它更简洁,更有利于使用’

    Use the code by comment

    关于该程序的使用,你可以直接读注释在数分钟内学会如何使用它

    # - * - coding: utf - 8 -*-
    #
    # 作者:田丰(FontTian)
    # 创建时间:'2017/5/23'
    # 邮箱:fonttian@163.com
    # CSDN:http://blog.csdn.net/fontthrone
    from os import path
    from scipy.misc import imread
    import matplotlib.pyplot as plt
    import jieba
    # jieba.load_userdict("txtuserdict.txt")
    # 添加用户词库为主词典,原词典变为非主词典
    from wordcloud import WordCloud, ImageColorGenerator
    
    # 获取当前文件路径
    # __file__ 为当前文件, 在ide中运行此行会报错,可改为
    # d = path.dirname('.')
    d = path.dirname(__file__)
    
    stopwords = {}
    isCN = 1 #默认启用中文分词
    back_coloring_path = "img/lz1.jpg" # 设置背景图片路径
    text_path = 'txt/lz.txt' #设置要分析的文本路径
    font_path = 'D:Fontssimkai.ttf' # 为matplotlib设置中文字体路径没
    stopwords_path = 'stopwordsstopwords1893.txt' # 停用词词表
    imgname1 = "WordCloudDefautColors.png" # 保存的图片名字1(只按照背景图片形状)
    imgname2 = "WordCloudColorsByImg.png"# 保存的图片名字2(颜色按照背景图片颜色布局生成)
    
    my_words_list = ['路明非'] # 在结巴的词库中添加新词
    
    back_coloring = imread(path.join(d, back_coloring_path))# 设置背景图片
    
    # 设置词云属性
    wc = WordCloud(font_path=font_path,  # 设置字体
                   background_color="white",  # 背景颜色
                   max_words=2000,  # 词云显示的最大词数
                   mask=back_coloring,  # 设置背景图片
                   max_font_size=100,  # 字体最大值
                   random_state=42,
                   width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,那么保存的图片大小将会按照其大小保存,margin为词语边缘距离
                   )
    
    # 添加自己的词库分词
    def add_word(list):
        for items in list:
            jieba.add_word(items)
    
    add_word(my_words_list)
    
    text = open(path.join(d, text_path)).read()
    
    def jiebaclearText(text):
        mywordlist = []
        seg_list = jieba.cut(text, cut_all=False)
        liststr="/ ".join(seg_list)
        f_stop = open(stopwords_path)
        try:
            f_stop_text = f_stop.read( )
            f_stop_text=unicode(f_stop_text,'utf-8')
        finally:
            f_stop.close( )
        f_stop_seg_list=f_stop_text.split('
    ')
        for myword in liststr.split('/'):
            if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1:
                mywordlist.append(myword)
        return ''.join(mywordlist)
    
    if isCN:
        text = jiebaclearText(text)
    
    # 生成词云, 可以用generate输入全部文本(wordcloud对中文分词支持不好,建议启用中文分词),也可以我们计算好词频后使用generate_from_frequencies函数
    wc.generate(text)
    # wc.generate_from_frequencies(txt_freq)
    # txt_freq例子为[('词a', 100),('词b', 90),('词c', 80)]
    # 从背景图片生成颜色值
    image_colors = ImageColorGenerator(back_coloring)
    
    plt.figure()
    # 以下代码显示图片
    plt.imshow(wc)
    plt.axis("off")
    plt.show()
    # 绘制词云
    
    # 保存图片
    wc.to_file(path.join(d, imgname1))
    
    image_colors = ImageColorGenerator(back_coloring)
    
    plt.imshow(wc.recolor(color_func=image_colors))
    plt.axis("off")
    # 绘制背景图片为颜色的图片
    plt.figure()
    plt.imshow(back_coloring, cmap=plt.cm.gray)
    plt.axis("off")
    plt.show()
    # 保存图片
    wc.to_file(path.join(d, imgname2))

    龙族一背景图片原图

    龙族一生成的词云

    龙族一按照背景图片颜色生成的词云

    good luck

  • 相关阅读:
    Nginx资源合并优化模块nginx-http-concat
    Nginx的模块http_secure_link_module
    Nginx前段加速模块pagespeed-ngx
    Naxsi+nginx前段保护
    Selenium for C#的入门Demo
    C# 比较两个数组中的内容是否相同的算法
    C#读取自定义的config
    关于分布式计算之Actor、AKKA和MapReduce
    numpy模块的基本使用
    python单元测试库
  • 原文地址:https://www.cnblogs.com/fonttian/p/9162832.html
Copyright © 2020-2023  润新知