• 如何利用Python词云和wordart可视化工具对朋友圈数据进行可视化展示


    大前天我们通过Python网络爬虫对朋友圈的数据进行了抓取,感兴趣的朋友可以点击进行查看,如何利用Python网络爬虫抓取微信朋友圈的动态(上)如何利用Python网络爬虫爬取微信朋友圈动态——附代码(下)。今天小编带大家通过词云去将其进行可视化,具体的教程如下。

    1、在Python中做词云,需要用到wordcloud库和jieba分词库,没有安装的伙伴可以直接pip安装即可。

     

    2、之后你可能还需要一些字体,如simhei.ttf等,这些字体在网上都有,可以直接进行下载,在做词云的时候会用得到,如下图所示。

     

    3、在items.py的同级目录下建立analyse.py文件,定义analyse_words方法,用于实现词云可视化,jieba.cut用于得到分词结果,具体的代码实现,如下图所示。因为得到的moment.json数据是以JSON格式存储的,所以需要在该文件中导入JSON模块对其进行解析。

     

    这个地方需要注意一下,由于我们的memoent.json文件中是中文字符,如果在open()函数中没有加入encoding=’utf-8’的话会导致gbk编码错误,记得将编码加上即可。

    4、之后运行程序,得到keys.png图片文件,程序运行的效果如下图所示。可以看到keys.png已经在items.py目录下了。

     

    5、双击keys.png,如下图所示。

     

    6、不得不承认,这个词云图片内容确实丰富,不过也十分的丑。小编利用wordart(一个词云网站)将朋友圈数据进行更加美化的可视化。

     

    7、比方说用动物的图案进行可视化,效果图如下图所示。

     

    8、如果直接将数据进行导入的话,wordart会直接将整段话进行可视化,这样显得十分冗余,看上去也不太友好,因此还需要通过Python对数据进行分频统计,之后再导入到wordart中就可以看到想要的效果了。首先,我们需要对json文件进行处理一下,将文本全部导出来,形成一个moment.txt文件。内容如下图所示。

     

    9、编写代码,将文本进行分词,代码实现如下所示。

     

    10、程序运行完成之后,得到的moment_outputs.txt文件,内容如下图所示,可以很清楚的看到分词情况。红色部分是程序运行的过程。

     

    11、继续编写代码,将词频进行统计汇总,代码实现如下图所示。

     

    12、程序运行之后,得到一个txt和Excel文件,里边是关于词频统计的信息,如下图所示。红色部分是程序运行的结果,并没有报错。

     

    13、将这些关键字导入到wordart中进行可视化,如下图所示。

     

    14、设置一下图案、字体、排版、颜色等等,就可以生成绚丽的词云图了,下图是汪星人词云图。

     

    15、下图是小云朵词云图,可以给视觉带来一场饕餮盛宴。

     

    小伙伴们,你们有没有觉得很神奇呢?喜欢的话欢迎收藏和转载噢~~

  • 相关阅读:
    python之os模块分类整理
    MySql的四种事务隔离级别
    Ajax异步请求XMLHttpRequest对象Get请求
    经典mssql语句大全
    Repeater 无刷新分页
    关于编写性能高效的javascript事件的技术
    ASP.NET页面之间数据传递的几种方法
    MSSQL常用函数大全
    .net-一般处理程序及生命周期
    请求管道中的19个事件
  • 原文地址:https://www.cnblogs.com/dcpeng/p/9045457.html
Copyright © 2020-2023  润新知