• 中文词频统计



    下载一长篇中文文章。

    从文件读取待分析文本。

    news = open('gzccnews.txt','r',encoding = 'utf-8')

    安装与使用jieba进行中文分词。

    pip install jieba

    import jieba

    list(jieba.lcut(news))

    生成词频统计

    排序

    排除语法型词汇,代词、冠词、连词

    输出词频最大TOP20

    复制代码
     1 # -*- coding: UTF-8 -*-
     2 # -*- author: yjw -*-
     3 import jieba
     4 
     5 
     6 fo=open('1.txt','r',encoding = 'utf-8')
     7 
     8 text=fo.read()
     9 text2=list(jieba.lcut(text))
    10 
    11 sign={'',' ','','我们', '', '他们', '我的', '他的', '你的', '', '', '','','','','','','','','?','','',
    12            '','','','','','','','','','','','','','', '
    ','(',')','','','','便','','','','','','那里',
    13            '','一个','','','','','她','都','道','好','还','’','‘','呢','来','得','你们','才','们'}
    14 
    15 text3={}
    16 for i in text2:
    17     text3[i]=text3.get(i,0)+1
    18 
    19 for i in sign:
    20     if i in text3:
    21         del text3[i]
    22 
    23 text4 =sorted(text3.items(),key=lambda x:x[1],reverse=True)
    24 for i in range(20):
    25     print(text4[i])


  • 相关阅读:
    lua 源码阅读 5.3.5 笔记
    lua 源码阅读 1.1 -> 2.1
    lua 1.0 源码分析 -- 总结
    lua 1.0 源码分析 -- 2 内存回收
    lua 1.0 源码分析 -- 1 lua 的虚拟指令
    protoc-c 阅读笔记
    protoc-c 安装记录
    转前端开发中常用工具函数总结
    sql 设计规范
    web.config文件详解[转]
  • 原文地址:https://www.cnblogs.com/verson/p/8663520.html
Copyright © 2020-2023  润新知