• jieba分词库介绍-关键字提取


    jieba

    介绍

    jieba是优秀的中文分词第三方库中文文本需要通过分词获得单个的词语 - jieba是优秀的中文分词第三方库,需要额外安装jieba库提供三种分词模式,最简单只需掌握一个函数

    之前疫情监控系统的词云图制作过程中的分词技术就是用jieba实现的,效果图如下:

    安装方式

    直接cmd命令行进行pip安装 pip install jieba

    jieba分词的三种模式

    1. 精确模式:把文本精确的切分开,不存在冗余单词
    2. 全模式:把文本中所有可能的词语都扫描出来,有冗余
    3. 搜索引擎模式:在精确模式基础上,对长词再次切分

    jieba库常用函数

    jieba分词实例

    先看一个简单的例子:

    将下面这句话进行分词:石家庄铁道大学是一个非常好的大学,这里的一切都是美好的

    分词效果如下:

     但是可见“大学”这个词没有被分出来是什么原因呢?

    其实这里是因为设置了一个词语停用表,关键词对比过程中如果有停用表中的词可以删除不显示,分词结果我是用关键词权重前6名的词用-连接起来输出。

    停用表可以自己设置

    代码实现

     1 import jieba
     2 import jieba.analyse
     3 
     4          #第一步:分词,这里使用结巴分词全模式
     5 text = '''石家庄铁道大学是一个非常非常好的大学,这里的一切都是美好的'''
     6 fenci_text = jieba.cut(text)
     7 #print(fenci_text)
     8 
     9 #第二步:去停用词
    10 #这里是有一个文件存放要改的文章,一个文件存放停用表,然后和停用表里的词比较,一样的就删掉,最后把结果存放在一个文件中
    11 stopwords = {}.fromkeys([ line.rstrip() for line in open('D:learnpathPythonjieba_cut_textstop.txt',encoding='UTF-8') ]) #line.rstrip是用来跳过换行符号的
    12 final = ""
    13 for word in fenci_text:
    14     if word not in stopwords:
    15         if (word != "" and word != "") :
    16             final = final + " " + word
    17 #print(final)
    18 
    19 #第三步:提取关键词
    20 a=jieba.analyse.extract_tags(final, topK = 5, withWeight = False, allowPOS = ())  # text是等待提取的文本,topK:返回几个 TF/IDF 权重最大的关键词,默认值为20。
    21 b=jieba.analyse.extract_tags(final, topK = 6,   allowPOS = ())                   # withWeight:是否一并返回关键词权重值,默认值为False。
    22 
    23 context = ""
    24 for i in b:
    25     context += i+"-"
    26 context = context[0:len(context)-1]
    27 print('被分词的文本:'+text)
    28 print('分词结果:'+context)
  • 相关阅读:
    举个手问个问题;
    c++字符串详解(转)
    Glide请求图片能携带Cookie的哟!
    Glide加载异常调试
    Notification中使用Glide
    manifest中读取<meta-data>
    Glide 魔法般的自定义扩展
    服务端报错死循环,无法输出错误页面问题
    android必须要进行为不同分辨率设备切图
    TextView无法通过setText设值
  • 原文地址:https://www.cnblogs.com/g414056667/p/13794735.html
Copyright © 2020-2023  润新知