• Elasticsearch安装中文分词插件IK


            Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,比如我们更希望 “中国人”,“中国”,“我”这样的分词,因此需要安装中文分词插件IK来实现此功能。

    elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库,具体安装步骤如下:

    1、从github上下载最新的IK分词源码到本地

    方式1)可以通过git命令下载,代码如下:

    git clone https://github.com/medcl/elasticsearch-analysis-ik

    方式2)手动下载

    到github网站下载源代码,地址为:https://github.com/medcl/elasticsearch-analysis-ik,右侧下方有一个按钮“Download ZIP",点击下载源代码elasticsearch-analysis-ik-master.zip

    2、解压文件elasticsearch-analysis-ik.zip,执行命令:

    unzip elasticsearch-analysis-ik.zip

    将elasticsearch-analysis-ik-master目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下,之后再将elasticsearch-analysis-ik-master目录下config文件中elasticsearch.yml文件覆盖Elasticsearch安装目录下的config目录中的elasticsearch.yml文件。

    3、进入到解压后的文件夹目录中,因为是源代码需要使用maven命令打包,执行命令如下:

    mvn clean package

    如果没有安装maven工具的话,需要先安装一下maven工具,具体参考地址:  

    http://blog.yoodb.com/yoodb/article/detail/340

    执行上述命令之后,IK的分词包已经准备就绪。

    4、运行Elasticsearch安装路径下的bin目录中的plugin命令安装刚刚编译好的分词包,命令如下:

    plugin —install analysis-ik —url file:///#{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-1.4.0.zip
  • 相关阅读:
    UNIX时间戳/日期转换
    慎用date获取未来时间
    lnmp集成开发环境安装pdo_dblib扩展
    elementary OS下netbeans中文乱码的问题
    一个轻量级javascript框架的设计模式
    debian清空消息通知
    一道数组方面的笔试题
    模拟post提交
    P2970 [USACO09DEC]自私的放牧Selfish Grazing
    P1063 能量项链
  • 原文地址:https://www.cnblogs.com/MrYoodb/p/4687522.html
Copyright © 2020-2023  润新知