• ELK-全文检索技术-lucene


    ELK   :  ELK是ElasticSearch,LogStash以及Kibana三个产品的首字母缩写

    一.倒排索引

    学习elk,必须先掌握倒排索引思想,

     

     参考文档: https://www.cnblogs.com/zlslch/p/6440114.html

    二.什么是全文检索?

    诸如传统的正序查询(数据库查询),如果用到京东或淘宝上,用户输入关键字进行查询,无论是标题还是描述只要有关键字就会被查到,很伤!倒排索引能很好的实现电商搜索功能

    结构化数据:有固定格式和有限长度 比如 关系型数据库中的数据

          查询的方式:sql

          如果数据量特别大时:可以使用全文检索技术

        非结构化数据:没有固定格式和没有规定长度  比如电脑上的文档 txt  word

           查询的方式:肉眼查找

            如果数据量特别大时:可以使用全文检索技术

    三.什么是全文检索技术

    3.1全文检索技术:

    这种先建立索引,再对索引进行搜索的过程就叫做全文检索

    3.2 那些场景用到全文检索技术?

       1、搜索引擎    谷歌   百度  360   搜狗  搜搜

       2、站内搜索   京东 天猫 微博  天涯 猫扑

       3、垂直搜索  视频网站的搜索 优酷,( 在优酷可以搜索到其他视频网站的视频)

    四.引入lucene

    lucene可以实现全文检索,

    Lucene是Apache提供用来实现全文检索的一套类库 jar

    五.lucene的使用

    5.1需要的坐标

    第一步:导入jar

       必须的包:lucene-core-4.10.3.jar

                 lucene-analyzers-common-4.10.3.jar  分词器

                  commons-io.jar

                  junit.jar

       <dependency>

                <groupId>org.apache.lucene</groupId>

                <artifactId>lucene-analyzers-common</artifactId>

                <version>4.10.3</version>

            </dependency>

            <dependency>

                <groupId>commons-io</groupId>

                <artifactId>commons-io</artifactId>

                <version>2.6</version>

            </dependency>

            <dependency>

                <groupId>junit</groupId>

                <artifactId>junit</artifactId>

                <version>4.12</version>

            </dependency>

    5.2创建索引

    1. 获取原始文档
    2. 构建索引文档对象
    3. 分析文档(分词)
    4. 创建索引

    具体代码示例:

    /***
         * //
    查询索引分析
         // 1.创建一个Directory对象,也就是索引库存放的位置
         // 2. 创建一个indexReader对象,需要制定Directory对象
         // 3. 创建一个indexSearcher对象,需要指定indexReader对象
         // 4. 创建一个TremQuery对象,制定查询的域和查询的关键字
         // 5. 执行查询
         // 6. 返回查询结果,遍历查询结果并输出
         // 7. 关闭indexReader对象
         */
       
    public static void selectIndex(String keywords) throws IOException {
            //查询索引分析
            // 1.创建一个Directory对象,也就是索引库存放的位置
           
    Directory directory=FSDirectory.open(new File("D:\Documents\Downloads\day02_lucene\索引存放位置"));
            // 2. 创建一个indexReader对象,需要指定Directory对象
           
    IndexReader indexReader= DirectoryReader.open(directory);
            // 3. 创建一个indexSearcher对象,需要指定indexReader对象
           
    IndexSearcher indexSearcher=new IndexSearcher(indexReader);
            // 4. 创建一个TremQuery对象,制定查询的域和查询的关键字
           
    Query termQuery=new TermQuery(new Term("filename",keywords));
            // 5. 执行查询
           
    TopDocs search = indexSearcher.search(termQuery, 10);
            // 6. 返回查询结果,遍历查询结果并输出
            //查询结果的总条数
           
    System.out.println("查询结果的总条数"+search.totalHits);
            //遍历查询结果
           
    for (ScoreDoc scoreDoc : search.scoreDocs) {
                //scoreDoc.doc就是document的id
               
    Document document=indexSearcher.doc(scoreDoc.doc);

                //通过document对象展示出所有结果信息
               
    System.out.println("filename="+document.get("filename"));
                System.out.println("filepath="+document.get("filepath"));
                System.out.println("filesize="+document.get("filesize"));
    //            System.out.println("filecontent="+document.get("filecontent"));
                //
    来一个分割符
               
    System.out.println("=================================================");
            }

            // 7. 关闭indexReader对象
           
    indexReader.close();
        }

    5.3 查询索引

    1. 创建用户查询接口,提供一个输入关键字的地方

    2. 创建查询

    3. 执行查询

    4. 渲染结果

    具体代码示例:

    /***
         * //
    查询索引分析
         // 1.创建一个Directory对象,也就是索引库存放的位置
         // 2. 创建一个indexReader对象,需要制定Directory对象
         // 3. 创建一个indexSearcher对象,需要指定indexReader对象
         // 4. 创建一个TremQuery对象,制定查询的域和查询的关键字
         // 5. 执行查询
         // 6. 返回查询结果,遍历查询结果并输出
         // 7. 关闭indexReader对象
         */
       
    public static void selectIndex(String keywords) throws IOException {
            //查询索引分析
            // 1.创建一个Directory对象,也就是索引库存放的位置
           
    Directory directory=FSDirectory.open(new File("D:\Documents\Downloads\day02_lucene\索引存放位置"));
            // 2. 创建一个indexReader对象,需要指定Directory对象
           
    IndexReader indexReader= DirectoryReader.open(directory);
            // 3. 创建一个indexSearcher对象,需要指定indexReader对象
           
    IndexSearcher indexSearcher=new IndexSearcher(indexReader);
            // 4. 创建一个TremQuery对象,制定查询的域和查询的关键字
           
    Query termQuery=new TermQuery(new Term("filename",keywords));
            // 5. 执行查询
           
    TopDocs search = indexSearcher.search(termQuery, 10);
            // 6. 返回查询结果,遍历查询结果并输出
            //查询结果的总条数
           
    System.out.println("查询结果的总条数"+search.totalHits);
            //遍历查询结果
           
    for (ScoreDoc scoreDoc : search.scoreDocs) {
                //scoreDoc.doc就是document的id
               
    Document document=indexSearcher.doc(scoreDoc.doc);

                //通过document对象展示出所有结果信息
               
    System.out.println("filename="+document.get("filename"));
                System.out.println("filepath="+document.get("filepath"));
                System.out.println("filesize="+document.get("filesize"));
    //            System.out.println("filecontent="+document.get("filecontent"));
                //
    来一个分割符
               
    System.out.println("=================================================");
            }

            // 7. 关闭indexReader对象
           
    indexReader.close();
        }

    六.分词器

    如果检索的是英文,分词器使用标准的就可以,但是外国人编写的中文分词器总是不成功,

    这里使用IK-analyzer

    StandardAnalyzer:一个字一个字的

      CJKAnalyzer:两个字两个字  需要添加 lucene-analyzers-smartcn依赖

      SmartChineseAnalyzer:对中文的支持还算可以,但是英文有缺失字母的情况

    第三方分词器:IK-analyzer

                 依赖是:

                   

    <dependency>

                           <groupId>com.janeluo</groupId>

                           <artifactId>ikanalyzer</artifactId>

                           <version>2012_u6</version>

                           <exclusions>

                                <exclusion>

                                    <groupId>org.apache.lucene</groupId>

                                    <artifactId>lucene-queryparser</artifactId>

                                </exclusion>

                           </exclusions>

                       </dependency>

                 需要三个配置文件

                            IKAnalyzer.cfg.xml 核心配置文件

                            ext.dic            扩展词典

                            stopword.dic       停用词典

    七. 使用分词器进行查询

    public static void selectIndex(String keywords) throws IOException, ParseException {
            //查询索引分析
            // 1.创建一个Directory对象,也就是索引库存放的位置
           
    Directory directory=FSDirectory.open(new File("D:\Documents\Downloads\day02_lucene\索引存放位置"));
            // 2. 创建一个indexReader对象,需要指定Directory对象
           
    IndexReader indexReader= DirectoryReader.open(directory);
            // 3. 创建一个indexSearcher对象,需要指定indexReader对象
           
    IndexSearcher indexSearcher=new IndexSearcher(indexReader);
            // 4. 创建一个TremQuery对象,制定查询的域和查询的关键字
            //创建一个分词器
           
    Analyzer analyzer=new IKAnalyzer();
            //几种查询
            //精确查询
    //        Query termQuery=new TermQuery(new Term("filename",keywords));

    //        //通配符查询,只要包含关键字都可以
    //        Query termQuery=new WildcardQuery(new Term("filename","*"+keywords+"*"));

    //        //模糊查询,容错性高
    //        Query termQuery=new FuzzyQuery(new Term("filename",keywords));


         /*   //通配符查询,只要包含关键字都可以
            Query termQuery1=new WildcardQuery(new Term("filename","*"+keywords+"*"));
            //模糊查询,容错性高
            Query termQuery2=new FuzzyQuery(new Term("filename",keywords));
            //BooleanQuery 查询,可以查询多个条件
            BooleanQuery termQuery=new BooleanQuery();
            termQuery.add(termQuery1, BooleanClause.Occur.MUST);//must表示必须满足
            termQuery.add(termQuery2, BooleanClause.Occur.SHOULD);//其他条件查询完,如果满足本条件,则添加
            //must_not 表示必须不满足才执行*/


            //分词查询
            //1. 一个域的查询,如上

            //2. 多个域的查询
           
    QueryParser queryParser=new MultiFieldQueryParser(new String[]{"filename","filecontent"},analyzer);
            Query termQuery=queryParser.parse(keywords);




            // 5. 执行查询
           
    TopDocs search = indexSearcher.search(termQuery, 10);
            // 6. 返回查询结果,遍历查询结果并输出
            //查询结果的总条数
           
    System.out.println("查询结果的总条数"+search.totalHits);
            //遍历查询结果
           
    for (ScoreDoc scoreDoc : search.scoreDocs) {
                //scoreDoc.doc就是document的id
               
    Document document=indexSearcher.doc(scoreDoc.doc);

                //通过document对象展示出所有结果信息
               
    System.out.println("filename="+document.get("filename"));
                System.out.println("filepath="+document.get("filepath"));
                System.out.println("filesize="+document.get("filesize"));
    //            System.out.println("filecontent="+document.get("filecontent"));
                //
    来一个分割符
               
    System.out.println("=================================================");
            }

            // 7. 关闭indexReader对象
           
    indexReader.close();
        }

    八. 打分

    关键字占的比重及权重

    举例说明

    关键字占的比例即权重

    spring.txt           分词后的结果:spring  txt               50%

    spring_README.txt    分词后的结果:spring  README  txt       33%

    spring的简介.txt     分词后的结果:spring  简介  简  介 txt  20%

    spring是个非常流行的框架.txt

    spring是个开发中非常流行的框架.txt

    问题

    为什么百度搜索时权重较低的广告可以排在最前面?

    设置权重

    可以设置boost值 默认是1.0

    在添加索引的时候设置权重

    Field fileContentField=new TextField("filecontent",fileContent,Field.Store.YES);
    //权重默认是1.0,越大权重越高
    fileContentField.setBoost(1.5f);
    Field filePathField=new StringField("filepath",filePath,Field.Store.YES);
    Field fileNameField=new TextField("fileName",fileName,Field.Store.YES);
    Field filesizeField=new LongField("filesize",fileSize,Field.Store.YES);
  • 相关阅读:
    linux expr命令执行问题
    Virtual Box设置Host only模式的网络互通问题
    Linux下管理软件的方法
    转载 AMI方案和Insyde方案
    笔记二(名词详解)持续更新。。。
    笔记一(固件、BIOS、UEFI)
    Cache As Ram
    (二十四)C语言之文件
    (二十三)C语言之位运算
    (二十二)C语言之typedef
  • 原文地址:https://www.cnblogs.com/aihuadung/p/11593181.html
Copyright © 2020-2023  润新知