• Lucene


    2017年2月10日, 星期五


    Lucene

    一.第一节: lucene简介 和原理

     

    1. 什么是lucene 
    Lucene是一个全文搜索框架,而不是应用产品。因此它并不像http://www.baidu.com/ 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。

     

    2. lucene能做什么


    要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为%like%而锁表了;你也可以写个自己的搜索引擎……

     

    3. 你该不该选择lucene


    下面给出一些测试数据,如果你觉得可以接受,那么可以选择。
    测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms
    测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M800线程下平均处理时间1.5ms

     

    4.倒排索引

    倒排索引源于实际应用中需要根据属性的值来查找记录。这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址。由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引(inverted index)。带有倒排索引的文件我们称为倒排索引文件,简称倒排文件(inverted file)

    倒排列表用来记录有哪些文档包含了某个单词。一般在文档集合里会有很多文档包含某个单词,每个文档会记录文档编号(DocID),单词在这个文档中出现的次数(TF)及单词在文档中哪些位置出现过等信息,这样与一个文档相关的信息被称做倒排索引项(Posting),包含这个单词的一系列倒排索引项形成了列表结构,这就是某个单词对应的倒排列表。

     

    文档(Document)一般搜索引擎的处理对象是互联网网页,而文档这个概念要更宽泛些,代表以文本形式存在的存储对象,相比网页来说,涵盖更多种形式,比如WordPDFhtmlXML等不同格式的文件都可以称之为文档。再比如一封邮件,一条短信,一条微博也可以称之为文档。在本书后续内容,很多情况下会使用文档来表征文本信息。

           文档集合(Document Collection)由若干文档构成的集合称之为文档集合。比如海量的互联网网页或者说大量的电子邮件都是文档集合的具体例子。

           文档编号(Document ID)在搜索引擎内部,会将文档集合内每个文档赋予一个唯一的内部编号,以此编号来作为这个文档的唯一标识,这样方便内部处理,每个文档的内部编号即称之为文档编号,后文有时会用DocID来便捷地代表文档编号。

           单词编号(Word ID)与文档编号类似,搜索引擎内部以唯一的编号来表征某个单词,单词编号可以作为某个单词的唯一表征。

           倒排索引(Inverted Index)倒排索引是实现单词-文档矩阵的一种具体存储形式,通过倒排索引,可以根据单词快速获取包含这个单词的文档列表。倒排索引主要由两个部分组成:单词词典倒排文件

           单词词典(Lexicon)搜索引擎的通常索引单位是单词,单词词典是由文档集合中出现过的所有单词构成的字符串集合,单词词典内每条索引项记载单词本身的一些信息以及指向倒排列表的指针。

          倒排列表(PostingList)倒排列表记载了出现过某个单词的所有文档的文档列表及单词在该文档中出现的位置信息,每条记录称为一个倒排项(Posting)。根据倒排列表,即可获知哪些文档包含某个单词。

          倒排文件(Inverted File)所有单词的倒排列表往往顺序地存储在磁盘的某个文件里,这个文件即被称之为倒排文件,倒排文件是存储倒排索引的物理文件。

         关于这些概念之间的关系,通过图3-2可以比较清晰的看出来。

                                            

     

                                                                                  3-2 倒排索引基本概念示意图

     

     

    5.使用lucene建立索引文件

    导入如下jar

     

    API调用代码如下

     

     

    二.第二节:lucene使用

    1.lucene的搜索

    查看安装文件下doc下的index.html,可以查看相关API

    利用上面建立的索引来

    代码展示如下:

     

    2.Lucene的倒排索引

    例如:

    我是中国人1

    中国是全球人口最多的国家 ,中国人也最多(2

     

    1,我 (1:1){0

    2,中国 (1:1) {2},(2:2){015}

      

     

    每个域可以设置三个类型:是否保存,是否索引,是否分词

    3lucene的工作方式


    lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。

     

    3.1写入流程


    源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。
    将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。 
    将索引写入存储器,存储器可以是内存或磁盘。

     

    2.2读出流程 


    用户提供搜索关键词,经过analyzer处理。
    对处理后的关键词搜索索引找出对应的Document
    用户根据需要从找到的Document中提取需要的Field

    4.Lucene相关原理和相关类

    4.1Lucene3.0之结果排序(原理篇)

     

    传统上,人们将信息检索系统返回结果的排序称为"相关排序" relevance ranking ,隐含其中各条目的顺序反映结果和查询的相关程度。

    1 基本排序原理

         向量空间模型

    Gerald Salton 等在 30 多年前提出的"向量空间模型" Vector Space ModelVSM[Salton and Lesk,1968, Salton,1971]。该模型的基础是如下假设:文档d和查询q的相关性可以由它们包含的共有词汇情况来刻画。

    经典的TF*IDF词项权重的计算公式:

     

             给定某种权重的定量设计,求文档和查询的相关性就变成了求 d  q 向量的

    某种距离,最常用的是余弦(cos)距离

     

     

         链接分析PageRank原理

    链接分析技术主要基于两个假设:1)一个网页被多次引用,则它可能是很重要的,如果被重要的网页引用,说明自身也是重要的,网页的重要性在网页之间可以传递。

    2)随机冲浪模型:认为假定用户一开始随机地访问网页集合中的一个网页,然和跟随网页的链接向前浏览网页,不会退浏览,那么浏览下一个网页的概率是被浏览网页的量化的重要程度值。

    按照以上的用户行为模型,每个网页可能被访问到的次数越多就越重要,这样的"可能被访问的次数"也就定义为网页的权值,PageRank值。如何计算这个权值呢?PageRank采用以下公式进行计算:

     

    其中wj代表第j个网页的权值;lij只取01值,代表从网页i到网页j是否存在链接;ni代表网页i有多少个连向其它网页的链接;d代表"随机冲浪"中沿着链接访问网页的平均次数。选择合适的初始数值,递归的使用上述公式,即可得到理想的网页权值。

    2 Lucene排序计算公式

    Lucene的排序公式如下:

     

    1),协调因子,表示文档(d)中Term(t)出现的百分比,也就是计算查询条件(q)中不同Term(t),以及在文档中出现的数量之和,两者的数量之比。通常在文档中出现查询Term种类越多,分值越高。

    2),调节因子,不影响索引排序情况,只在检索时使用,主要是用来让排序结果在不同的查询条件之间可以比较。这个条件是在搜索时候计算。数值是根据每一个查询项权重的平方和计算得到。计算公式如下:

                

    3) ,文档频率,表示查询词中,每个Term在对应的结果文档中(d)中出现的次数。查询词出现的次数越多,表示出现频率越高,文档的检索得分就越高。为了避免获得更大的相关性函数,实际中,使用次数的平方跟作为文档频率tf的值,避免数值过度放大。

    4) ,逆文档频率,检索匹配文档数量的反向函数。按照信息理论,文档出现的次数越少,每一篇文档的信息量就会越大。所以匹配的文档数越少,得分就越高。而索引库中文档总数越多,找到一篇目标文档难度越大,相应的信息量也会比较大。

    5) ,长度因子,每个索引词汇在域中的总体长度决定的,这个参数在索引建立时确定。数值根据文档中实际具有的索引项个数确定。检索词长度在文档总长度中占的比例越大,长度因子的数值也越大。

     

     

     

    4.2 Lucene3.0之结果排序(操作篇)

     

    1 Lucene相关排序流程

     

    2 Lucene相关类

         Query类:一个抽象类,Lucene检索结果最终评分的总控制中心。其它评分有关的类和对象都是由Query类来管理和生产。

         Weight类接口:定义Query权重计算的一个实现接口,可以被重用。Weight类可以用来生成Scorer类,也可以解析评分的详细信息,另外还定义了获取Query权值的方法。

         Scorer类:Lucene评分机制的核心类。类的定义是抽象类,提供的一些抽象基本的计分功能方法提供所有的评分类实现,同时还定义了评分的详细解析方法,Scorer类内部有一个Similarity对象,用来指明计算公式。

         Scorer类:Lucene相似度计算的核心抽象类。Similarity类主要处理评分计算,系统缺省使用类DefaultSimilarity类对象

    3 排序控制

    使用Sort对象定制排序,通过改变文档Boost值来改变排序结果以及使用自定义的Similarity方法更改排序

    4 文档Boost加权排序

         Boost是指索引建立过程中,给整篇文档或者文档的某一特定域设定的权值因子,在检索时,优先返回分数高的。

    DocumentField两重Boosting参数。通过Document对象的setBoost()方法和Field对象的setBoost()方法。不同在于前者对文档中每一个域都修改了参数,而后者只针对指定域进行修改。

    文档加权=Document-boosting*Field-boosting,默认情况下为1,一般不做修改。

         Sort对象检索排序

    Sort使用时通过实例化对象作为参数,通过Searcher类的search接口来实现。Sort支持的排序功能以文档当中的域为单位,通过这种方法,可以实现一个或者多个不同域的多形式的值排序。

    实际使用排序对象Sort进行排序。主要有两种模式,一种是以字符串表示文档域的名称作为参数指定域排序,一种是直接以排序域的包装域的包装类作为参数进行排序。

    Sort对象使用比较简单,只需要在对文档索引进行检索时,在检索器的Search方法中带Sort对象作为参数即可。

    1)       Sort对象相关性排序

    按照相关性排序时最基本的结果排序方法,使用Sort对象无参数构造函数完成的排序效果相当于Lucene默认的按相关性降序排序。

    2)       Sort对象文档编号排序

    某些应用场合需要对所有符合匹配度的结果,按照文档内部编号排序输出。使用Sort对象的静态实例Sort.INDEXORDER来实现

    3)       Sort对象独立域排序

    在检索过程中,把检索结果按照某一个特定域排序,非常重要。在使用搜索引擎过程中,有时会选择使用时间排序,而在搜索引擎库中,检索词完全是另外一个域的内容,与时间没有任何关系。这种应用中,检索关键词的匹配仍然是首要因素,匹配太低或者不匹配的文档直接不必处理,而匹配的文档则需进一步排序输出。

        指定的排序域并没有进行特别限制,可以是检索词的关联域,也可以是文档中的任意其它域。

    4)       Sort对象联合域排序

    多个文档域联合排序时,需要注意文档域的添加次序。排序的结果先按照第一个域排序,然后第二个域作为次要关键字排序。开发时,需要根据自己的需要选择合适的次序。

    5)       Sort对象逆向排序

    Sort(field,true)或者Sort(field,false)实现升降序排序。

     

    5.做一个类似百度的搜索网站

    通过wget爬虫爬去网站www.bjsxt.com

     

     

    三.第三节:利用lucene做一个搜索网站

    1.搜索网站制作步骤

    1.前面的内容需要提取文本内容,利用jericho来提取html中文本内容,或者用正则表达式匹配提取文本内容

    2.利用lucene API创建索引

     

    2.Lucene API熟悉

    1. analyzer


    Analyzer 是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的 “的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。
    分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。

    2. document


    用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。

    3. field


    一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。
    Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:
    还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。

    4. term


    term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。

    5. tocken


    tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。

    6. segment


    添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。

     

    四.第四节:lucene的结构

    项目进度:前面爬取网站内容并建立了lucene索引,这里项目添加查询搜索api调用,做到能够搜索到内容

    1.lucene的结构


    lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。

    Lucene core


    Lucene core有七个包:analysis,document,index,queryParser,search,store,util。
    1. analysis
    Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。
    2. document
    Document包含文档的数据结构,例如Document类定义了存储文档的数据结构,Field类定义了Document的一个域。
    3. index
    Index 包含了索引的读写类,例如对索引文件的segment进行写、合并、优化的IndexWriter类和对索引进行读取和删除操作的 IndexReader类,这里要注意的是不要被IndexReader这个名字误导,以为它是索引文件的读取类,实际上删除索引也是由它完成, IndexWriter只关心如何将索引写入一个个segment,并将它们合并优化;IndexReader则关注索引文件中各个文档的组织形式。

     

    1、我是中国人

    2、我爱我的祖国和人民,国家强大

    3、祖国是我的家

     

    1[1,{4} ]

    1[ 1,{3}],2[2,{5,10}]


    4. queryParser
    QueryParser 包含了解析查询语句的类,lucene的查询语句和sql语句有点类似,有各种保留字,按照一定的语法可以组成各种查询。 Lucene有很多种 Query类,它们都继承自Query,执行各种特殊的查询,QueryParser的作用就是解析查询语句,按顺序调用各种 Query类查找出结果。
    5. search
    Search包含了从索引中搜索结果的各种类,例如刚才说的各种Query类,包括TermQuery、BooleanQuery等就在这个包里。
    6. store
    Store包含了索引的存储类,例如Directory定义了索引文件的存储结构,FSDirectory为存储在文件中的索引,RAMDirectory为存储在内存中的索引,MmapDirectory为使用内存映射的索引。
    7. util
    Util包含一些公共工具类,例如时间和字符串之间的转换工具。

     

    2. 如何建索引


    1. 最简单的能完成索引的代码片断

    IndexWriter writer = new IndexWriter(“/data/index/”, new StandardAnalyzer(), true);
    Document doc = new Document();
    doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));
    doc.add(new Field("content", "lucene works well", Field.Store.YES, Field.Index.TOKENIZED));
    writer.addDocument(doc);
    writer.optimize();     //使用代价较高,被放弃,writer.forceMerge(1),来优化索引
    writer.close();

    下面我们分析一下这段代码。
    首先我们创建了一个writer,并指定存放索引的目录为“/data/index”,使用的分析器为StandardAnalyzer,第三个参数说明如果已经有索引文件在索引目录下,我们将覆盖它们。
    然后我们新建一个document。
    我们向document添加一个field,名字是“title”,内容是“lucene introduction”,对它进行存储并索引。
    再添加一个名字是“content”的field,内容是“lucene works well”,也是存储并索引。
    然后我们将这个文档添加到索引中,如果有多个文档,可以重复上面的操作,创建document并添加。
    添加完所有document,我们对索引进行优化,优化主要是将多个segment合并到一个,有利于提高索引速度。
    随后将writer关闭,这点很重要。

    对,创建索引就这么简单!
    当然你可能修改上面的代码获得更具个性化的服务。

    2. 将索引直接写在内存
    你需要首先创建一个RAMDirectory,并将其传给writer,代码如下:

    Directory dir = new RAMDirectory();
    IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);
    Document doc = new Document();
    doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));
    doc.add(new Field("content", "lucene works well", Field.Store.YES, Field.Index.TOKENIZED));
    writer.addDocument(doc);
    writer.optimize();
    writer.close();

    3. 索引文本文件
    如果你想把纯文本文件索引起来,而不想自己将它们读入字符串创建field,你可以用下面的代码创建field:

    Field field = new Field("content", new FileReader(file));

    这里的file就是该文本文件。该构造函数实际上是读去文件内容,并对其进行索引,但不存储。

    3. 如何维护索引


    索引的维护操作都是由IndexReader类提供。

    1. 如何删除索引
    lucene提供了两种从索引中删除document的方法,一种是

    void deleteDocument(int docNum)

    这种方法是根据document在索引中的编号来删除,每个document加进索引后都会有个唯一编号,所以根据编号删除是一种精确删除,但是这个编号是索引的内部结构,一般我们不会知道某个文件的编号到底是几,所以用处不大。另一种是

    void deleteDocuments(Term term)

    这种方法实际上是首先根据参数term执行一个搜索操作,然后把搜索到的结果批量删除了。我们可以通过这个方法提供一个严格的查询条件,达到删除指定document的目的。
    下面给出一个例子:

    Directory dir = FSDirectory.getDirectory(PATH, false);
    IndexReader reader = IndexReader.open(dir);
    Term term = new Term(field, key);
    reader.deleteDocuments(term);
    reader.close();

    2. 如何更新索引
    lucene并没有提供专门的索引更新方法,我们需要先将相应的document删除,然后再将新的document加入索引。例如:

    Directory dir = FSDirectory.getDirectory(PATH, false);
    IndexReader reader = IndexReader.open(dir);
    Term term = new Term(“title”, “lucene introduction”);
    reader.deleteDocuments(term);
    reader.close();

    IndexWriter writer = new IndexWriter(dir, new StandardAnalyzer(), true);
    Document doc = new Document();
    doc.add(new Field("title", "lucene introduction", Field.Store.YES, Field.Index.TOKENIZED));
    doc.add(new Field("content", "lucene is funny", Field.Store.YES, Field.Index.TOKENIZED));
    writer.addDocument(doc);
    writer.optimize();
    writer.close();

    4. 如何搜索

     
    lucene 的搜索相当强大,它提供了很多辅助查询类,每个类都继承自Query类,各自完成一种特殊的查询,你可以像搭积木一样将它们任意组合使用,完成一些复杂操作;另外lucene还提供了Sort类对结果进行排序,提供了Filter类对查询条件进行限制。你或许会不自觉地拿它跟SQL语句进行比较: “lucene能执行and、or、order by、where、like ‘%xx%’操作吗?”回答是:“当然没问题!”

     

    1.各种各样的Query


    下面我们看看lucene到底允许我们进行哪些查询操作:

    1.1 TermQuery
    首先介绍最基本的查询,如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:

    Term t = new Term("content", " lucene";
    Query query = new TermQuery(t);

    1.2 BooleanQuery
    如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:

    TermQuery termQuery1 = new TermQuery(new Term("content", "java");
    TermQuery termQuery 2 = new TermQuery(new Term("content", "perl");
    BooleanQuery booleanQuery = new BooleanQuery();
    booleanQuery.add(termQuery 1, BooleanClause.Occur.SHOULD);
    booleanQuery.add(termQuery 2, BooleanClause.Occur.SHOULD);

    1.3 WildcardQuery
    如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:

    Query query = new WildcardQuery(new Term("content", "use*");

    1.4 PhraseQuery
    你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:

    PhraseQuery query = new PhraseQuery();
    query.setSlop(5);
    query.add(new Term("content ", “中”));
    query.add(new Term(“content”, “日”));

    那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。

    1.5 PrefixQuery
    如果你想搜以‘中’开头的词语,你可以用PrefixQuery:

    PrefixQuery query = new PrefixQuery(new Term("content ", "中");

    1.6 FuzzyQuery
    FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:

    Query query = new FuzzyQuery(new Term("content", "wuzza");

    你可能得到‘fuzzy’和‘wuzzy’。

    1.7 RangeQuery
    另一个常用的Query是RangeQuery,你也许想搜索时间域从20060101到20060130之间的document,你可以用RangeQuery:

    RangeQuery query = new RangeQuery(new Term(“time”, “20060101”), new Term(“time”, “20060130”), true);

    最后的true表示用闭合区间。

    2. QueryParser


    看了这么多Query,你可能会问:“不会让我自己组合各种Query吧,太麻烦了!”当然不会,lucene提供了一种类似于SQL语句的查询语句,我们姑且叫它lucene语句,通过它,你可以把各种查询一句话搞定,lucene会自动把它们查分成小块交给相应Query执行。下面我们对应每种 Query演示一下:
    TermQuery可以用“field:key”方式,例如“content:lucene”。
    BooleanQuery中‘与’用‘+’,‘或’用‘ ’,例如“content:java contenterl”。
    WildcardQuery仍然用‘?’和‘*’,例如“content:use*”。
    PhraseQuery用‘~’,例如“content:"中日"~5”。
    PrefixQuery用‘*’,例如“中*”。
    FuzzyQuery用‘~’,例如“content: wuzza ~”。
    RangeQuery用‘[]’或‘{}’,前者表示闭区间,后者表示开区间,例如“time:[20060101 TO 20060130]”,注意TO区分大小写。
    你可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在20060101到20060130之间的文章”可以表示为:“+ (title:lucene content:lucene) +time:[20060101 TO 20060130]”。代码如下:

    Directory dir = FSDirectory.getDirectory(PATH, false);
    IndexSearcher is = new IndexSearcher(dir);
    QueryParser parser = new QueryParser("content", new StandardAnalyzer());
    Query query = parser.parse("+(title:lucene content:lucene) +time:[20060101 TO 20060130]";
    Hits hits = is.search(query);
    for (int i = 0; i < hits.length(); i++)
    {
    Document doc = hits.doc(i);
    System.out.println(doc.get("title");
    }
    is.close();

    首先我们创建一个在指定文件目录上的IndexSearcher。
    然后创建一个使用StandardAnalyzer作为分析器的QueryParser,它默认搜索的域是content。
    接着我们用QueryParser来parse查询字串,生成一个Query。
    然后利用这个Query去查找结果,结果以Hits的形式返回。
    这个Hits对象包含一个列表,我们挨个把它的内容显示出来。

    3. Filter


    filter 的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。
    最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。
    Filter的使用非常简单,你只需创建一个filter实例,然后把它传给searcher。继续上面的例子,查询“时间在20060101到20060130之间的文章”除了将限制写在query string中,你还可以写在RangeFilter中:

    Directory dir = FSDirectory.getDirectory(PATH, false);
    IndexSearcher is = new IndexSearcher(dir);
    QueryParser parser = new QueryParser("content", new StandardAnalyzer());
    Query query = parser.parse("title:lucene content:lucene";
    RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);
    Hits hits = is.search(query, filter);
    for (int i = 0; i < hits.length(); i++)
    {
    Document doc = hits.doc(i);
    System.out.println(doc.get("title");
    }
    is.close();

    4. Sort


    有时你想要一个排好序的结果集,就像SQL语句的“order by”,lucene能做到:通过Sort。
    Sort sort = new Sort(“time”); //相当于SQL的“order by time”
    Sort sort = new Sort(“time”, true); // 相当于SQL的“order by time desc”
    下面是一个完整的例子:

    Directory dir = FSDirectory.getDirectory(PATH, false);
    IndexSearcher is = new IndexSearcher(dir);
    QueryParser parser = new QueryParser("content", new StandardAnalyzer());
    Query query = parser.parse("title:lucene content:lucene";
    RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);
    Sort sort = new Sort(“time”);
    Hits hits = is.search(query, filter, sort);
    for (int i = 0; i < hits.length(); i++)
    {
    Document doc = hits.doc(i);
    System.out.println(doc.get("title");
    }
    is.close();

     

     

     

    五.第五节:lucene搜索的优化

     

    1.分析器


    在前面的概念介绍中我们已经知道了分析器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分析器: StandardAnalyzer,很多情况下StandardAnalyzer是个不错的选择。甚至你会发现StandardAnalyzer也能对中文进行分词。
    但是我们的焦点是中文分词,StandardAnalyzer能支持中文分词吗?实践证明是可以的,但是效果并不好,搜索“如果” 会把“牛奶不如果汁好喝”也搜索出来,而且索引文件很大。那么我们手头上还有什么分析器可以使用呢?core里面没有,我们可以在sandbox里面找到两个: ChineseAnalyzer和CJKAnalyzer。但是它们同样都有分词不准的问题。相比之下用StandardAnalyzer和 ChineseAnalyzer建立索引时间差不多,索引文件大小也差不多,CJKAnalyzer表现会差些,索引文件大且耗时比较长。
    要解决问题,首先分析一下这三个分析器的分词方式。StandardAnalyzer和ChineseAnalyzer都是把句子按单个字切分,也就是说 “牛奶不如果汁好喝”会被它们切分成“牛 奶 不 如 果 汁 好 喝”;而CJKAnalyzer则会切分成“牛奶 奶不 不如 如果 果汁 汁好好喝”。这也就解释了为什么搜索“果汁”都能匹配这个句子。
    以上分词的缺点至少有两个:匹配不准确和索引文件大。我们的目标是将上面的句子分解成 “牛奶 不如 果汁好喝”。这里的关键就是语义识别,我们如何识别“牛奶”是一个词而“奶不”不是词语?我们很自然会想到基于词库的分词法,也就是我们先得到一个词库,里面列举了大部分词语,我们把句子按某种方式切分,当得到的词语与词库中的项匹配时,我们就认为这种切分是正确的。这样切词的过程就转变成匹配的过程,而匹配的方式最简单的有正向最大匹配和逆向最大匹配两种,说白了就是一个从句子开头向后进行匹配,一个从句子末尾向前进行匹配。基于词库的分词词库非常重要,词库的容量直接影响搜索结果,在相同词库的前提下,据说逆向最大匹配优于正向最大匹配。
    当然还有别的分词方法,这本身就是一个学科,我这里也没有深入研究。回到具体应用,我们的目标是能找到成熟的、现成的分词工具,避免重新发明车轮。经过网上搜索,用的比较多的是中科院的 ICTCLAS和一个不开放源码但是免费的JE-Analysis。ICTCLAS有个问题是它是一个动态链接库, java调用需要本地方法调用,不方便也有安全隐患,而且口碑也确实不大好。JE-Analysis效果还不错,当然也会有分词不准的地方,相比比较方便放心。

    2. 性能优化


    一直到这里,我们还是在讨论怎么样使lucene跑起来,完成指定任务。利用前面说的也确实能完成大部分功能。但是测试表明lucene的性能并不是很好,在大数据量大并发的条件下甚至会有半分钟返回的情况。另外大数据量的数据初始化建立索引也是一个十分耗时的过程。那么如何提高lucene的性能呢?下面从优化创建索引性能和优化搜索性能两方面介绍。

     

    1.优化创建索引性能


    这方面的优化途径比较有限,IndexWriter提供了一些接口可以控制建立索引的操作,另外我们可以先将索引写入RAMDirectory,再批量写入FSDirectory,不管怎样,目的都是尽量少的文件IO,因为创建索引的最大瓶颈在于磁盘IO。另外选择一个较好的分析器也能提高一些性能。

    1.1 通过设置IndexWriter的参数优化索引建立
    setMaxBufferedDocs(int maxBufferedDocs)
    控制写入一个新的segment前内存中保存的document的数目,设置较大的数目可以加快建索引速度,默认为10。
    setMaxMergeDocs(int maxMergeDocs)
    控制一个segment中可以保存的最大document数目,值较小有利于追加索引的速度,默认Integer.MAX_VALUE,无需修改。
    setMergeFactor(int mergeFactor)
    控制多个segment合并的频率,值较大时建立索引速度较快,默认是10,可以在建立索引时设置为100。

    1.2 通过RAMDirectory缓写提高性能
    我们可以先把索引写入RAMDirectory,达到一定数量时再批量写进FSDirectory,减少磁盘IO次数。

    FSDirectory fsDir = FSDirectory.getDirectory("/data/index", true);
    RAMDirectory ramDir = new RAMDirectory();
    IndexWriter fsWriter = new IndexWriter(fsDir, new StandardAnalyzer(), true);
    IndexWriter ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);
    while (there are documents to index)
    {
    ... create Document ...
    ramWriter.addDocument(doc);
    if (condition for flushing memory to disk has been met)
    {
    fsWriter.addIndexes(new Directory[] { ramDir });
    ramWriter.close();
    ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);
    }
    }

    1.3 选择较好的分析器
    这个优化主要是对磁盘空间的优化,可以将索引文件减小将近一半,相同测试数据下由600M减少到380M。但是对时间并没有什么帮助,甚至会需要更长时间,因为较好的分析器需要匹配词库,会消耗更多cpu,测试数据用StandardAnalyzer耗时133分钟;用MMAnalyzer耗时150分钟。

     

    2. 优化搜索性能

     
    虽然建立索引的操作非常耗时,但是那毕竟只在最初创建时才需要,平时只是少量的维护操作,更何况这些可以放到一个后台进程处理,并不影响用户搜索。我们创建索引的目的就是给用户搜索,所以搜索的性能才是我们最关心的。下面就来探讨一下如何提高搜索性能。

    2.1 将索引放入内存
    这是一个最直观的想法,因为内存比磁盘快很多。Lucene提供了RAMDirectory可以在内存中容纳索引:

    Directory fsDir = FSDirectory.getDirectory(“/data/index/”, false);
    Directory ramDir = new RAMDirectory(fsDir);
    Searcher searcher = new IndexSearcher(ramDir);

    但是实践证明RAMDirectory和FSDirectory速度差不多,当数据量很小时两者都非常快,当数据量较大时(索引文件400M)RAMDirectory甚至比FSDirectory还要慢一点,这确实让人出乎意料。
    而且lucene的搜索非常耗内存,即使将400M的索引文件载入内存,在运行一段时间后都会out of memory,所以个人认为载入内存的作用并不大。

    2.2 优化时间范围限制
    既然载入内存并不能提高效率,一定有其它瓶颈,经过测试发现最大的瓶颈居然是时间范围限制,那么我们可以怎样使时间范围限制的代价最小呢?
    当需要搜索指定时间范围内的结果时,可以:
    1、用RangeQuery,设置范围,但是RangeQuery的实现实际上是将时间范围内的时间点展开,组成一个个BooleanClause加入到 BooleanQuery中查询,因此时间范围不可能设置太大,经测试,范围超过一个月就会抛 BooleanQuery.TooManyClauses,可以通过设置 BooleanQuery.setMaxClauseCount (int maxClauseCount)扩大,但是扩大也是有限的,并且随着maxClauseCount扩大,占用内存也扩大
    2、用 RangeFilter代替RangeQuery,经测试速度不会比RangeQuery慢,但是仍然有性能瓶颈,查询的90%以上时间耗费在 RangeFilter,研究其源码发现RangeFilter实际上是首先遍历所有索引,生成一个BitSet,标记每个document,在时间范围内的标记为true,不在的标记为false,然后将结果传递给Searcher查找,这是十分耗时的。
    3、进一步提高性能,这个又有两个思路:
    a、缓存Filter结果。既然RangeFilter的执行是在搜索之前,那么它的输入都是一定的,就是IndexReader,而 IndexReader是由Directory决定的,所以可以认为RangeFilter的结果是由范围的上下限决定的,也就是由具体的 RangeFilter对象决定,所以我们只要以RangeFilter对象为键,将filter结果BitSet缓存起来即可。lucene API 已经提供了一个CachingWrapperFilter类封装了Filter及其结果,所以具体实施起来我们可以 cache CachingWrapperFilter对象,需要注意的是,不要被CachingWrapperFilter的名字及其说明误导, CachingWrapperFilter看起来是有缓存功能,但的缓存是针对同一个filter的,也就是在你用同一个filter过滤不同 IndexReader时,它可以帮你缓存不同IndexReader的结果,而我们的需求恰恰相反,我们是用不同filter过滤同一个 IndexReader,所以只能把它作为一个封装类。
    b、降低时间精度。研究Filter的工作原理可以看出,它每次工作都是遍历整个索引的,所以时间粒度越大,对比越快,搜索时间越短,在不影响功能的情况下,时间精度越低越好,有时甚至牺牲一点精度也值得,当然最好的情况是根本不作时间限制。
    下面针对上面的两个思路演示一下优化结果(都采用800线程随机关键词随即时间范围):
    第一组,时间精度为秒:
    方式 直接用RangeFilter 使用cache 不用filter
    平均每个线程耗时 10s 1s 300ms

    第二组,时间精度为天
    方式 直接用RangeFilter 使用cache 不用filter
    平均每个线程耗时 900ms 360ms 300ms

    由以上数据可以得出结论:
    1、 尽量降低时间精度,将精度由秒换成天带来的性能提高甚至比使用cache还好,最好不使用filter。
    2、 在不能降低时间精度的情况下,使用cache能带了10倍左右的性能提高。

    2.3 使用更好的分析器
    这个跟创建索引优化道理差不多,索引文件小了搜索自然会加快。当然这个提高也是有限的。较好的分析器相对于最差的分析器对性能的提升在20%以下。

    3. 一些优化经验

     

    1.关键词区分大小写
    or AND TO等关键词是区分大小写的,lucene只认大写的,小写的当做普通单词。

    2. 读写互斥性
    同一时刻只能有一个对索引的写操作,在写的同时可以进行搜索

    3. 文件锁
    在写索引的过程中强行退出将在tmp目录留下一个lock文件,使以后的写操作无法进行,可以将其手工删除

    4. 时间格式
    lucene只支持一种时间格式yyMMddHHmmss,所以你传一个yy-MM-dd HH:mm:ss的时间给lucene它是不会当作时间来处理的

    5. 设置boost
    有些时候在搜索时某个字段的权重需要大一些,例如你可能认为标题中出现关键词的文章比正文中出现关键词的文章更有价值,你可以把标题的boost设置的更大,那么搜索结果会优先显示标题中出现关键词的文章(没有使用排序的前题下)。使用方法:
    Field. setBoost(float boost);默认值是1.0,也就是说要增加权重的需要设置得比1大。

     

     

     

    wget -o /tmp/wget.log -P /root/data  --non-parent --non-verbose -m -D www.bjsxt.com   -N --convert-links --random-wait -A html,HTML http://www.bjsxt.com

     

    -R :除某些后缀之外的文件不抓去

    -R js,jpg,jpeg,png,gif,css,flv,exe,txt,mp4,mp3

     

     

     





  • 相关阅读:
    【Git】时光机命令—Git命令
    【Vue.js】vue引入组件报错:该组件未注册?
    【CSS】flex布局初认识
    【Vue.js】基于vue的实时搜索,在结果中高亮显示关键词
    MyBatis介绍并解决jdbc编程的问题
    MyBatis中 #{} 和 ${}的区别
    Mybatis执行操作时控制台日志中显示sql语句
    Mybatis中常见操作(基本操作+动态sql+sql片段+关联映射(resultMap))
    Spring配置初始化和销毁的方法
    平时工作常用linux命令总结
  • 原文地址:https://www.cnblogs.com/jxhd1/p/9586076.html
Copyright © 2020-2023  润新知