• Elasticsearch强大的聚合功能Facet


    Elasticsearch强大的聚合功能Facet

    在常规数据库中,我们都知道有一个sql就是group,分组。如果主表只有对应的一个列记录的分组的ID,那么还好统计,比如说每本书book表,有一个分类catId,记录是属于哪一类的书,那么直接按照catId进行分组即可。可是在实际应用种,并非如此简单。一本书往往属于多个分类,比如:某本书既属于科技类书,又属于儿童类书,要求按照这两种条件进行筛选,都能筛选出来,如果要求按照分类进行统计数量,数据库怎么group?我们且抛开种种解决方案,来看看Elasticsearch里面对这种需求,是多么的容易统计。

    首先,我们需要造些数据,需要用到一个模型,这个模型定义了一个type,就算类型吧,我们用这个属性来演示常规的group。还有一个catIds的列表模型,这个来解决我们上面描述的一本书对应多个分类的需求。模型定义如下:

    复制代码
    import java.io.Serializable;  
    import java.util.ArrayList;  
    import java.util.List;  
    import java.util.Random;  
      
    import com.donlianli.es.ESUtils;  
    /** 
     * 这个是为分组定义的一个模型 
     * catIds通常为一对多的分类ID 
     * @author donlian 
     */  
    public class FacetTestModel implements Serializable {  
        private static final long serialVersionUID = 3174577828007649745L;  
        /** 
         * 随便编写的一些值,type属性只能取这里面的其中一个 
         */  
        private String[] types= new String[]{  
                "type1","type2","type3","type4","type5","type6","type7",  
                "type11","type12","type13","type14","type15","type16","type17"  
        };  
        //主ID  
        private long id;  
        //类型,为types之一  
        private String type;  
        /** 
         * 所属分类,范围为1-50 
         */  
        private List<Integer> catIds;  
          
        public FacetTestModel(){  
            Random r = new Random();  
            int n = Math.abs(r.nextInt());  
            int index = n%14;  
            this.type = types[index];  
            this.id = Math.abs(r.nextLong());  
              
            n = n%50;  
            catIds = new ArrayList<Integer>();  
            catIds.add(n);  
            int ys = n%3;  
            if(ys!=0){  
                for(int i=1;i<ys+1;i++){  
                    catIds.add(n+i);  
                }  
            }  
        }  
        public static void main(String[] argv){  
            for(int i=0;i<10;i++){  
                FacetTestModel f = new FacetTestModel();  
                System.out.println(ESUtils.toJson(f));  
            }  
        }  
        set,get方法,自己写吧
    }  
    复制代码

     接着就是初始化数据。

    复制代码
    import org.elasticsearch.action.bulk.BulkRequestBuilder;  
    import org.elasticsearch.action.bulk.BulkResponse;  
    import org.elasticsearch.action.index.IndexRequestBuilder;  
    import org.elasticsearch.client.Client;  
      
    import com.donlianli.es.ESUtils;  
    import com.donlianli.es.model.FacetTestModel;  
      
    public class BulkIndexTest {  
          
        public static void main(String[] args) {  
            Client client = ESUtils.getClient();  
            BulkRequestBuilder bulkRequest = client.prepareBulk();  
            for(int i=0;i<10;i++){  
                String json = ESUtils.toJson(new FacetTestModel());  
                IndexRequestBuilder indexRequest = client.prepareIndex("test", "test")  
                //指定不重复的ID        
                .setSource(json).setId(String.valueOf(i));  
                //添加到builder中  
                bulkRequest.add(indexRequest);  
            }  
              
            BulkResponse bulkResponse = bulkRequest.execute().actionGet();  
            if (bulkResponse.hasFailures()) {  
                System.out.println(bulkResponse.buildFailureMessage());  
            }  
        }  
    }  
    复制代码

    接下来,我们首先对type进行统计。在elasticsearch中,分组的功能叫facet,不知道为啥起这个名称。总之,就是对type的每一个值的数量进行统计,注意,要设置里面的size条件,否则默认只返回10个。

    复制代码
    import org.elasticsearch.action.search.SearchResponse;  
    import org.elasticsearch.client.Client;  
    import org.elasticsearch.index.query.FilterBuilders;  
    import org.elasticsearch.search.facet.FacetBuilders;  
    import org.elasticsearch.search.facet.Facets;  
    import org.elasticsearch.search.facet.terms.TermsFacet;  
    import org.elasticsearch.search.facet.terms.TermsFacetBuilder;  
      
    import com.donlianli.es.ESUtils;  
      
    public class GroupTest {  
        public static void  main(String[] argv){  
            Client client = ESUtils.getClient();  
            TermsFacetBuilder facetBuilder = FacetBuilders.termsFacet("typeFacetName");  
            facetBuilder.field("type").size(Integer.MAX_VALUE);  
            facetBuilder.facetFilter(FilterBuilders.matchAllFilter());  
            SearchResponse response = client.prepareSearch("test")  
                    .setTypes("test")  
                    .addFacet(facetBuilder)  
                    .setFilter(FilterBuilders.matchAllFilter())  
                    .execute()  
                    .actionGet();  
            Facets f = response.facets();  
            //跟上面的名称一样  
            TermsFacet facet = (TermsFacet)f.getFacets().get("typeFacetName");  
            for(TermsFacet.Entry tf :facet.entries()){  
                System.out.println(tf.getTerm()+"	:	" + tf.getCount());  
            }  
            client.close();  
        }  
    }  
    复制代码

    运行程序后,大概得到如下结果:

    复制代码
    type3   :   4  
    type7   :   1  
    type6   :   1  
    type4   :   1  
    type13  :   1  
    type12  :   1  
    type11  :   1  
    复制代码

    正好10个。初始化代码能对的上。

    下面,我们就要对catIds进行统计了,再统计之前,我们先看看es里面都存储的是那些数据。

    复制代码
    {id=3683174899323317453, catIds=[4, 5], type=type3}  
    {id=271209313870366004, catIds=[26, 27, 28], type=type3}  
    {id=348654892174153835, catIds=[41, 42, 43], type=type4}  
    {id=6826187683023110944, catIds=[46, 47], type=type7}  
    {id=3437591661789488747, catIds=[22, 23], type=type3}  
    {id=6365837443081614150, catIds=[37, 38], type=type11}  
    {id=2387331048448677498, catIds=[20, 21, 22], type=type3}  
    {id=5595404824923951817, catIds=[31, 32], type=type13}  
    {id=3593797446463621044, catIds=[30], type=type12}  
    {id=5824112111832084165, catIds=[1, 2], type=type6}  
    复制代码

    怎么对catIds进行统计呢,代码跟上面进行单个统计一样。

    复制代码
    import org.elasticsearch.action.search.SearchResponse;  
    import org.elasticsearch.client.Client;  
    import org.elasticsearch.index.query.FilterBuilders;  
    import org.elasticsearch.search.facet.FacetBuilders;  
    import org.elasticsearch.search.facet.Facets;  
    import org.elasticsearch.search.facet.terms.TermsFacet;  
    import org.elasticsearch.search.facet.terms.TermsFacetBuilder;  
      
    import com.donlianli.es.ESUtils;  
      
    public class GroupTest2 {  
        public static void  main(String[] argv){  
            Client client = ESUtils.getClient();  
            TermsFacetBuilder facetBuilder = FacetBuilders.termsFacet("catIdName");  
            facetBuilder.field("catIds").size(Integer.MAX_VALUE);  
            facetBuilder.facetFilter(FilterBuilders.matchAllFilter());  
            SearchResponse response = client.prepareSearch("test")  
                    .setTypes("test")  
                    .addFacet(facetBuilder)  
                    .setFilter(FilterBuilders.matchAllFilter())  
                    .execute()  
                    .actionGet();  
            Facets f = response.facets();  
            //跟上面的名称一样  
            TermsFacet facet = (TermsFacet)f.getFacets().get("catIdName");  
            for(TermsFacet.Entry tf :facet.entries()){  
                System.out.println("键:"+tf.getTerm()+"	;数量:	" + tf.getCount());  
            }  
            client.close();  
        }  
    }  
    复制代码

    运行结果:

    复制代码
    键:22    ;数量:    2  
    键:47    ;数量:    1  
    键:46    ;数量:    1  
    键:43    ;数量:    1  
    键:42    ;数量:    1  
    键:41    ;数量:    1  
    键:38    ;数量:    1  
    键:37    ;数量:    1  
    键:32    ;数量:    1  
    键:31    ;数量:    1  
    键:30    ;数量:    1  
    键:28    ;数量:    1  
    键:27    ;数量:    1  
    键:26    ;数量:    1  
    键:23    ;数量:    1  
    键:21    ;数量:    1  
    键:20    ;数量:    1  
    键:5 ;数量:    1  
    键:4 ;数量:    1  
    键:2 ;数量:    1  
    键:1 ;数量:    1  
    复制代码

    再和上面的数据对对,是不是除了22,其他的都是一个?

    在分组这方面,ES真的很强大,除了上面的支持列表分组外,还支持范围分组rangeFacet,多个分组可以一次全部发送给ES等等,更多功能,大家还是自己多多验证。

  • 相关阅读:
    听闻 kubernetes,快速了解一番
    处理器 趣事 CPU/GPU/TPU/DPU/BPU
    记录
    硬盘
    图 总结 AI
    C# 加密、解密PDF文档(基于Spire.Cloud.SDK for .NET)
    Spire.Cloud 私有化部署教程(二)- Ubuntu 18.04 系统
    Spire.Cloud 私有化部署教程(一)
    C# 将PDF转为Word、Html、XPS、SVG、PCL、PS——基于Spire.Cloud.SDK for .NET
    C# 设置、删除、读取Word文档背景——基于Spire.Cloud.Word
  • 原文地址:https://www.cnblogs.com/Leo_wl/p/3193241.html
Copyright © 2020-2023  润新知