ES聚合(仅供自己参考)

1、聚合:可以实现对文档数据的统计、分析、运算。聚合常见的是三大类

2、聚合的分类:

1、桶(Bucket)聚合:用来对文档做分组

  • TermAggregation:按照文档字段值分组

  • Date Histogram:按照日期阶梯分组,例如一周为一组,或者一月为一组

2、度量(Metric)聚合:用以计算一些值,AVG,MAX,MIN,SUM,STATS(都做前面的几个)

3、管道聚合(Pipeline):其他聚合的结果为基础做聚合(比如度量和桶的结果做基础)

4、参与聚合的字段不能是可分词的(Text类型):keyword,Date,数值,布尔

复制代码
#桶聚合,按照字段品牌来分类
GET /hotel/_search
{
  "size": 0,
  "aggs": {
    "brandAgg": {
      "terms": {
        "field": "brand",
        "size": 25
      }
    }
  }
}

#同聚合,按照字段品牌来分类,同时指定排序方式

GET /hotel/_search
{
  "size": 0,        #指定文档输出的数量
  "aggs": {
    "brandAgg": {
      "terms": {            #分类的类型
        "field": "brand",    #分类的字段
        "size": 20,            #分类的大小
        "order": {
          "_count": "asc"      #输出的顺序,默认为降序
        }
      }
    }
  }
}


#桶聚合,因为数据可能很多,通过查询条件筛选之后在做分类
GET /hotel/_search
{
  "query": {
    "range": {
      "price": {
        "lte": 200
      }
    }
  }, 
  "size": 0,
  "aggs": {
    "brandAgg": {
      "terms": {
        "field": "brand",
        "size": 10
      }
    }
  }
}

聚合嵌套和Metric聚合

复制代码
#metric聚合和桶聚合和度量聚合的嵌套

GET /hotel/_search
{
  "size": 0, 
  "aggs": {
    "brandAgg": {
      "terms": {
        "field": "brand",
        "size": 20,
        "order": {
          "scoreAgg.avg": "asc"
        }
      },
      "aggs": {        #内嵌一个agg,使得上面每个分类自己计算自己
        "scoreAgg": {
          "stats": {
            "field": "score"
          }
        }
      }
    }
  }
}

java代码:

java 复制代码
package cn.itcast.hotel;

import com.google.protobuf.MapEntry;
import lombok.val;
import org.apache.http.HttpHost;
import org.elasticsearch.action.search.SearchRequest;
import org.elasticsearch.action.search.SearchResponse;
import org.elasticsearch.client.RequestOptions;
import org.elasticsearch.client.RestClient;
import org.elasticsearch.client.RestHighLevelClient;
import org.elasticsearch.search.aggregations.Aggregation;
import org.elasticsearch.search.aggregations.AggregationBuilder;
import org.elasticsearch.search.aggregations.AggregationBuilders;
import org.elasticsearch.search.aggregations.Aggregations;
import org.elasticsearch.search.aggregations.bucket.terms.Terms;
import org.junit.jupiter.api.AfterEach;
import org.junit.jupiter.api.BeforeEach;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

import java.io.IOException;
import java.util.List;
import java.util.Map;
import java.util.Set;

@SpringBootTest
public class HotelAggText {

    private RestHighLevelClient client;

    @BeforeEach
    void setUp() {
        this.client = new RestHighLevelClient(RestClient.builder(
                HttpHost.create("http://192.168.136.128:9200")
        ));
    }

    @AfterEach
    void tearDown() {
        try {
            client.close();
        } catch (IOException e) {
            throw new RuntimeException(e);
        }
    }

    @Test
    public void bucketAggTest() throws IOException {

        SearchRequest request = new SearchRequest("hotel");
        request.source().size(0);
        request.source().aggregation(AggregationBuilders.terms("brandAgg").field("brand").size(20));
        request.source().aggregation(AggregationBuilders.
                terms("starName").field("starName").size(10));
        //查询城市city

        request.source().aggregation(AggregationBuilders
                .terms("city").field("city").size(5));
        SearchResponse response = client.search(request, RequestOptions.DEFAULT);
        print(response);
    }

    private void print(SearchResponse response)
    {
        Aggregations aggregations = response.getAggregations();
        Terms brandAgg = aggregations.get("brandAgg");
        Terms city =aggregations.get("city");
        List<? extends Terms.Bucket> buckets = brandAgg.getBuckets();
        for (Terms.Bucket bucket : buckets) {
            System.out.println(bucket.getKey() +"  "+bucket.getDocCount());
        }

        List<? extends Terms.Bucket> buckets1 = city.getBuckets();
        for (Terms.Bucket bucket : buckets1) {
            System.out.println(bucket.getKey() +"  "+bucket.getDocCount());
        }
        //Map<String, Aggregation> asMap = aggregations.getAsMap();
        //Aggregation brandAgg = asMap.get("brandAgg");
        //Map<String, Object> metadata = brandAgg.getMetadata();
        //for (Map.Entry<String, Object> entry : metadata.entrySet()) {
        //    System.out.println(entry.getKey() + "  "+entry.getValue());
        //}
    }
}
相关推荐
2501_930104041 小时前
GitCode 疑难问题诊疗:全方位指南
大数据·elasticsearch·gitcode
健康平安的活着1 小时前
es7.17.x es服务yellow状态的排查&查看节点,分片状态数量
大数据·elasticsearch·搜索引擎
念念01071 小时前
基于MATLAB多智能体强化学习的出租车资源配置优化系统设计与实现
大数据·人工智能·matlab
sunxinyu4 小时前
曲面/线 拟合gnuplot
大数据·线性回归·数据处理·数据拟合·二维三维空间数据
专注API从业者4 小时前
基于 Flink 的淘宝实时数据管道设计:商品详情流式处理与异构存储
大数据·前端·数据库·数据挖掘·flink
淡酒交魂6 小时前
「Flink」业务搭建方法总结
大数据·数据挖掘·数据分析
mask哥6 小时前
详解flink java基础(一)
java·大数据·微服务·flink·实时计算·领域驱动
TDengine (老段)6 小时前
TDengine IDMP 高级功能(4. 元素引用)
大数据·数据库·人工智能·物联网·数据分析·时序数据库·tdengine
livemetee7 小时前
Flink2.0学习笔记:Flink服务器搭建与flink作业提交
大数据·笔记·学习·flink
zhang98800008 小时前
储能领域大数据平台的设计中如何使用 Hadoop、Spark、Flink 等组件实现数据采集、清洗、存储及实时 / 离线计算,支持储能系统分析与预测
大数据·hadoop·spark