Elasticsearch 认证模拟题 - 11

一、题目

编写一个名为 a_data_stream 数据流满足以下请求:

  1. 数据流索引主分片数为 1 ,副本为 2
  2. 数据流索引指定相应的 mapping ,二个字段为 keyword 类型,一个字段为 text 类型并指定分词器为 standard

按照上述要求建立数据流

1.1 考点
  1. 数据流
  2. 索引模板

仔细看题,似乎并不需要索引模板,但是我在官网没找到不适用模板就建立数据流的方法

1.2 答案
rust 复制代码
PUT _index_template/my_template
{
  "index_patterns": ["a_data_stream*"],
  "template": {
    "settings": {
      "number_of_shards": 1,
      "number_of_replicas": 2
    },
    "mappings": {
      "_source": {
        "enabled": true
      },
      "properties": {
        "a": {
          "type": "keyword"
        },
        "b": {
          "type": "keyword"
        },
        "c": {
          "type": "text",
          "analyzer": "standard"
        }
      }
    }
  },
  "priority": 500,
  "data_stream": { }
}

PUT _data_stream/a_data_stream

二、题目

在集群上有一个索引 task1,编写一个查询并满足以下要求:

  1. 定义一个名为 a 的运行时字段,通过 a 字段实现以下聚合(a 字段的值等于 b 字段减去 c 字段)

  2. 聚合a值小于-2的文档

  3. 聚合-5到5之间的文档

  4. 聚合大于5的文档

  5. 建立测试索引

2.1 考点
  1. 聚合查询
  2. 运行时字段
2.2 答案
rust 复制代码
GET task1/_search
{
  "size": 0, 
  "runtime_mappings": {
    "a": {
      "type": "double",
      "script": {
        "source": """emit(doc['b'].value - doc['c'].value)"""
      }
    }
  },
  "aggs": {
    "a_ranges": {
      "range": {
        "field": "a",
        "ranges": [
          { "to": -2 },
          { "from": -5, "to": 5 },
          { "from": 5 }
        ]
      }
    }
  }
}
相关推荐
java_logo1 分钟前
TDengine Docker 容器化部署指南
大数据·docker·tdengine·docker tdengine·tdengine部署教程·tdengine部署文档·tdengine部署
AI营销资讯站17 分钟前
原圈科技AI营销内容生产体系助力企业降本提效新变革
大数据·人工智能
原神启动119 分钟前
Nginx云计算大数据——安装AND版本升级(普通升级+平滑升级+失败回滚)
大数据·nginx·云计算
qq_124987075320 分钟前
基于spark的新闻文本分类系统(源码+论文+部署+安装)
大数据·分类·数据挖掘·spark
存储国产化前线22 分钟前
国产工业级存储进阶之路:从自主可控主控到可靠可用的全链路突围
大数据·人工智能·物联网
AI营销先锋27 分钟前
原圈科技赋能AI市场舆情分析,推动企业智能化决策变革
大数据·人工智能
老蒋新思维28 分钟前
创客匠人观察:知识IP的下一站——与AI智能体共生的“人机协同”模式
大数据·人工智能·网络协议·tcp/ip·重构·创始人ip·创客匠人
啊吧怪不啊吧1 小时前
SQL之用户管理——权限与用户
大数据·数据库·sql
灰色人生qwer1 小时前
git add . 添加超长文件名报错了怎么办?
git·python·elasticsearch
山沐与山1 小时前
【Flink】Flink开发环境搭建与WordCount实战
大数据·flink