Elasticsearch 认证模拟题 - 22

一、题目

索引 task 索引中文档的 fielda 字段内容包括了 hello & world ,索引后,要求使用 match_phrase query 查询 hello & world 或者 hello and world 都能匹配该文档

1.1 考点
  1. 分词器
1.2 答案
rust 复制代码
# 创建符合条件的 task 索引,设置 field 字段,并写入数据
PUT task
{
"settings": {
    "analysis": {
      "analyzer": {
        "my_analyzer": {
          "tokenizer": "standard",
          "char_filter": [
            "my_mappings_char_filter"
          ]
        }
      },
      "char_filter": {
        "my_mappings_char_filter": {
          "type": "mapping",
          "mappings": [
            "& => and"
          ]
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "fielda":{
        "type": "text",
        "analyzer": "my_analyzer"
      }
    }
  }
}

# 写入数据
POST task/_bulk
{"index":{}}
{"fielda":"hello & world"}
{"index":{}}
{"fielda":"hello and world"}

# 验证结果
GET task/_search
{
  "query": {
    "match_phrase": {
      "fielda": "hello & world"
    }
  }
}

二、题目

有一个索引 task3,其中有 fieldafieldbfieldcfielde 现要求对 task3 重建索引,重建后的索引新增一个字段 fieldg 其值是fieldafieldbfieldcfielde 的值拼接而成。

rust 复制代码
# 创建符合条件的 task3 索引,设置 field 字段,并写入数据
PUT task3
{
  "mappings": {
    "properties": {
      "fielda":{
        "type": "keyword"
      },
      "fieldb":{
        "type": "keyword"
      },
      "fieldc":{
        "type": "keyword"
      },
      "fielde":{
        "type": "keyword"
      }
    }
  }
}

POST task3/_bulk
{"index":{}}
{"fielda":"aa","fieldb":"bb","fieldc":"cc","fielde":"dd"}
{"index":{}}
{"fielda":"中华","fieldb":"人民","fieldc":"共和国","fielde":"万岁"}
2.1 考点
  1. 重建索引
  2. 管道
2.2 答案
rust 复制代码
# 预览脚本结果
POST _ingest/pipeline/_simulate
{
  "pipeline": {
    "processors": [
      {
        "script": {
          "lang": "painless",
          "source": """
            ctx['fieldg'] = ctx['fielda'] + ' ' + ctx['fieldb'] + ' '+ctx['fieldc'] + ' ' + ctx['fielde'];
          """
        }
      }
    ]
  },
  "docs": [
    {
      "_source": {
        "fielda":"中华","fieldb":"人民","fieldc":"共和国","fielde":"万岁"
      }
    }
  ]
}

# 定义脚本
PUT _ingest/pipeline/my_pipeline
{
  "processors": [
    {
      "script": {
        "lang": "painless",
        "source": """
            ctx['fieldg'] = ctx['fielda'] + ' ' + ctx['fieldb'] + ' '+ctx['fieldc'] + ' ' + ctx['fielde'];
          """
      }
    }
  ]
}

# 重建索引
POST _reindex
{
  "source": {
    "index": "task3"
  },
  "dest": {
    "index": "task3_new",
    "pipeline": "my_pipeline"
  }
}

# 搜索结果
GET task3_new/_search
相关推荐
zhixingheyi_tian7 分钟前
Spark 之 SparkSessionExtensions
大数据·分布式·spark
ProtonBase8 分钟前
分布式 Data Warebase - 构筑 AI 时代数据基石
大数据·数据库·数据仓库·人工智能·分布式·数据分析·数据库系统
Mephisto.java11 分钟前
【大数据学习 | Spark-Core】Spark的分区器(HashPartitioner和RangePartitioner)
大数据·elasticsearch·oracle·spark·sqlite·flume·memcached
叶子上的考拉1 小时前
Spark SQL操作
大数据·sql·spark
Qspace丨轻空间2 小时前
气膜场馆照明设计:科技与环保的完美结合—轻空间
大数据·科技·生活·娱乐
衣舞晨风3 小时前
[译]Elasticsearch Sequence ID实现思路及用途
elasticsearch·checkpoint·sequence·primaryterm
cab53 小时前
聊一聊Elasticsearch的索引(1)
大数据·elasticsearch·搜索引擎
时差9533 小时前
使用flink编写WordCount
java·大数据·开发语言·flink
二进制_博客4 小时前
Flink学习连载文章3-Flink中各种Source源
大数据
出发行进4 小时前
Flink的Standalone集群模式安装部署
大数据·linux·分布式·数据分析·flink