ES实战-分析数据1

分析是文档被发送并加入倒排索引之前,es在其主体上进行的操作,具体如下

1.字符过滤-使用字符过滤器转变字符

2.文本切分为分词-将文本切分为单个或多个分词

3,分词过滤-使用分词过滤器转变每个分词

4.分词索引-将这些分词存储到索引中
为文档使用分析器

1.当创建索引的时候,为特定的索引进行设置-直接生效

2.在es配置文件中,设置全局分析器-需重启生效
在映射中指定某个字段的分析器

bash 复制代码
#为description字段指定myCustomerAnalyzer分析器
{
  "mappings": {
    "document":{
      "properties":{
        "description":{
          "type":"string",
          "analyzer":"myCustomerAnalyzer"
        }
      }
    }
  }
}
#指定不要分析description字段
{
  "mappings": {
    "document":{
      "properties":{
        "description":{
          "type":"string",
          "index":"not_analyzed"
        }
      }
    }
  }
}

使用分析API来分析文本

bash 复制代码
curl -XPOST 'localhost:9200/_analyze' -H 'Content-Type: application/json' -d '{
  "analyzer": "standard",
  "text": "share your experience with NoSql & big data technologies"
}'

请求Elasticsearch返回get-together索引中ID为1的文档,在description和tags字段上的词项向量以及相关统计信息

bash 复制代码
curl -X GET "localhost:9200/get-together/_termvectors/1?pretty=true" -H 'Content-Type: application/json' -d '{
"fields":["description","tags"],
"term_statistics":true
}'

分析器包含:

1.标准分析器:

1.1.标准分词器

1.2.标准分词过滤器

1.3,小写转换分词过滤器

1.4.停用词分词过滤器

2.简单分析器

3.空白分析器

4.停用词分析器

5,关键词分析器

6.模式分析器

7.语言和多语言分析器

8.雪球分析器
分词器包括:

1.标准分词器

2,关键词分词器

3.字母分词器

4.小写分词器

5.空白分词器

6.模式分词器

7.UAX URl电子邮件分词器

8.路径层次分词器
分词过滤器

1.标准分词过滤器

2.小写分词过滤器

3.长度分词过滤器

4.停用词分词过滤器

5.截断分词过滤器,修剪分词过滤器,限制分词数量过滤器

6.颠倒分词过滤器

7.唯一分词过滤器

8.ASCII折叠分词过滤器

9.同义词分词过滤器

相关推荐
阿里云大数据AI技术13 小时前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx35217 小时前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
Elasticsearch21 小时前
平衡尺度:利用权重使倒数排序融合 (RRF) 更加智能
elasticsearch
武子康21 小时前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据
Lx3522 天前
Hadoop容错机制深度解析:保障作业稳定运行
大数据·hadoop
muyun28002 天前
Docker 下部署 Elasticsearch 8 并集成 Kibana 和 IK 分词器
elasticsearch·docker·容器
T06205142 天前
工具变量-5G试点城市DID数据(2014-2025年
大数据
向往鹰的翱翔2 天前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
鸿乃江边鸟2 天前
向量化和列式存储
大数据·sql·向量化