分布式搜索引擎ES-Elasticsearch进阶

1.head与postman基于索引的操作

引入概念:

集群健康:

green

所有的主分片和副本分片都正常运行。你的集群是100%可用

yellow

所有的主分片都正常运行,但不是所有的副本分片都正常运行。

red

有主分片没能正常运行。

查询es集群健康状态:

192.168.56.102:9200/_cluster/health

删除index:

创建index:

单个查询 get /index_temp:

查看所有索引:get /_cat/indices?v

2.mappings自定义创建映射

设置相应的数据结构:(mapping,就是定义数据的类型)

Index:false:表示不被识别,如果存放私密信息的时候设置为FALSE

text与keyword异同:

同:都是String

异:text大的文本,需要分词;keyword:精确匹配的搜索,微信号,手机号,QQ号等无需分词

创建索引的同时创建mapping

java 复制代码
PUT     /index_str
{
    "mappings": {
        "properties": {
            "realname": {
            	"type": "text",
            	"index": true
            },
            "username": {
            	"type": "keyword",
            	"index": false
            }
        }
    }
}

为已经存在的索引创建mappings或者创建mappings

java 复制代码
POST        /index_str/_mapping
{
    "properties": {
        "id": {
        	"type": "long"
        },
        "age": {
        	"type": "integer"
        },
        "nickname": {
            "type": "keyword"
        },
        "money1": {
            "type": "float"
        },
        "money2": {
            "type": "double"
        },
        "sex": {
            "type": "byte"
        },
        "score": {
            "type": "short"
        },
        "is_teenager": {
            "type": "boolean"
        },
        "birthday": {
            "type": "date"
        },
        "relationship": {
            "type": "object"
        }
    }
}

注:某个属性一旦被建立,就不能修改了,但是可以新增额外属性

主要数据类型

text, keyword, string

long, integer, short, byte

double, float

boolean

date

object

数组不能混,类型一致

字符串:text:文字类需要被分词倒排序索引的内容,比如:商品名称,商品详情,商品介绍

Keyword:不会被分词,不会被倒排序索引,直接匹配搜索,比如:订单状态,qq号等

3.mappings新增数据类型与analyze

查看分词效果:

GET /index_mapping/_analyze

{

"field": "realname",

"text": "food is good"

}
尝试修改

POST /index_str/_mapping

{

"properties": {

"name": {

"type": "long"

}

}

}

4.文档的基本操作-添加文档与自动映射

添加文档数据:

POST /my_doc/_doc/1 -> {索引名}/_doc/{索引ID}(是指索引在es中的id,而不是这条记录的id,比如记录的id从数据库来是1001,并不是这个。如果不写,则自动生成一个字符串。建议和数据id保持一致> )

java 复制代码
{
    "id": 1001,
    "name": "nly-1",
    "desc": "xhw is very good, 新华网非常牛!",
    "create_date": "2019-12-24"
}

{
    "id": 1002,
    "name": "nly-2",
    "desc": "xhw is fashion, 新华网非常时尚!",
    "create_date": "2019-12-25"
}

{
    "id": 1003,
    "name": "nly-3",
    "desc": "xhw is niubility, 新华网很好很强大!",
    "create_date": "2019-12-26"
}

{
    "id": 1004,
    "name": "nly-4",
    "desc": "xhw is good~!",
    "create_date": "2019-12-27"
}

{
    "id": 1005,
    "name": "nly-5",
    "desc": "新华网 is 强大!",
    "create_date": "2019-12-28"
}

{
    "id": 1006,
    "name": "nly-6",
    "desc": "新华网是一个强大网站!",
    "create_date": "2019-12-29"
}

{
    "id": 1007,
    "name": "nly-7",
    "desc": "新华网是很牛网站!",
    "create_date": "2019-12-30"
}

{
    "id": 1008,
    "name": "nly-8",
    "desc": "新华网是很好看!",
    "create_date": "2019-12-31"
}

{
    "id": 1009,
    "name": "nly-9",
    "desc": "在新华网学习很久!",
    "create_date": "2020-01-01"
}

使用_doc创建时无法创建mapping。

如何增加数据:

_doc:表示如何创建文档;1表示文档名称

创建数据:对应数据库中创建一条完成的数据

区别_id与id,id一般是数据来源,可能是数据库中的id,_id就是文档的id,索引库的主键

如果索引没有手动建立mappings,那么当插入文档数据的时候,会根据文档类型自动设置属性类型。这个就是es的动态映射,帮我们在index索引库中去建立数据结构的相关配置信息。

"fields": {"type": "keyword"}

对一个字段设置多种索引模式,使用text类型做全文检索,也可使用keyword类型做聚合和排序

"ignore_above" : 256

设置字段索引和存储的长度最大值,超过则被忽略

5.文档的基本操作-删除与修改

文档的删除不是立即删除,文档还是保存在磁盘上,索引增长越来越多,才会把那些曾经标识过删除的,进行清理,从磁盘上移出去。

删除:删除文档中的一条数据

DELETE /my_doc/_doc/1

修改:修改某一条数据中的一部分(不添加update也可以实现)

POST /my_doc/_doc/1/_update

{

"doc": {

"name": "慕课"

}

}

全量替换:替换一条完整的文档(数据)

PUT /my_doc/_doc/1

{

"id": 1001,

"name": "imooc-1",

"desc": "imooc is very good, 慕课网非常牛!",

"create_date": "2019-12-24"

}

注意:每次修改后,version会更改

6.文档的基本操作-查询

常规查询:

查询某条特定的数据:(1表示对应的_id是1)

GET /index_demo/_doc/1

查询索引中的全部数据

GET /index_demo/_doc/_search

元数据

_index:文档数据所属那个索引,理解为数据库的某张表即可。

_type:文档数据属于哪个类型,新版本使用_doc。

_id:文档数据的唯一标识,类似数据库中某张表的主键。可以自动生成或者手动指定。

_score:查询相关度,是否契合用户匹配,分数越高用户的搜索体验越高。

_version:版本号。

_source:文档数据,json格式。

定制结果集:查询想要的参数

GET /index_demo/_doc/1?_source=id,name

GET /index_demo/_doc/_search ?_source=id,name

判断文档是否存在:

HEAD /index_demo/_doc/1

使用此种方式的好处是:规范;方便,快捷(只需要code码就可)

7.文档乐观锁控制if_seq_no与if_primary_term

乐观锁(version字段实现,删除或者被修改后它的version是累加的):

当一个共用数据,同时被几个用户或者线程并发的进行操作,

它会和它的版本号进行对比。版本号匹配更新,否则不更新

老版更新方式:

post:192.168.56.102:9200/my_doc/_doc/2001?version=2

{

"doc": {

"name": "慕课111"

}

}

查询对应的数值:

使用if_seq_no与if_primary_term进行更新的时候,同时会将下次的

if_seq_no(累加)与if_primary_term(不变)数值返回出来

当下版本的乐观锁控制需要使用if_seq_no与if_primary_term,使用在请求体中

字段中的"_seq_no"与"_primary_term"代表的是新的版本号

版本元数据

_seq_no:文档版本号,作用同_version(相当于学生编号,每个班级的班主任为学生分配编号,效率要比学校教务处分配来的更加高效,管理起来更方便)

_primary_term:文档所在位置(相当于班级)

8.分词与内置分词器

分词中文不识别。

全局分析:展现的是对于text文本内容的分词

POST /_analyze

{

"analyzer": "standard",

"text": "text文本"

}

使用现有索引库:

POST /my_doc/_analyze

{

"analyzer": "standard",

"field": "name",

"text": "text文本"

}

上面两种结果在简单的测试中,看起来没有多大区别;

es内置分词器

standard:默认分词,单词会被拆分,大小会转换为小写。

simple:按照非字母分词。大写转为小写。

whitespace:按照空格分词。忽略大小写。

stop:去除无意义单词,比如the/a/an/is...

keyword:不做分词。把整个文本作为一个单独的关键词。

非字母分词表示:不是字母会将其去除。

{

"analyzer": "standard",

"text": "My name is Peter Parker,I am a Super Hero. I don't like the Criminals."

}

9建立IK中文分词器

安装IK分词器:(问题:遇到了-bash: unzip: 未找到命令的问题,重新定义安装就可)

Yum -y install unzip zip:安装unzip

unzip elasticsearch-analysis-ik-7.4.2.zip -d /usr/local/elasticsearch-7.4.2/plugins/ik

POST /_analyze

{

"analyzer": "ik_max_word",

"text": "上下班车流量很大"

}

10.自定义中文词库

建立自定义词汇

在es/plugins/ik/config

vim custom.dic
添加内容:

新华网

骚年
配置自定义词典:

custom.dic
重启测试:

相关推荐
小宋102116 分钟前
玩转RabbitMQ声明队列交换机、消息转换器
服务器·分布式·rabbitmq
懒洋洋的华3696 小时前
消息队列-Kafka(概念篇)
分布式·中间件·kafka
March€6 小时前
分布式事务的基本实现
分布式
DieSnowK8 小时前
[Redis][环境配置]详细讲解
数据库·redis·分布式·缓存·环境配置·新手向·详细讲解
Lill_bin9 小时前
深入理解ElasticSearch集群:架构、高可用性与数据一致性
大数据·分布式·elasticsearch·搜索引擎·zookeeper·架构·全文检索
RwTo11 小时前
Elasticsearch 聚合搜索
大数据·elasticsearch·搜索引擎·全文检索
求学小火龙12 小时前
ElasticSearch介绍+使用
java·大数据·elasticsearch
檀越剑指大厂12 小时前
【Elasticsearch系列六】系统命令API
大数据·elasticsearch·搜索引擎
qingcyb16 小时前
下载Kafka 3.0.0教程
分布式·kafka
杰信步迈入C++之路18 小时前
【RabbitMQ】快速上手
分布式·rabbitmq·ruby