1.head与postman基于索引的操作
引入概念:
集群健康:
green
所有的主分片和副本分片都正常运行。你的集群是100%可用
yellow
所有的主分片都正常运行,但不是所有的副本分片都正常运行。
red
有主分片没能正常运行。
查询es集群健康状态:
192.168.56.102:9200/_cluster/health
删除index:
创建index:
单个查询 get /index_temp:
查看所有索引:get /_cat/indices?v
2.mappings自定义创建映射
设置相应的数据结构:(mapping,就是定义数据的类型)
Index:false:表示不被识别,如果存放私密信息的时候设置为FALSE
text与keyword异同:
同:都是String
异:text大的文本,需要分词;keyword:精确匹配的搜索,微信号,手机号,QQ号等无需分词
创建索引的同时创建mapping
java
PUT /index_str
{
"mappings": {
"properties": {
"realname": {
"type": "text",
"index": true
},
"username": {
"type": "keyword",
"index": false
}
}
}
}
为已经存在的索引创建mappings或者创建mappings
java
POST /index_str/_mapping
{
"properties": {
"id": {
"type": "long"
},
"age": {
"type": "integer"
},
"nickname": {
"type": "keyword"
},
"money1": {
"type": "float"
},
"money2": {
"type": "double"
},
"sex": {
"type": "byte"
},
"score": {
"type": "short"
},
"is_teenager": {
"type": "boolean"
},
"birthday": {
"type": "date"
},
"relationship": {
"type": "object"
}
}
}
注:某个属性一旦被建立,就不能修改了,但是可以新增额外属性
主要数据类型
text, keyword, string
long, integer, short, byte
double, float
boolean
date
object
数组不能混,类型一致
字符串:text:文字类需要被分词倒排序索引的内容,比如:商品名称,商品详情,商品介绍
Keyword:不会被分词,不会被倒排序索引,直接匹配搜索,比如:订单状态,qq号等
3.mappings新增数据类型与analyze
查看分词效果:
GET /index_mapping/_analyze
{
"field": "realname",
"text": "food is good"
}
尝试修改
POST /index_str/_mapping
{
"properties": {
"name": {
"type": "long"
}
}
}
4.文档的基本操作-添加文档与自动映射
添加文档数据:
POST /my_doc/_doc/1 -> {索引名}/_doc/{索引ID}(是指索引在es中的id,而不是这条记录的id,比如记录的id从数据库来是1001,并不是这个。如果不写,则自动生成一个字符串。建议和数据id保持一致> )
java
{
"id": 1001,
"name": "nly-1",
"desc": "xhw is very good, 新华网非常牛!",
"create_date": "2019-12-24"
}
{
"id": 1002,
"name": "nly-2",
"desc": "xhw is fashion, 新华网非常时尚!",
"create_date": "2019-12-25"
}
{
"id": 1003,
"name": "nly-3",
"desc": "xhw is niubility, 新华网很好很强大!",
"create_date": "2019-12-26"
}
{
"id": 1004,
"name": "nly-4",
"desc": "xhw is good~!",
"create_date": "2019-12-27"
}
{
"id": 1005,
"name": "nly-5",
"desc": "新华网 is 强大!",
"create_date": "2019-12-28"
}
{
"id": 1006,
"name": "nly-6",
"desc": "新华网是一个强大网站!",
"create_date": "2019-12-29"
}
{
"id": 1007,
"name": "nly-7",
"desc": "新华网是很牛网站!",
"create_date": "2019-12-30"
}
{
"id": 1008,
"name": "nly-8",
"desc": "新华网是很好看!",
"create_date": "2019-12-31"
}
{
"id": 1009,
"name": "nly-9",
"desc": "在新华网学习很久!",
"create_date": "2020-01-01"
}
使用_doc创建时无法创建mapping。
如何增加数据:
_doc:表示如何创建文档;1表示文档名称
创建数据:对应数据库中创建一条完成的数据
区别_id与id,id一般是数据来源,可能是数据库中的id,_id就是文档的id,索引库的主键
如果索引没有手动建立mappings,那么当插入文档数据的时候,会根据文档类型自动设置属性类型。这个就是es的动态映射,帮我们在index索引库中去建立数据结构的相关配置信息。
"fields": {"type": "keyword"}
对一个字段设置多种索引模式,使用text类型做全文检索,也可使用keyword类型做聚合和排序
"ignore_above" : 256
设置字段索引和存储的长度最大值,超过则被忽略
5.文档的基本操作-删除与修改
文档的删除不是立即删除,文档还是保存在磁盘上,索引增长越来越多,才会把那些曾经标识过删除的,进行清理,从磁盘上移出去。
删除:删除文档中的一条数据
DELETE /my_doc/_doc/1
修改:修改某一条数据中的一部分(不添加update也可以实现)
POST /my_doc/_doc/1/_update
{
"doc": {
"name": "慕课"
}
}
全量替换:替换一条完整的文档(数据)
PUT /my_doc/_doc/1
{
"id": 1001,
"name": "imooc-1",
"desc": "imooc is very good, 慕课网非常牛!",
"create_date": "2019-12-24"
}
注意:每次修改后,version会更改
6.文档的基本操作-查询
常规查询:
查询某条特定的数据:(1表示对应的_id是1)
GET /index_demo/_doc/1
查询索引中的全部数据
GET /index_demo/_doc/_search
元数据
_index:文档数据所属那个索引,理解为数据库的某张表即可。
_type:文档数据属于哪个类型,新版本使用_doc。
_id:文档数据的唯一标识,类似数据库中某张表的主键。可以自动生成或者手动指定。
_score:查询相关度,是否契合用户匹配,分数越高用户的搜索体验越高。
_version:版本号。
_source:文档数据,json格式。
定制结果集:查询想要的参数
GET /index_demo/_doc/1?_source=id,name
GET /index_demo/_doc/_search ?_source=id,name
判断文档是否存在:
HEAD /index_demo/_doc/1
使用此种方式的好处是:规范;方便,快捷(只需要code码就可)
7.文档乐观锁控制if_seq_no与if_primary_term
乐观锁(version字段实现,删除或者被修改后它的version是累加的):
当一个共用数据,同时被几个用户或者线程并发的进行操作,
它会和它的版本号进行对比。版本号匹配更新,否则不更新
老版更新方式:
post:192.168.56.102:9200/my_doc/_doc/2001?version=2
{
"doc": {
"name": "慕课111"
}
}
查询对应的数值:
使用if_seq_no与if_primary_term进行更新的时候,同时会将下次的
if_seq_no(累加)与if_primary_term(不变)数值返回出来
当下版本的乐观锁控制需要使用if_seq_no与if_primary_term,使用在请求体中
字段中的"_seq_no"与"_primary_term"代表的是新的版本号
版本元数据
_seq_no:文档版本号,作用同_version(相当于学生编号,每个班级的班主任为学生分配编号,效率要比学校教务处分配来的更加高效,管理起来更方便)
_primary_term:文档所在位置(相当于班级)
8.分词与内置分词器
分词中文不识别。
全局分析:展现的是对于text文本内容的分词
POST /_analyze
{
"analyzer": "standard",
"text": "text文本"
}
使用现有索引库:
POST /my_doc/_analyze
{
"analyzer": "standard",
"field": "name",
"text": "text文本"
}
上面两种结果在简单的测试中,看起来没有多大区别;
es内置分词器
standard:默认分词,单词会被拆分,大小会转换为小写。
simple:按照非字母分词。大写转为小写。
whitespace:按照空格分词。忽略大小写。
stop:去除无意义单词,比如the/a/an/is...
keyword:不做分词。把整个文本作为一个单独的关键词。
非字母分词表示:不是字母会将其去除。
{
"analyzer": "standard",
"text": "My name is Peter Parker,I am a Super Hero. I don't like the Criminals."
}
9建立IK中文分词器
安装IK分词器:(问题:遇到了-bash: unzip: 未找到命令的问题,重新定义安装就可)
Yum -y install unzip zip:安装unzip
unzip elasticsearch-analysis-ik-7.4.2.zip -d /usr/local/elasticsearch-7.4.2/plugins/ik
POST /_analyze
{
"analyzer": "ik_max_word",
"text": "上下班车流量很大"
}
10.自定义中文词库
建立自定义词汇
在es/plugins/ik/config
vim custom.dic
添加内容:
新华网
骚年
配置自定义词典:
custom.dic
重启测试: