一、安装es和kibana
1、创建一个网络,网络内的框架(es+kibana)互联
bash
docker network create es-net
2、下载es和kibana
bash
docker pull elasticsearch:7.12.1
docker pull kibana:7.12.1
3、运行docker命令部署单点es+kibana(用来操作es)
bash
docker run -d \
--name es \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
--privileged \
--network es-net \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.12.1
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601 \
kibana:7.12.1
说明
bash
docker run -d \
--name es \ --容器名字
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \ -- e为环境变量
-e "discovery.type=single-node" \
--privileged \
--network es-net \ --让es容器加入到这个网络中
-p 9200:9200 \ --9200为暴露的http协议端口,供用户访问
-p 9300:9300 \ --9300为es容器各个节点之间互联的端口
elasticsearch:7.12.1 --镜像名称
4、访问
html
es: http://localhost:9200/
kibana: http://localhost:5601/
5、查看日志
bash
docker logs -f kibana
docker logs -f es
二、使用:写DSL语句
点击这个,在里面写就行了
三、安装分词器
1、默认分词器(analyzer)
可选的有standard、english、chinese但是他们的中文都是一个字分一个词
TypeScript
POST /_analyze
{
"text":"胖胖and笨笨都是可爱的小猫猫",
"analyzer":"chinese"
}
2、安装IK分词器
下载这个
https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.12.1
1)打开命令行界面
2)在/usr/share/elasticsearch/plugins下创建ik目录(必须创建,直接解压到plugins目录下会报错)
bash
/usr/share/elasticsearch/plugins
mkdir ik --不创建也行,在mac本地解压,会自动存elasticsearch-analysis-ik-7.12.1目录下
3)将安装包拉取到es容器中,直接往里拖就行
4)解压
bash
cd ik
unzip elasticsearch-analysis-ik-7.12.1.zip
rm elasticsearch-analysis-ik-7.12.1.zip