docker系列
docker安装elasticsearch和kibana
本篇文章所采用的elasticsearch和kibana版本以及ik分词器都是7.12.1版本
一、安装elasticsearch
- 使用docker创建网络
bash
docker network create esnet
- 拉取elasticsearch镜像
bash
docker pull elasticsearch:7.12.1
- 在虚拟机中创建目录用来挂载数据卷
目录结构如下图所示,新建data和plugins文件夹
- 创建并运行es容器
bash
docker run -d \
--name es \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
-v "/usr/local/soft/es/data":/usr/share/elsaticsearch/data \
-v "/usr/local/soft/es/plugins":/usr/share/elasticsearch/plugins \
--privileged \
--net esnet \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.12.1
# 注意修改上面挂载的数据卷目录,以及将镜像的tag修改为自己的tag
- 查看容器
bash
docker ps
- 浏览器打开
在浏览器中通过自己的虚拟机[IP地址:9200]的格式访问,当出现如下页面即为安装成功。
二、安装kibana
- 拉取镜像
bash
docker pull kibana:7.12.1
- 创建并运行kibana容器
bash
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--net esnet \
-p 5601:5601 \
kibana:7.12.1
- 在浏览器中打开【虚拟机ip地址:5601】当出现如下所示页面,即为安装成功。
三、安装ik分词器
1、分词器说明
es的倒排索引,通过将输入的内容分解为关键词然后检索,但es的分词器对中文分词不是很友好和精确,所以需要下载第三方分词器以插件的形式运行。
- es中的中文分词器
如上所示,官方的分词器会将中文句子分解为单个的汉字,而不是根据句意或者专有名词去分解。
- ik分词器
上面的分词多少是比es中分词器精准一些
2、安装分词器
- 点击下载ik分词器
点击上面的链接之后,选择合适的版本(和自己的es版本对应)
然后下载zip文件,解压后重命名为ik,通过mobaxterm上传到挂载的plugins目录下
如下所示:
- 重新启动es容器
bash
docker restart es
然后就可以使用了。