es中自定义ik的分词词库(词库布置在nginx)

文末有es和ik的下载教程(高版本的es自带ik)

1 创建nginx容器

1.1拉取nginx

复制代码
#先随便拉取一个ngnix 为了复制配置
docker run -p 80:80 --name nginx -d nginx:1.10

1.2复制配置

复制代码
#在mydata创建 nginx/conf 的目录结构,cd到conf里面 
#然后将容器内的配置文件拷贝到当前目录
docker container cp nginx:/etc/nginx .

1.3删除容器

复制代码
docker rm -f nginx
#删除容器

1.4重新创建容器

复制代码
docker run -p 80:80 --name nginx \
-v/mydata/nginx/html:/usr/share/nginx/html \
-v/mydata/nginx/logs:/var/log/nginx \
-v/mydata/nginx/conf:/etc/nginx \
-d nginx:1.10

1.5 创建词库

首先cd到html目录下

然后创建/es/fenci.txt

在文件中输入需要的分词,然后保存文件

然后cd到/mydata/elasticsearch/plugins/ik/config/这个目录下

然后vi IKAnalyzer.cfg,xml

按照下面图示输入自定义的路径

2 ik的下载

2.1 下载zip

传送 下载zip的形式的(一定要和es的版本对应)

2.2 解压

解压文件夹

然后整个文件夹移动到 /mydata/elasticsearch/plugins/这个目录下即可

3 es+kibana的下载

3.1 拉取镜像

运行以下代码

复制代码
docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
echo "http.host: 0.0.0.0">>/mydata/elasticsearch/config/elasticsearch.yml

3.2运行容器

复制代码
docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-d elasticsearch:7.4.2

3.3安装

复制代码
docker inspect elasticsearch |grep IPAddress
 
# 这里的http://172.17.0.3写自己电脑运行的上面命令的地址
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://172.17.0.3:9200 -p 5601:5601 \
-d kibana:7.4.2
相关推荐
线条133 分钟前
大数据 ETL 工具 Sqoop 深度解析与实战指南
大数据·sqoop·etl
mazhafener1237 小时前
智慧照明:集中控制器、单双灯控制器与智慧灯杆网关的高效协同
大数据
打码人的日常分享8 小时前
物联网智慧医院建设方案(PPT)
大数据·物联网·架构·流程图·智慧城市·制造
Lansonli9 小时前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
Rverdoser10 小时前
电脑硬盘分几个区好
大数据
傻啦嘿哟10 小时前
Python 数据分析与可视化实战:从数据清洗到图表呈现
大数据·数据库·人工智能
Theodore_102211 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
米粉030511 小时前
深入剖析Nginx:从入门到高并发架构实战
java·运维·nginx·架构
簌簌曌11 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark
Theodore_102213 小时前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase