es中自定义ik的分词词库(词库布置在nginx)

文末有es和ik的下载教程(高版本的es自带ik)

1 创建nginx容器

1.1拉取nginx

#先随便拉取一个ngnix 为了复制配置
docker run -p 80:80 --name nginx -d nginx:1.10

1.2复制配置

#在mydata创建 nginx/conf 的目录结构,cd到conf里面 
#然后将容器内的配置文件拷贝到当前目录
docker container cp nginx:/etc/nginx .

1.3删除容器

docker rm -f nginx
#删除容器

1.4重新创建容器

docker run -p 80:80 --name nginx \
-v/mydata/nginx/html:/usr/share/nginx/html \
-v/mydata/nginx/logs:/var/log/nginx \
-v/mydata/nginx/conf:/etc/nginx \
-d nginx:1.10

1.5 创建词库

首先cd到html目录下

然后创建/es/fenci.txt

在文件中输入需要的分词,然后保存文件

然后cd到/mydata/elasticsearch/plugins/ik/config/这个目录下

然后vi IKAnalyzer.cfg,xml

按照下面图示输入自定义的路径

2 ik的下载

2.1 下载zip

传送 下载zip的形式的(一定要和es的版本对应)

2.2 解压

解压文件夹

然后整个文件夹移动到 /mydata/elasticsearch/plugins/这个目录下即可

3 es+kibana的下载

3.1 拉取镜像

运行以下代码

docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
echo "http.host: 0.0.0.0">>/mydata/elasticsearch/config/elasticsearch.yml

3.2运行容器

docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-d elasticsearch:7.4.2

3.3安装

docker inspect elasticsearch |grep IPAddress
 
# 这里的http://172.17.0.3写自己电脑运行的上面命令的地址
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://172.17.0.3:9200 -p 5601:5601 \
-d kibana:7.4.2
相关推荐
Elastic 中国社区官方博客3 小时前
使用真实 Elasticsearch 进行高级集成测试
大数据·数据库·elasticsearch·搜索引擎·全文检索·jenkins·集成测试
好记性+烂笔头4 小时前
4 Spark Streaming
大数据·ajax·spark
千夜啊4 小时前
Nginx 运维开发高频面试题详解
运维·nginx·运维开发
好记性+烂笔头7 小时前
3 Flink 运行架构
大数据·架构·flink
字节侠7 小时前
Flink2支持提交StreamGraph到Flink集群
大数据·flink·streamgraph·flink2·jobgraph
画船听雨眠aa10 小时前
gitlab云服务器配置
服务器·git·elasticsearch·gitlab
好记性+烂笔头11 小时前
4 Hadoop 面试真题
大数据·hadoop·面试
好记性+烂笔头11 小时前
10 Flink CDC
大数据·flink
赵渝强老师13 小时前
【赵渝强老师】Spark RDD的依赖关系和任务阶段
大数据·缓存·spark
小小のBigData13 小时前
【2025年更新】1000个大数据/人工智能毕设选题推荐
大数据·人工智能·课程设计