es中自定义ik的分词词库(词库布置在nginx)

文末有es和ik的下载教程(高版本的es自带ik)

1 创建nginx容器

1.1拉取nginx

复制代码
#先随便拉取一个ngnix 为了复制配置
docker run -p 80:80 --name nginx -d nginx:1.10

1.2复制配置

复制代码
#在mydata创建 nginx/conf 的目录结构,cd到conf里面 
#然后将容器内的配置文件拷贝到当前目录
docker container cp nginx:/etc/nginx .

1.3删除容器

复制代码
docker rm -f nginx
#删除容器

1.4重新创建容器

复制代码
docker run -p 80:80 --name nginx \
-v/mydata/nginx/html:/usr/share/nginx/html \
-v/mydata/nginx/logs:/var/log/nginx \
-v/mydata/nginx/conf:/etc/nginx \
-d nginx:1.10

1.5 创建词库

首先cd到html目录下

然后创建/es/fenci.txt

在文件中输入需要的分词,然后保存文件

然后cd到/mydata/elasticsearch/plugins/ik/config/这个目录下

然后vi IKAnalyzer.cfg,xml

按照下面图示输入自定义的路径

2 ik的下载

2.1 下载zip

传送 下载zip的形式的(一定要和es的版本对应)

2.2 解压

解压文件夹

然后整个文件夹移动到 /mydata/elasticsearch/plugins/这个目录下即可

3 es+kibana的下载

3.1 拉取镜像

运行以下代码

复制代码
docker pull elasticsearch:7.4.2
docker pull kibana:7.4.2
echo "http.host: 0.0.0.0">>/mydata/elasticsearch/config/elasticsearch.yml

3.2运行容器

复制代码
docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-d elasticsearch:7.4.2

3.3安装

复制代码
docker inspect elasticsearch |grep IPAddress
 
# 这里的http://172.17.0.3写自己电脑运行的上面命令的地址
docker run --name kibana -e ELASTICSEARCH_HOSTS=http://172.17.0.3:9200 -p 5601:5601 \
-d kibana:7.4.2
相关推荐
timeweaver13 分钟前
深度解析 Nginx 前端 location 配置与优先级:你真的用对了吗?
前端·nginx·前端工程化
Lx35229 分钟前
Hadoop日志分析实战:快速定位问题的技巧
大数据·hadoop
Elasticsearch3 小时前
Elastic 的托管 OTLP 端点:为 SRE 提供更简单、可扩展的 OpenTelemetry
elasticsearch
喂完待续3 小时前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache
SelectDB4 小时前
5000+ 中大型企业首选的 Doris,在稳定性的提升上究竟花了多大的功夫?
大数据·数据库·apache
最初的↘那颗心4 小时前
Flink Stream API 源码走读 - window 和 sum
大数据·hadoop·flink·源码·实时计算·窗口函数
Moment5 小时前
nginx 如何配置防止慢速攻击 🤔🤔🤔
前端·后端·nginx
Yusei_05236 小时前
迅速掌握Git通用指令
大数据·git·elasticsearch
一只栖枝12 小时前
华为 HCIE 大数据认证中 Linux 命令行的运用及价值
大数据·linux·运维·华为·华为认证·hcie·it
喂完待续17 小时前
Apache Hudi:数据湖的实时革命
大数据·数据仓库·分布式·架构·apache·数据库架构