elasticsearch镜像化安装部署

1、镜像安装

docker network create --driver bridge --subnet=192.128.0.0/10 --gateway=192.128.1.1 mynetwork

docker run -d --net=mynetwork --ip=192.128.10.1 -p 1000:22 --name redhat-es01 -it c70d72aaebb4 /bin/bash

#拉取镜像

docker pull elasticsearch:7.7.0

#启动镜像

docker run --name elasticsearch -d -e ES_JAVA_OPTS="-Xms4g -Xmx4g" -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 elasticsearch:7.7.0

单机配置优化:

vim /etc/security/limits.conf

##将下面内容直接加入到文件末尾

* soft nofile 65536

* hard nofile 131072

* soft nproc 4096

* hard nproc 65536

vim /etc/sysctl.conf

vm.max_map_count = 262144

sysctl -p #使之生效

docker restart 容器ID

http://localhost:9200/

#拉取镜像

docker pull mobz/elasticsearch-head:5

#创建容器

docker create --name elasticsearch-head -p 9100:9100 mobz/elasticsearch-head:5

#启动容器

docker start elasticsearch-head

or

docker start 容器id (docker ps -a 查看容器id )

http://localhost:9100/ 调用http://localhost:9200/相关接口时(集群节点、健康状态),存在跨域问题,需要修改elasticsearch.yml

在config/elasticsearch.yml最下面添加2行

vi config/elasticsearch.yml

http.cors.enabled: true

http.cors.allow-origin: "*"

修改ElasticSearch-head 相关配置,如果不修改,默认会报 406错误码

#复制vendor.js到外部

docker cp 容器id:/usr/src/app/_site/vendor.js /usr/local/

#修改vendor.js

vim vendor.js

安装kibana

docker run -it --name="kibana" -p 5601:5601 --link elasticsearch:elasticsearch kibana:7.7.0

修改/usr/share/kibana/config/kibana.yml,对应的elasticsearch.hosts: [ "http://192.168.22.30:9200" ]

离线下载elasticsearch-analysis-ik-7.7.0.zip

#将压缩包移动到容器中

docker cp D:\docker-image\elasticsearch-analysis-ik-7.7.0.zip elasticsearch:/usr/share/elasticsearch/plugins

#进入容器

docker exec -it elasticsearch /bin/bash

#创建目录

mkdir /usr/share/elasticsearch/plugins/ik

#将文件压缩包移动到ik中

mv /usr/share/elasticsearch/plugins/elasticsearch-analysis-ik-7.7.0.zip /usr/share/elasticsearch/plugins/ik

#进入目录

cd /usr/share/elasticsearch/plugins/ik

#解压

unzip elasticsearch-analysis-ik-7.7.0.zip

#删除压缩包

rm -rf elasticsearch-analysis-ik-7.7.0.zip

未使用分词器

POST _analyze

{

"analyzer":"standard",

"text":"我爱你中国"

}

使用分词器

POST _analyze

{

"analyzer":"ik_max_word",

"text":"我爱你中国"

}

相关推荐
Q264336502318 分钟前
【有源码】基于Hadoop+Spark的起点小说网大数据可视化分析系统-基于Python大数据生态的网络文学数据挖掘与可视化系统
大数据·hadoop·python·信息可视化·数据分析·spark·毕业设计
洞见新研社37 分钟前
家庭机器人,从科幻到日常的二十年突围战
大数据·人工智能·机器人
筑梦之人2 小时前
Spark-3.5.7文档2 - RDD 编程指南
大数据·分布式·spark
Archy_Wang_12 小时前
基于BaGet 构建NuGet私有库并实现类库打包到NuGet私有库
运维·jenkins
艾莉丝努力练剑3 小时前
【C++:红黑树】深入理解红黑树的平衡之道:从原理、变色、旋转到完整实现代码
大数据·开发语言·c++·人工智能·红黑树
ImproveJin4 小时前
Flink Source源码解析
大数据·flink
PONY LEE4 小时前
Flink Rebalance触发乱序的问题
大数据·flink
snowful world4 小时前
实验四 综合数据流处理-Storm案例实现
大数据·storm
金融Tech趋势派4 小时前
金融机构如何用企业微信实现客户服务优化?
大数据·人工智能·金融·企业微信·企业微信scrm