DockerCompose部署es和kibana

DockerCompose文件

bash 复制代码
version: '3.1'
services:
  elasticsearch:
    image: elasticsearch:7.13.3
    container_name: elasticsearch
    privileged: true
    ports:
      - "9200:9200"
      - "9300:9300"
    environment:
      - ES_JAVA_OPTS=-Xms128m -Xmx1024m #设置使用jvm内存大小
      - cluster.name=elasticsearch  #设置集群名称
      - discovery.type=single-node  #以单一节点模式启动
      - bootstrap.memory_lock=true
      - http.cors.enabled=true
      - http.cors.allow-origin=*
      - TZ=Asia/Shanghai
    deploy:
      resources:
        limits:
          cpus: "2"
          memory: 1000M
        reservations:
          memory: 200M
    ulimits:
      memlock:
        soft: -1
        hard: -1

新建文件夹

bash 复制代码
/data/docker/es/plugins
/data/docker/es/data
/data/docker/es/logs

把es的内部文件拷贝出来

bash 复制代码
docker cp elasticsearch:/usr/share/elasticsearch/plugins /opt/docker/data/es/plugins

docker cp elasticsearch:/usr/share/elasticsearch/data /opt/docker/data/es/data

docker cp elasticsearch:/usr/share/elasticsearch/logs /opt/docker/data/es/logs

然后停止容器

删除容器

重新运行yml文件

bash 复制代码
version: '3.1'
services:
  elasticsearch:
    image: elasticsearch:7.13.3
    container_name: elasticsearch
    privileged: true
    ports:
      - "9200:9200"
      - "9300:9300"
    environment:
      - ES_JAVA_OPTS=-Xms128m -Xmx1024m #设置使用jvm内存大小
      - cluster.name=elasticsearch  #设置集群名称
      - discovery.type=single-node  #以单一节点模式启动
      - bootstrap.memory_lock=true
      - http.cors.enabled=true
      - http.cors.allow-origin=*
      - TZ=Asia/Shanghai
    volumes:
      - /opt/docker/data/es/plugins:/usr/share/elasticsearch/plugins #插件文件挂载
      - /opt/docker/data/es/data:/usr/share/elasticsearch/data #数据文件挂载
      - /opt/docker/data/es/logs:/user/share/elasticsearch/logs
    deploy:
      resources:
        limits:
          cpus: "2"
          memory: 1000M
        reservations:
          memory: 200M
    ulimits:
      memlock:
        soft: -1
        hard: -1

部署成功访问

http://服务器id:9200/

kibana 的yml文件

相关推荐
字节跳动数据平台3 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术4 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康6 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
Elasticsearch2 天前
如何使用 Agent Builder 排查 Kubernetes Pod 重启和 OOMKilled 事件
elasticsearch
Elasticsearch3 天前
通用表达式语言 ( CEL ): CEL 输入如何改进 Elastic Agent 集成中的数据收集
elasticsearch
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康4 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP5 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet