黑马es集群

1、为什么要做es集群

单机的elasticsearch做数据存储,必然面临两个问题:海量数据存储问题、单点故障问题

海量数据存储问题:将索引库从逻辑上拆分为N个分片(shard),存储到多个节点

单点故障问题:将分片数据在不同节点备份(replica)

2、搭建es集群

1、用3个docker容器模拟3个es节点

复制代码
version: '2.2'
services:
  es01:
    image: elasticsearch:7.12.1
    container_name: es01
    environment:
      - node.name=es01
      - cluster.name=es-docker-cluster
      - discovery.seed_hosts=es02,es03
      - cluster.initial_master_nodes=es01,es02,es03
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    volumes:
      - data01:/usr/share/elasticsearch/data
    ports:
      - 9200:9200
    networks:
      - elastic
  es02:
    image: elasticsearch:7.12.1
    container_name: es02
    environment:
      - node.name=es02
      - cluster.name=es-docker-cluster
      - discovery.seed_hosts=es01,es03
      - cluster.initial_master_nodes=es01,es02,es03
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    volumes:
      - data02:/usr/share/elasticsearch/data
    ports:
      - 9201:9200
    networks:
      - elastic
  es03:
    image: elasticsearch:7.12.1
    container_name: es03
    environment:
      - node.name=es03
      - cluster.name=es-docker-cluster
      - discovery.seed_hosts=es01,es02
      - cluster.initial_master_nodes=es01,es02,es03
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    volumes:
      - data03:/usr/share/elasticsearch/data
    networks:
      - elastic
    ports:
      - 9202:9200
volumes:
  data01:
    driver: local
  data02:
    driver: local
  data03:
    driver: local

networks:
  elastic:
    driver: bridge

这是一个使用Docker Compose编排的Elasticsearch集群配置文件。在这个配置中,定义了三个Elasticsearch节点(`es01`、`es02`和`es03`)以及它们共享的网络、卷和相关设置。

  • `version: '2.2'`指定了使用的Docker Compose版本。

  • `services`段定义了各个服务,对应了三个Elasticsearch节点`es01`、`es02`和`es03`。

  • 每个Elasticsearch节点都基于`elasticsearch:7.12.1`镜像启动,指定了节点名称、集群名称、发现种子主机、初始主节点和Java虚拟机参数等环境变量配置。

  • `volumes`段定义了三个数据卷`data01`、`data02`和`data03`用于持久化地存储Elasticsearch数据。

  • `ports`指定了将Elasticsearch节点的9200端口(或9200、9201、9202)映射到主机的9200端口(或9201、9202、9203),允许通过主机访问Elasticsearch服务。

  • `networks`段指定了每个Elasticsearch节点连接到`elastic`网络,通过该网络实现节点之间的通信和互连。

  • `volumes`部分定义了三个本地驱动的数据卷用于持久化存储Elasticsearch数据。

  • `networks`部分定义了一个名为`elastic`的桥接网络,用于连接Elasticsearch节点。

这个配置文件实现了一个基于Docker容器的Elasticsearch集群,通过定义各节点之间的通信方式、数据存储方式和网络连接,使得这些独立的Elasticsearch节点能够组成一个工作集群,共同提供Elasticsearch服务。

2、设置虚拟机内存

es运行需要修改一些linux系统权限,修改`/etc/sysctl.conf`文件

vi /etc/sysctl.conf

添加下面的内容:

vm.max_map_count=262144

然后执行命令,让配置生效:

sysctl -p

通过docker-compose启动集群:

docker-compose up -d

3、通过cerebro管理集群

具体文件见黑马视频,需要注意的是java版本的匹配

图中版本我使用的是jdk1.8,实测jdk21会闪退

在地址栏中输入你任意一个es容器地址和端口即可,注意不要忘了http://

es集群的脑裂

默认情况下,每个节点都是master eligible节点,因此一旦master节点宕机,其它候选节点会选举一个成为主节点。当主节点与其他节点网络故障时,可能发生脑裂问题。

为了避免脑裂,需要要求选票超过(eligible节点数量+1)/2才能当选为主,因此eligible节点数量最好是奇数。对应配置项是discovery.zen.minimum master nodes,在es7.0以后,已经成为默认配置,因此一般不会发生脑裂问题

master eligible节点的作用是什么?

参与集群选主

主节点可以管理集群状态、管理分片信息、处理创建和删除索引库的请求

data节点的作用是什么?

数据的CRUD

coordinator节点的作用是什么?

路由请求到其它节点

合并查询到的结果,返回给用户

3、分布式细节

分布式存储

分布式查询

其中的coordinating node也可以是其中节点的任意一个

总结:

分布式新增如何确定分片?

coordinating node根据id做hash运算,得到结果对shard数量取余,余数就是对应的分片

分布式查询:

分散阶段:coordinating node将查询请求分发给不同分片

收集阶段:将查询结果汇总到coordinatingnode,整理并返回给用户

4、故障转移

集群的master节点会监控集群中的节点状态,如果发现有节点宕机,会立即将宕机节点的分片数据迁移到其它节点,确保数据安全,这个叫做故障转移。

主节点挂了就选个新的主节点,然后数据迁移,其他节点挂了就直接数据迁移

故障转移:

master容机后,EligibleMaster选举为新的主节点:

master节点监控分片、节点状态,将故障节点上的分片转移到正常节点,确保数据安全。

相关推荐
cui178756827 分钟前
打破社区固有僵局,重塑物业、业主、商家新生态
大数据
无忧智库33 分钟前
碳电融合时代的数字化破局:某能源集团“十五五“VPP与碳交易联动运营系统深度解析(WORD)
大数据·人工智能·能源
菜鸟小码1 小时前
HDFS 数据块(Block)机制深度解析:从原理到实战
大数据·hadoop·hdfs
cd_949217211 小时前
2026年四大标签打印软件推荐|从轻量协同到工业级合规全场景适配
大数据
老陈头聊SEO1 小时前
AI驱动的SEO关键词优化全新方法与案例分享
其他·搜索引擎·seo优化
STLearner2 小时前
AI论文速读 | QuitoBench:支付宝高质量开源时间序列预测基准测试集
大数据·论文阅读·人工智能·深度学习·学习·机器学习·开源
跨境卫士苏苏2 小时前
清关链路更透明以后跨境卖家如何减少资料反复修改
大数据·人工智能·安全·跨境电商·亚马逊
openKylin3 小时前
从单点登录到全域安全,openKylin支撑国家电投数字身份认证创新实践
大数据·人工智能·安全
早睡早起早日毕业3 小时前
大数据管理与应用系列丛书《大数据平台架构》之第4章 Hadoop 分布式文件系统 (HDFS)
大数据·hadoop·架构
无心水3 小时前
【Hermes:核心机制】9、40+ 内置工具全解:执行/信息/媒体/记忆/协调五大类 —— 智能体手脚架完全手册
大数据·人工智能·openclaw·养龙虾·hermes·养马