es 简单集群搭建,版本8.6.2

Node-1 配置:

yaml 复制代码
# elasticsearch.yml for Node-1

cluster.name: my-test-cluster
node.name: node-1
path.data: /path/to/data/node-1
path.logs: /path/to/logs/node-1
network.host: 127.0.0.1
http.port: 9200
transport.port: 9300
discovery.seed_hosts: ["127.0.0.1:9301", "127.0.0.1:9302"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

Node-2 配置:

yaml 复制代码
# elasticsearch.yml for Node-2

cluster.name: my-test-cluster
node.name: node-2
path.data: /path/to/data/node-2
path.logs: /path/to/logs/node-2
network.host: 127.0.0.1
http.port: 9201
transport.port: 9301
discovery.seed_hosts: ["127.0.0.1:9300", "127.0.0.1:9302"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

Node-3 配置:

yaml 复制代码
# elasticsearch.yml for Node-3

cluster.name: my-test-cluster
node.name: node-3
path.data: /path/to/data/node-3
path.logs: /path/to/logs/node-3
network.host: 127.0.0.1
http.port: 9202
transport.port: 9302
discovery.seed_hosts: ["127.0.0.1:9300", "127.0.0.1:9301"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

请注意以下几点:

  • 节点名称 (node.name): 每个节点的名称应该是唯一的。

  • 数据目录 (path.data): 每个节点的数据目录应该是独立的,以防止节点之间的数据冲突。

  • HTTP 端口 (http.port): 每个节点的 HTTP 端口应该是唯一的。

  • 传输端口 (transport.port): 每个节点的传输端口应该是唯一的。

  • 发现种子主机 (discovery.seed_hosts): 每个节点的发现种子主机应该包含其他节点的地址和端口。

  • 初始主节点 (cluster.initial_master_nodes): 所有节点的此设置应该包含集群中的一个或多个节点的名称,用于确定初始主节点。在上述配置中,node-1 是初始主节点。

以上由chat gpt生成,下面是踩的坑

实践中遇到的问题
bash 复制代码
can't add node 
{node-3}{O5Ruh7M4Q9qfab0KqZYQ5g}{T2m2C0h1TkitZVddABjv3A}{node-3}{127.0.0.1}{127.0.0.1:9302}{cdfhilmrstw}{ml.machine_memory=34221711360, ml.allocated_processors=12, ml.max_jvm_size=4294967296, ml.allocated_processors_double=12.0, xpack.installed=true}, 
found existing node 
{node-2}{O5Ruh7M4Q9qfab0KqZYQ5g}{vMqqqsdlS7aWl1T1jtCKTQ}{node-2}{127.0.0.1}{127.0.0.1:9301}{cdfhilmrstw}{ml.machine_memory=34221711360, ml.allocated_processors=12, ml.max_jvm_size=4294967296, ml.allocated_processors_double=12.0, xpack.installed=true} 
with the same id but is a different node instance
原因及解决办法

原因就是我在启动es两个节点启动成功之后,为了省事 ,复制 node-2的目录。

然后只修改了配置文件elasticsearch.yml,而没有删除node-2 启动时生成的数据。

导致集群中唯一标识节点node.id 重复了

node.id 是在es第一次启动时自动生成的uuid .

解决办法:删除es目录下的data目录,重新生成它的 node.id

相关推荐
Elastic 中国社区官方博客1 天前
Elasticsearch:运用 JINA 来实现多模态搜索的 RAG
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
lifewange1 天前
Git版本管理
大数据·git·elasticsearch
Promise微笑1 天前
AI时代Geo优化:SEO基础如何赋能“两大核心+四轮驱动”
人工智能·搜索引擎
ACGkaka_1 天前
SpringBoot 实战(四十一):集成 Elasticsearch
spring boot·elasticsearch·jenkins
Devin~Y1 天前
大厂 Java 面试实战:从电商微服务到 AI 智能客服(含 Spring 全家桶、Redis、Kafka、RAG/Agent 解析)
java·spring boot·redis·elasticsearch·spring cloud·docker·kafka
Elastic 中国社区官方博客1 天前
Elasticsearch:语义搜索,现在默认支持多语言
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
慕诗客2 天前
repo管理多仓库
大数据·elasticsearch·搜索引擎
运营小白2 天前
用 SEONIB批量生成 SEO 博客来提升 Google 排名
搜索引擎·ai自动写作·关键词抓取·seonib·多平台流量复用·规模化内容生产·seo更新节奏
刘佬GEO2 天前
【无标题】
网络·人工智能·搜索引擎·ai·语言模型
Elasticsearch2 天前
Elasticsearch:运用 JINA 来实现多模态搜索的 RAG
elasticsearch