es 简单集群搭建,版本8.6.2

Node-1 配置:

yaml 复制代码
# elasticsearch.yml for Node-1

cluster.name: my-test-cluster
node.name: node-1
path.data: /path/to/data/node-1
path.logs: /path/to/logs/node-1
network.host: 127.0.0.1
http.port: 9200
transport.port: 9300
discovery.seed_hosts: ["127.0.0.1:9301", "127.0.0.1:9302"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

Node-2 配置:

yaml 复制代码
# elasticsearch.yml for Node-2

cluster.name: my-test-cluster
node.name: node-2
path.data: /path/to/data/node-2
path.logs: /path/to/logs/node-2
network.host: 127.0.0.1
http.port: 9201
transport.port: 9301
discovery.seed_hosts: ["127.0.0.1:9300", "127.0.0.1:9302"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

Node-3 配置:

yaml 复制代码
# elasticsearch.yml for Node-3

cluster.name: my-test-cluster
node.name: node-3
path.data: /path/to/data/node-3
path.logs: /path/to/logs/node-3
network.host: 127.0.0.1
http.port: 9202
transport.port: 9302
discovery.seed_hosts: ["127.0.0.1:9300", "127.0.0.1:9301"]
cluster.initial_master_nodes: ["node-1","node-2","node-3"]

请注意以下几点:

  • 节点名称 (node.name): 每个节点的名称应该是唯一的。

  • 数据目录 (path.data): 每个节点的数据目录应该是独立的,以防止节点之间的数据冲突。

  • HTTP 端口 (http.port): 每个节点的 HTTP 端口应该是唯一的。

  • 传输端口 (transport.port): 每个节点的传输端口应该是唯一的。

  • 发现种子主机 (discovery.seed_hosts): 每个节点的发现种子主机应该包含其他节点的地址和端口。

  • 初始主节点 (cluster.initial_master_nodes): 所有节点的此设置应该包含集群中的一个或多个节点的名称,用于确定初始主节点。在上述配置中,node-1 是初始主节点。

以上由chat gpt生成,下面是踩的坑

实践中遇到的问题
bash 复制代码
can't add node 
{node-3}{O5Ruh7M4Q9qfab0KqZYQ5g}{T2m2C0h1TkitZVddABjv3A}{node-3}{127.0.0.1}{127.0.0.1:9302}{cdfhilmrstw}{ml.machine_memory=34221711360, ml.allocated_processors=12, ml.max_jvm_size=4294967296, ml.allocated_processors_double=12.0, xpack.installed=true}, 
found existing node 
{node-2}{O5Ruh7M4Q9qfab0KqZYQ5g}{vMqqqsdlS7aWl1T1jtCKTQ}{node-2}{127.0.0.1}{127.0.0.1:9301}{cdfhilmrstw}{ml.machine_memory=34221711360, ml.allocated_processors=12, ml.max_jvm_size=4294967296, ml.allocated_processors_double=12.0, xpack.installed=true} 
with the same id but is a different node instance
原因及解决办法

原因就是我在启动es两个节点启动成功之后,为了省事 ,复制 node-2的目录。

然后只修改了配置文件elasticsearch.yml,而没有删除node-2 启动时生成的数据。

导致集群中唯一标识节点node.id 重复了

node.id 是在es第一次启动时自动生成的uuid .

解决办法:删除es目录下的data目录,重新生成它的 node.id

相关推荐
老陈头聊SEO7 小时前
有效利用长尾关键词提升SEO表现及搜索引擎流量的策略
其他·搜索引擎·seo优化
星辰_mya9 小时前
Elasticsearch线上问题之OOM
大数据·elasticsearch·搜索引擎
Elastic 中国社区官方博客9 小时前
使用 Groq 与 Elasticsearch 进行智能查询
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
张彦峰ZYF9 小时前
一套「策略化 Elasticsearch 召回平台」架构设计思路
大数据·elasticsearch·搜索引擎
TOPGUS20 小时前
谷歌SEO第三季度点击率趋势:榜首统治力的衰退与流量的去中心化趋势
大数据·人工智能·搜索引擎·去中心化·区块链·seo·数字营销
Dxy12393102161 天前
Elasticsearch 索引与映射:为你的数据打造一个“智能仓库”
大数据·elasticsearch·搜索引擎
chian-ocean1 天前
百万级图文检索实战:`ops-transformer` + 向量数据库构建语义搜索引擎
数据库·搜索引擎·transformer
倒流时光三十年1 天前
SpringBoot 数据库同步 Elasticsearch 性能优化
数据库·spring boot·elasticsearch
星辰_mya1 天前
Elasticsearch更新了分词器之后
大数据·elasticsearch·搜索引擎
Elastic 中国社区官方博客1 天前
Elasticsearch:Workflows 介绍 - 9.3
大数据·数据库·人工智能·elasticsearch·ai·全文检索