Elasticsearch集群因索引关闭重开导致飘红问题排查

背景

某组件向 ElasticSearch 写入数据,从最近某一天开始写入速度变慢,数据一直有积压。推测是 ElasticSearch 集群压力导致的,查看 ElasticSearch 集群状态,发现集群确实处于 red 状态。

本文记录 ElasticSearch 集群因索引关闭重新打开导致飘红问题排查过程,虽然面向百度开发,蒙着把问题解决了,照例还是要整理一下加深印象的。

具体步骤:

  1. 查看集群健康值
  2. 查看索引健康值
  3. 查看分配解释
  4. 重新分配

检查集群状态

查看集群状态,集群健康值 red,有 6个未分配的分片:

查询索引健康值

在 Elastic Header 中,使用 _cluster/health?pretty&level=indices GET 命令查看集群中索引状态。在响应结果中找到了 red 状态的索引,它的 unassigned_shards 属性刚好是 6 。

bash 复制代码
{
    "xxx_data_202502": {
        "status": "red",
        "number_of_shards": 24,
        "number_of_replicas": 1,
        "active_primary_shards": 21,
        "active_shards": 42,
        "relocating_shards": 0,
        "initializing_shards": 0,
        "unassigned_shards": 6
    }
}

查找异常原因

再使用 _cluster/allocation/explain 命令 、GET 方法,请求体设置该索引,分片数用第一步集群显示的未分片编号 4:

bash 复制代码
{
  "index": "xxx_data_202502",
  "shard": 4,
  "primary": true
}

响应结果:

bash 复制代码
{
    "index": "xxx_data_202502",
    "shard": 4,
    "primary": true,
    "current_state": "unassigned",
    "unassigned_info": {
        "reason": "INDEX_REOPENED",
        "at": "2025-02-05T05:14:38.153Z",
        "last_allocation_status": "no_valid_shard_copy"
    },
    "can_allocate": "no_valid_shard_copy",
    "allocate_explanation": "cannot allocate because a previous copy of the primary shard existed but can no longer be found on the nodes in the cluster",
    "node_allocation_decisions": [.....// 省略具体节点信息]
}

shard 属性换成其他两个未分配分片,结果都一样。

未分配分片的原因是索引重新打开,想起该索引之前确实是关闭状态,最近才打开的。

重分配主分片

使用 reroute 命对这三个未分配分片重新使用 allocate_empty_primary 进行分配。

ElasticSearch Header 里面输入命令 /_cluster/reroute ,方法 POST,请求体为:

bash 复制代码
{
    "commands": [
        {
            "allocate_empty_primary": {
                "index": "xxx_data_202502",
                "shard": 4,
                "node": "node-1",
                "accept_data_loss": true
            }
        },
        {
            "allocate_empty_primary": {
                "index": "xxx_data_202502",
                "shard": 4,
                "node": "node-2",
                "accept_data_loss": true
            }
        }, ....// TODO 省略其他节点
    ]
}

此处先对 shard 编号为 4,所有集群节点都拼一遍,执行完成后,再对其他 5 和 16编号的分片执行上述操作后,集群健康值竟然变成 green 了,如此顺利,不可思议!ElasticSearch 写入组件的写入速率立即上来了,后台再没有打印积压日志了。

启示录

对于 reroute 命令,不敢贸然执行,想着把 accept_data_loss 属性设置为 false 来执行的,结果响应提示 allocate an empty primary for [xxx][4] can result in data loss, Please confirm by setting the accept_data_loss true ,就是说这个属性是个霸王条款了,只有为 true 才能执行了。

参考:

  1. 《es: unassigned no_valid_shard_copy》
  2. 《Elasticsearch 集群健康值 red 分片未分配问题排查方法》
相关推荐
刘洋浪子1 分钟前
Git命令学习
git·学习·elasticsearch
Elasticsearch2 小时前
在 Google MCP Toolbox for Databases 中引入 Elasticsearch 支持
elasticsearch
Chasing Aurora3 小时前
Git 工程指引(命令+问题)
大数据·git·elasticsearch·团队开发·互联网大厂
帅得不敢出门3 小时前
精简Android SDK(AOSP)的git项目提高git指令速度
android·java·开发语言·git·elasticsearch
小王不爱笑1326 小时前
Git 从初始化到远程推送完整实操笔记
大数据·elasticsearch·搜索引擎
管理大亨7 小时前
Elasticsearch + Logstash + Filebeat + Kibana + Redis架构
redis·elasticsearch·架构
武子康7 小时前
大数据-182 Elasticsearch 倒排索引底层拆解:Terms 字典、FST、SkipList 与 Lucene 索引文件
大数据·后端·elasticsearch
管理大亨8 小时前
安装部署Elasticsearch + Logstash + Filebeat + Kibana + Redis?
大数据·redis·elasticsearch
炸裂狸花猫8 小时前
开源日志收集体系ELK
elk·elasticsearch·云原生·kubernetes·metricbeat