elasticsearch 索引write.lock报错解决 —— 筑梦之路

ES报错:

Caused by: org.apache.lucene.store.LockObtainFailedException: Lock held by another xxx write.lock

这是ES异常关闭导致索引的写锁未释放,索引一直处于red状态

解决方法:

  1. 停掉ES服务

  2. 找到相应的数据目录,找到对应的索引写锁文件write.lock所在位置,删除该文件

  3. 启动ES服务

如果有很多个索引都是该报错,可以使用批量处理的方法

批量处理方法:

  1. 停掉ES服务

  2. 进入数据目录:cd nodes/0/

  3. 查看写锁:find . -name write.lock > lock_list.txt

  4. 批量删除写锁

bash 复制代码
#!/bin/bash
# delete write.lock

for i in `cat lock_list.txt`
do
    rm -f $i
done
相关推荐
源码之家2 小时前
基于Python房价预测系统 数据分析 Flask框架 爬虫 随机森林回归预测模型、链家二手房 可视化大屏 大数据毕业设计(附源码)✅
大数据·爬虫·python·随机森林·数据分析·spark·flask
TDengine (老段)3 小时前
什么是 TDengine IDMP?
大数据·数据库·物联网·时序数据库·tdengine·涛思数据
Apache Flink4 小时前
Flink Forward Asia 2025 城市巡回 · 深圳站
大数据·flink
Hello.Reader4 小时前
Flink DataStream API 打包使用 MySQL CDC 连接器
大数据·mysql·flink
2021_fc4 小时前
Flink入门指南:使用Java构建第一个Flink应用
java·大数据·flink
Hello.Reader4 小时前
Streaming ELT with Flink CDC · Iceberg Sink
大数据·flink
RPA机器人就选八爪鱼4 小时前
RPA财务机器人:驱动财务数字化转型的核心引擎
大数据·运维·人工智能·机器人·rpa
2021_fc4 小时前
Flink快速入门--安装与示例运行
大数据·flink
J***Q2924 小时前
大数据存储优化策略
大数据
二进制_博客5 小时前
flume抽取kafka数据到kafka,数据无法从topicA抽取到topicB
大数据·kafka·flume