elasticsearch 索引write.lock报错解决 —— 筑梦之路

ES报错:

Caused by: org.apache.lucene.store.LockObtainFailedException: Lock held by another xxx write.lock

这是ES异常关闭导致索引的写锁未释放,索引一直处于red状态

解决方法:

  1. 停掉ES服务

  2. 找到相应的数据目录,找到对应的索引写锁文件write.lock所在位置,删除该文件

  3. 启动ES服务

如果有很多个索引都是该报错,可以使用批量处理的方法

批量处理方法:

  1. 停掉ES服务

  2. 进入数据目录:cd nodes/0/

  3. 查看写锁:find . -name write.lock > lock_list.txt

  4. 批量删除写锁

bash 复制代码
#!/bin/bash
# delete write.lock

for i in `cat lock_list.txt`
do
    rm -f $i
done
相关推荐
Apache Flink8 分钟前
Flink在B站的大规模云原生实践
大数据·云原生·flink
itachi-uchiha1 小时前
Docker部署Hive大数据组件
大数据·hive·docker
viperrrrrrrrrr72 小时前
大数据学习(131)-Hive数据分析函数总结
大数据·hive·学习
張萠飛2 小时前
Linux下如何使用shell脚本导出elasticsearch中某一个index的数据为本地csv文件
linux·运维·elasticsearch
lifallen3 小时前
Flink checkpoint
java·大数据·算法·flink
LanLance4 小时前
ES101系列09 | 运维、监控与性能优化
java·运维·后端·elasticsearch·云原生·性能优化·golang
Leo.yuan5 小时前
API是什么意思?如何实现开放API?
大数据·运维·数据仓库·人工智能·信息可视化
禺垣5 小时前
知识图谱技术概述
大数据·人工智能·深度学习·知识图谱
后端码匠5 小时前
Spark 单机模式部署与启动
大数据·分布式·spark
疯狂的沙粒7 小时前
如何通过git命令查看项目连接的仓库地址?
大数据·git·elasticsearch