elasticsearch 索引write.lock报错解决 —— 筑梦之路

ES报错:

Caused by: org.apache.lucene.store.LockObtainFailedException: Lock held by another xxx write.lock

这是ES异常关闭导致索引的写锁未释放,索引一直处于red状态

解决方法:

  1. 停掉ES服务

  2. 找到相应的数据目录,找到对应的索引写锁文件write.lock所在位置,删除该文件

  3. 启动ES服务

如果有很多个索引都是该报错,可以使用批量处理的方法

批量处理方法:

  1. 停掉ES服务

  2. 进入数据目录:cd nodes/0/

  3. 查看写锁:find . -name write.lock > lock_list.txt

  4. 批量删除写锁

bash 复制代码
#!/bin/bash
# delete write.lock

for i in `cat lock_list.txt`
do
    rm -f $i
done
相关推荐
Blockchain Learning4 分钟前
去中心化身份(DID)模型解析:区块链如何重塑身份管理?
大数据·去中心化·区块链
xcbrand35 分钟前
政府事业机构品牌策划公司哪家可靠
大数据·人工智能·python
程序鉴定师38 分钟前
如何选择合适的深圳小程序开发公司?
大数据·小程序
晨启AI2 小时前
GPT-5.5 来了!OpenAI 最新提示词指南深度解读
大数据·人工智能·ai·提示词
地球资源数据云2 小时前
中国陆地生态系统主要植物功能特征空间分布数据
大数据·数据库·人工智能·机器学习
金智维科技官方2 小时前
AI智能体在7×24客服场景中的真实表现评估
大数据·人工智能·ai·rpa·智能体
WL_Aurora2 小时前
MapReduce经典例题【第二期】
大数据·mapreduce
二十六画生的博客2 小时前
每个subtask都提交一份快照到hdfs,会把10个小的快照合并成一个大的吗?谁来合并?
大数据·hadoop·hdfs·flink
摇滚侠2 小时前
数据同步 黑马 Elasticsearch 全套教程,黑马旅游网案例
大数据·elasticsearch·搜索引擎
juniperhan2 小时前
Flink 系列第24篇:Flink SQL 集成维度表指南:存储选型、参数调优与实战避坑
大数据·数据仓库·sql·flink