解决 Elasticsearch 分页查询记录超过10000时异常

查询结果中 hits.total.value 值最大为10000的限制

解决方法:

**1、**请求设置rest_total_hits_as_int=true

注意参数需要放在请求头上

复制代码
 builder.addHeader("rest_total_hits_as_int","true");

2、修改setting的值

复制代码
#设置返回最大记录条数为1000000
PUT /index/_settings
{
    "index": {
        "max_result_window": 1000000
    }
}
#适用于所有索引
put _all/_settings
{
  "index.max_result_window":200000
}
相关推荐
IT学长编程14 小时前
计算机毕业设计 基于Hadoop豆瓣电影数据可视化分析设计与实现 Python 大数据毕业设计 Hadoop毕业设计选题【附源码+文档报告+安装调试
大数据·hadoop·python·django·毕业设计·毕业论文·豆瓣电影数据可视化分析
semantist@语校14 小时前
第二十篇|SAMU教育学院的教育数据剖析:制度阈值、能力矩阵与升学网络
大数据·数据库·人工智能·百度·语言模型·矩阵·prompt
Dobby_0515 小时前
【Hadoop】Yarn:Hadoop 生态的资源操作系统
大数据·hadoop·分布式·yarn
数智顾问15 小时前
基于Hadoop进程的分布式计算任务调度与优化实践——深入理解分布式计算引擎的核心机制
大数据
笨蛋少年派15 小时前
安装Hadoop中遇到的一些问题和解决
大数据·hadoop·分布式
在未来等你15 小时前
Kafka面试精讲 Day 18:磁盘IO与网络优化
大数据·分布式·面试·kafka·消息队列
大视码垛机15 小时前
速度与安全双突破:大视码垛机重构工业自动化新范式
大数据·数据库·人工智能·机器人·自动化·制造
梓仁沐白15 小时前
hadoop单机伪分布环境配置
大数据·hadoop·分布式
欧阳方超16 小时前
Spark(1):不依赖Hadoop搭建Spark环境
大数据·hadoop·spark