elasticsearch中设置查询的请求超时时间

参考:https://www.phpmianshi.com/?id=251

背景

因为我们的项目是用的php,为了防止调用搜索时,请求处理时间太长,导致php-fpm占满,所以需要对外部接口设置请求的超时时间,避免过多的超时请求,我们可以用过对es的参数限制,设置超时时间

search 请求参数

from

从索引的第几条数据开始返回,默认是 0;

size

返回多少条数据,默认是 10。

注意:Elasticsearch 集群实际是需要给 coordinate node 返回 shards number * (from + size) 条数据,然后在单机上进行排序,最后给客户端返回这个 size 大小的数据的。所以请谨慎使用 from 和 size 参数。

此外,Elasticsearch 2.x 还新增了一个索引级别的动态控制配置项:index.max_result_window,默认为 10000。即 from + size 大于 10000 的话,Elasticsearch 直接拒绝掉这次请求不进行具体搜索,以保护节点。

另外,Elasticsearch 2.x 还提供了一个小优化:当设置 "size":0 时,自动改变 search_type 为 count。跳过搜索过程的 fetch 阶段。

timeout

coordinate node 等待超时时间。到达该阈值后,coordinate node 直接把当前收到的数据返回给客户端,不再继续等待 data node 后续的返回了。

注意:这个参数只是为了配合客户端程序,并不能取消掉 data node 上搜索任务还在继续运行和占用资源。

terminate_after

各 data node 上,扫描单个分片时,找到多少条记录后,就认为足够了。这个参数可以切实保护 data node 上搜索任务不会长期运行和占用资源。但是也就意味着搜索范围没有覆盖全部索引,是一个抽样数据。准确率是不好判断的。

request_cache

各 data node 上,在分片级别,对请求的响应(仅限于 hits.total 数值、aggregation 和 suggestion 的结果集)做的缓存。注意:这个缓存的键值要求很严格,请求的 JSON 必须一字不易,缓存才能命中。

另外,request_cache 参数不能写在请求 JSON 里,只能以 URL 参数的形式存在。示例如下:

curl -XPOST http://localhost:9200/_search?request_cache=true -d '

{

"size" : 0,

"timeout" : "120s",

"terminate_after" : 1000000,

"query" : { "match_all" : {} },

"aggs" : { "terms" : { "terms" : { "field" : "keyname" } } }

}

'


版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

原文链接:https://blog.csdn.net/tiancityycf/article/details/116722533

相关推荐
Connie145125 分钟前
filebeat采集挂载出来的/home/Logs下的日志过程
elasticsearch
周全全2 小时前
Elasticsearch 检索优化:停用词的应用
大数据·elasticsearch·jenkins
码爸3 小时前
flink自定义process,使用状态求历史总和(scala)
大数据·elasticsearch·flink·kafka·scala
小宋10214 小时前
高性能分布式搜索引擎Elasticsearch详解
大数据·elasticsearch·搜索引擎
不是笨小孩i13 小时前
Git常用指令
大数据·git·elasticsearch
+码农快讯+16 小时前
Git入门学习(1)
git·学习·elasticsearch
码爸20 小时前
java 执行es中的sql
java·sql·elasticsearch
学习使我快乐——玉祥1 天前
es查询语法
大数据·elasticsearch·搜索引擎
徐*红1 天前
Elasticsearch 8.+ 版本查询方式
大数据·elasticsearch
码爸1 天前
flink 例子(scala)
大数据·elasticsearch·flink·scala