💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
- 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老
- 导航
非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨
博客目录
一.基本介绍
在 Elasticsearch (ES) 中进行分页查询主要有三种方式:from + size
、search_after
和 scroll
。每种方式都有其适用场景和优缺点。
-
from + size :这是最基本的分页方式,通过指定
from
(起始位置)和size
(每页数量)来获取数据。它简单易用,适用于数据量不大或不需要深度分页的场景。但是,当from
值很大时,性能会下降,因为需要合并和排序所有分片返回的结果。ES 默认的max_result_window
限制了最大分页数,通常为 10000,这意味着from + size
的值不能超过这个限制。如果需要处理大量数据或深度分页,这种方式可能不是最佳选择。 -
search_after:这种方式适用于需要深度分页的场景,它通过使用上一页的最后一个文档的排序值来获取下一页数据,因此可以有效地避免深度分页的性能问题。这种方式的优点是性能较好,不存在深度分页问题,能够反映数据的实时变更。但是,它需要一个全局唯一的字段来排序,且实现相对复杂,每次查询都需要上次查询的结果。
-
scroll:scroll API 允许你"游走"或"滚动"通过大量结果,而不需要使用深度分页。它通过维护一个活跃的搜索上下文来实现,这个上下文会在指定的时间内保持开启状态。scroll 适用于需要遍历大量数据的场景,但牺牲了数据的实时性,因为 scroll 查询是基于初始查询时的快照数据。这种方式的优点是查询效率高,尤其适合于数据导出或批量处理,但缺点是需要维护 scroll ID 和历史快照,对服务器资源有一定的消耗。
选择哪种分页方式取决于具体的需求和场景。对于大多数常见的分页需求,from + size
可能足够使用。但如果需要处理大量数据或进行深度分页,那么scroll
或search_after
可能是更好的选择。在实际应用中,需要根据数据量、查询频率、实时性要求等因素综合考虑。
二.代码实战
1.console 查询
apl
GET _search
{
"query": {
"match_all": {}
}
}
GET /
GET /_cluster/health
GET /_cat/health?v
GET /db01_v1_20240903-index/_search
GET /db01_v1_20240903-index/_search?from=0&size=10
POST /db01_v1_20240903-index/_search
{
"from": 0,
"size": 10,
"_source": ["_id", "id", "source", "target", "description", "weight"],
"query": {
"query_string": {
"query": "source:*應用*",
"default_field": "source",
"fuzziness": 1
}
}
}
GET /db01_v1_20240903-index/_search?from=0&size=10
POST /db01_v1_20240903-index/_search
{
"from": 0,
"size": 10,
"query": {
"query_string": {
"query": "subject_id:*我照顧的人*",
"default_field": "subject_id",
"fuzziness": 1
}
}
}
POST /db01_v1_20240903-index/_search
{
"from": 0,
"size": 10,
"query": {
"match": {
"subject_id": {
"query": "照顧",
"fuzziness": 1
}
}
}
}
2.代码查询
python
def list_label_readable(self, name, page, page_size, label):
all_docs = []
if page < 1 or page_size <= 0:
return all_docs, 0
label_dict = QueryEnum.query_info.value[label]
index_name = self.index_prefix + label_dict['index_name']
response = self._es.search(
index=index_name,
body={
"from": (page - 1) * page_size,
"size": page_size,
"_source": label_dict['_source'],
"query": {
"query_string": {
"query": f"{label_dict['query_name']}:*{name}*",
"default_field": f"{label_dict['query_name']}",
"fuzziness": label_dict['fuzziness']
}
}
if label == QueryEnum.ENTITIES.value or label == QueryEnum.RELATIONSHIPS.value else
{
"match": {
f"{label_dict['query_name']}":
{
"query": f"{name}",
"fuzziness": label_dict['fuzziness']
}
}
},
},
)
total = response['hits']['total']['value']
hits = response['hits']['hits']
for hit in hits:
_source = hit['_source']
_source['_id'] = hit['_id']
all_docs.append(_source)
return all_docs, total
觉得有用的话点个赞
👍🏻
呗。❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄
💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍
🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙