ES(elasticsearch) - kibana导出csv

前言

主要记录使用Kibana导出查询结果的csv文件,以及相关的导出配置

1.条件过滤

Discover -> 选择索引模式 -> 选择要显示字段 -> 输入你的查询条件 -> 选择时间范围 -> 点击保存

2.下载

management> Kibana > Reporting 中下载

3.常见问题

1.进行条件过滤后,没有对应的数据进行展示:

原因:页面右上角可能没有选中相应的【时间区间】

2.kibana 导出失败,completed max size reached

因为导出的csv有文件大小限制,默认是10M,如果你的数据量大于10M,那么csv只会下载10M大小的数据;

导出CSV报告Kibana是放入队列中执行的,有一个处理超时时间,默认是12000毫秒,也就是2分钟;所以假如你的机器性能不好,处理时间长,或者数据量大于10M.

设置一下kibana关于CSV报告的参数: 修改后,重启Kibana生效!!!

csv文件大小200MB,默认为10485760(10MB)

xpack.reporting.csv.maxSizeBytes: 209715200

超时时间-30分钟,默认是120000(2分钟)

xpack.reporting.queue.timeout: 1800000

3.过滤后的时间异常,时区与查询结果不符

Kibana默认是brower,判断是时区与es的时区不一致导致了问题,经查找 es 的默认时区,默认是UTC

五、参考资料

1、kibana 设置导出的csv文件大小

2、Kibana显示时间与日志时间不一致问题


版权声明:本文为CSDN博主「AugustShuai」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/ChengHuanHuaning/article/details/123324081

相关推荐
Elasticsearch2 小时前
使用 AutoGen 与 Elasticsearch
elasticsearch
xmyLydia3 小时前
Kafka + Elasticsearch 构建搜索型审计日志系统实战(含 Kibana 可视化)
elasticsearch·kafka
怒放吧德德13 小时前
MySQL篇:MySQL如何实时同步到ES
mysql·elasticsearch·面试
细心的莽夫14 小时前
Elasticsearch复习笔记
java·大数据·spring boot·笔记·后端·elasticsearch·docker
码农周16 小时前
Elasticsearch 报错 Limit of total fields [1000] has been exceeded
大数据·elasticsearch
Elastic 中国社区官方博客17 小时前
Elasticsearch 堆内存使用情况和 JVM 垃圾回收
大数据·jvm·数据库·elasticsearch·搜索引擎·全文检索
道长没有道观18 小时前
ubuntu系统下部署使用git教程
git·ubuntu·elasticsearch
菜鸟、上路18 小时前
Elasticsearch 集群节点下线方案
大数据·elasticsearch
TracyCoder12321 小时前
ElasticSearch深入解析(二):核心概念
大数据·elasticsearch·搜索引擎
小橘快跑1 天前
elasticsearch 查询检索
大数据·elasticsearch