kibana7.17.7 将数据导出csv文件

配置kibana文件

首先先配置kibana.yaml内容如下,这里假设我的服务器ip地址为192.168.130.128,elasticsearch的ip地址为:192.168.130.129:9200192.168.130.130:9200

复制代码
server.host: "192.168.130.128"
server.publicBaseUrl: "http://192.168.130.128:5601"
elasticsearch.hosts: ["http://192.168.130.129:9200", "http://192.168.130.130:9200"]

# 设置导出csv大小限制
xpack.reporting.queue.timeout: 3600000
xpack.reporting.csv.maxSizeBytes: 1024000000
xpack.reporting.csv.scroll.size: 10000
server.maxPayloadBytes: 1073741824

导出csv

打开kibana页面:点击Discover,如下图:

选择需要导出的index,依次点击Share->CSV Reports

然后点击Management->Stack Management

点击左侧Reporting

这里就可以看到要导出的index了,然后点击下载就可以了。

相关推荐
阿里云大数据AI技术25 分钟前
阿里云 Elasticsearch 的 AI 革新:高性能、低成本、智能化的搜索新纪元
人工智能·elasticsearch·阿里云
w***4241 小时前
Springboot中使用Elasticsearch(部署+使用+讲解 最完整)
spring boot·elasticsearch·jenkins
利刃大大2 小时前
【c++中间件】Elasticsearch介绍与安装 && 核心概念 && Kibana && 二次封装
c++·elasticsearch·中间件
q***54752 小时前
springboot之集成Elasticsearch
spring boot·后端·elasticsearch
2501_9411467017 小时前
5G与物联网:智能城市的未来
elasticsearch
万山y18 小时前
git remote add做了什么
大数据·git·elasticsearch
Hello.Reader20 小时前
Flink CDC 用 OceanBase CDC 实时同步数据到 Elasticsearch
elasticsearch·flink·oceanbase
小高学习java1 天前
Canal、Elasticsearch、RabbitMq构建高可用、高性能的异构数据同步方案(亲测可用!!!!)
大数据·elasticsearch·rabbitmq·java-rabbitmq
2501_941144031 天前
边缘计算重塑数字世界:智能化时代的新型技术架构
elasticsearch
Hello.Reader1 天前
Flink CDC 用 Db2 CDC 实时同步数据到 Elasticsearch
大数据·elasticsearch·flink