使用elasticsearch 8.4.3 的管道解析日志(kibana操作)

使用elasticsearch的管道解析日志(kibana操作)

    • [一. 什么是 pipeline](#一. 什么是 pipeline)
    • [二. 案例](#二. 案例)

前言

这是我在这个网站整理的笔记,有错误的地方请指出,关注我,接下来还会持续更新。

作者:神的孩子都在歌唱

以下是一个简单的文档解析案例,更多的操作解析可以看 : 官方文档

一. 什么是 pipeline

管道可让您在插入数据之前 对数据执行常见转换。例如,您可以使用管道删除字段、从文本中提取值以及丰富数据。

管道由一系列称为 处理器 的可配置任务组成。每个处理器按顺序运行,对传入文档进行特定更改。处理器运行后,Elasticsearch 将转换后的文档添加到您的索引中。

二. 案例

比如我的文档数据如下,是一个json字符串,我想在它插入的时候转成json插入,这时候就可以用到管道

css 复制代码
"{\"status\":true,\"log_type\":[\"system\",\"access_log\",\"security_log\"]}"

首先我们创建一个 test_pipline 管道

json 复制代码
PUT _ingest/pipeline/test_pipline
{
  "description": "提取消息",
  "processors": [
    {
      "json": {
        "field": "message",
        "target_field": "data"
      }
    }
  ]
}

也可以通过kibana的页面操作,首先进入到Stack Management > Ingest Pipelines 页面,点击 Create pipeline -> Add a processor -> Save pipeline 就可以了

我们的管道创建好了,接下来插入文档数据测试

首先我们插入一条没经过管道的数据

json 复制代码
POST /customer/_doc
{
  "message":"{\"status\":true,\"log_type\":[\"system\",\"access_log\",\"security_log\"]}"
}

GET /customer/_search
{
 "query": {
 "match_all": {}
 } 
}

然后在插入一条经过管道的

json 复制代码
POST /customer/_doc?pipeline=test_pipline
{
  "message":"{\"status\":true,\"log_type\":[\"system\",\"access_log\",\"security_log\"]}"
}

再次查询发现输出的第二条日志有一个data字段,里面就是我们通过message转成json后的值

作者:神的孩子都在歌唱

本人博客:https://blog.csdn.net/weixin_46654114

转载说明:务必注明来源,附带本人博客连接。

相关推荐
芝士爱知识a1 小时前
2026高含金量写作类国际竞赛汇总与测评
大数据·人工智能·国际竞赛·写作类国际竞赛·写作类比赛推荐·cwa·国际写作比赛推荐
鹧鸪云光伏6 小时前
基于支架参数一键生成光伏全套CAD图纸
大数据·信息可视化·cad·光伏·储能设计方案
黎阳之光8 小时前
黎阳之光:以视频孪生领跑全球,赋能数字孪生水利智能监测新征程
大数据·人工智能·算法·安全·数字孪生
有想法的py工程师8 小时前
PostgreSQL 分区表排序优化:Append Sort 优化为 Merge Append
大数据·数据库·postgresql
safestar20129 小时前
ES批量写入性能调优:BulkProcessor 参数详解与实战案例
java·大数据·运维·jenkins
weixin_156241575769 小时前
基于YOLOv8深度学习花卉识别系统摄像头实时图片文件夹多图片等另有其他的识别系统可二开
大数据·人工智能·python·深度学习·yolo
科技与数码10 小时前
互联网保险迎来新篇章,元保方锐分享行业发展前沿洞察
大数据·人工智能
汽车仪器仪表相关领域10 小时前
NHFID-1000型非甲烷总烃分析仪:技术破局,重构固定污染源监测新体验
java·大数据·网络·人工智能·单元测试·可用性测试·安全性测试
武子康10 小时前
大数据-264 实时数仓-MySQL Binlog配置详解:从原理到实践|数据恢复与主从复制实战
大数据·hadoop·后端