7.elasticsearch同步工具-logstah

1.logstah

Logstash 是一个用于数据处理和转换的开源工具,它可以将来自不同源头的数据收集、转换、过滤,并将其发送到不同的目标。Logstash 是 ELK(Elasticsearch、Logstash 和 Kibana)技术栈的一部分,通常与 Elasticsearch 和 Kibana 一起使用,用于实现实时数据分析和可视化。

1.1 下载

Past Releases of Elastic Stack Software | ElasticLooking for a past release of Elasticsearch, Logstash, Kibana, es-hadoop, Shield, Marvel, or our language clients? You're in the right place.https://www.elastic.co/cn/downloads/past-releases#logstash

1.2 使用

在解压出来的文件夹中创建logstash.conf文件

其中配置

java 复制代码
input{
        stdin {
        }

        jdbc {
                jdbc_connection_string => "jdbc:mysql://localhost:3306/mall100?useUnicode=true&characterEncoding=utf8&serverTimezone=UTC"
                jdbc_user => "root"
                jdbc_password => "admin"
                #驱动类
                jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
                codec => plain { charset => "UTF-8"}

                #主键
                tracking_column => "id"
                #是否记录上次执行结果
                record_last_run => "true"
                #是否需要记录某个column 的值
                use_column_value => "true"
                #代表最后一次数据记录id的值存放的位置,必填不然启动报错
                last_run_metadata_path => "D:\install\WONIU-J-Install\logstash-7.6.2\last_id.txt"
                #是否清除 last_run_metadata_path 的记录
				#如果为真那么每次都相当于从头开始查询所有的数据库记录
                clean_run => "false"
                #是否分页
                jdbc_paging_enabled => "true"
                jdbc_page_size => "100000"
                #进行同步数据时,执行的SQL
                statement => "select * from goods"
				#定时字段 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
                #"*/2 * * * * *"        表示每两秒同步一次
                schedule => "*/50 * * * * *"
         		#当前jdbc的类型,自定义,可以看做是当前jdbc的名字
         		type => "goods"
        }
}
filter{
}
output{
        elasticsearch {
                hosts => "192.168.5.224:9200"
                #索引名字
                index => "goods"
                #文档类型
                document_type => "goods"
                #文档id,唯一,避免数据重复
                document_id => "%{id}"
        }
        stdout {
                #以json格式查看数据同步情况,生产环节关闭,提升效率
                #codec => json_lines
        }
}

注意其中的数据库相关配置(6)、同步执行的sql语句(28)、定时字段(31)、jdbc类型对应表名就好(33)、地址(40)、索引名和文档类型对应数据库中的数据库和表(42、44)

ElasticSearch MySQL
Index(索引) Database(数据库)
Type(类型) Table(表)
Document(文档) Row(行)
Field(属性) Column(列)
Mapping Schema
Everything is indexed Index
Query SQL

将数据库连接包 放在..\logstash-7.6.2\logstash-core\lib\jars文件夹下

进入..\logstash-7.6.2\config文件夹,修改pipelines.yml文件,将9-15的注释打开

进入..\logstash-7.6.2\bin文件夹,并通过dos打开该文件夹,在dos中通过以下指令执行数据同步

logstash.bat -f D:\install\logstash-7.6.2\logstash.conf

相关推荐
Data-Miner11 分钟前
196页满分PPT | 集团流程优化及IT规划项目案例
大数据·数据分析
徐*红14 分钟前
Elasticsearch 8.+ 版本查询方式
大数据·elasticsearch
DolphinScheduler社区27 分钟前
怎么办?用DolphinScheduler调度执行复杂的HiveSQL时无法正确识别符号
大数据
goTsHgo29 分钟前
Hive自定义函数——简单使用
大数据·hive·hadoop
码爸31 分钟前
flink 例子(scala)
大数据·elasticsearch·flink·scala
FLGB31 分钟前
Flink 与 Kubernetes (K8s)、YARN 和 Mesos集成对比
大数据·flink·kubernetes
码爸33 分钟前
flink 批量压缩redis集群 sink
大数据·redis·flink
core51233 分钟前
Flink官方文档
大数据·flink·文档·官方
周全全37 分钟前
Flink1.18.1 Standalone模式集群搭建
大数据·flink·集群·主从·standalone
Hello.Reader39 分钟前
StarRocks实时分析数据库的基础与应用
大数据·数据库