Logstash同步MySQL数据到ElasticSearch

当MySQL数据到一定的数量级,而且索引不能实现时,查询就会变得非常缓慢,所以使用ElasticSearch来查询数据。本篇博客介绍使用Logstash同步MySQL数据到ElasticSearch,再进行查询。

测试环境

  • Windows系统
  • MySQL 5.7
  • Logstash 7.0.1
  • ElasticSearch 7.0.1
  • Kibana 7.0.1

ELK工具下载可访问:https://www.elastic.co/cn/downloads/

ELK同步环境搭建

ElasticSearch、Kibana启动

将下载的ElasticSearch、Kibana解压,并依次启动,Windows目录下,ElasticSearch启动可点击bin/elasticsearch.bat,Kibana启动可点击kibana.bat

Logstash配置启动

核心是Logstash的配置。

1、解压Logstash

2、将MySQL的JDBC的连接包放入lib包下

3、在bin目录下新建配置文件-logstash_sync_mysql.conf,需要注意该配置文件需要UTF-8 无BOM格式,不然会报错。

4、编写配置文件

复制代码
input {
 jdbc {
	# 索引类型
    type => "product"
	
	# 驱动包位置
    jdbc_driver_library => "D:\ELk_SYNC_MYSQL\logstash-7.0.1\lib\mysql\mysql-connector-java-5.1.43.jar"
	
	# 驱动
    jdbc_driver_class => "com.mysql.jdbc.Driver"
	
    # 数据库名称
    jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/clothingsale?useUnicode=true&characterEncoding=UTF-8&useSSL=true"
	
    # 用户名
    jdbc_user => "root"
	
    # 密码
    jdbc_password => "root"
	
    # SQL文件
    # statement_filepath => "filename.sql"
	# SQL语言 SELECT * FROM product WHERE update_time > :last_sql_value
    statement => "SELECT * from product"
	
	# 设置时区
    jdbc_default_timezone => "Asia/Shanghai"
   
    # 是否分页
    jdbc_paging_enabled => "true"
	
    # 分页数量
    jdbc_page_size => "500"
	
	# 追踪字段
    tracking_column => "update_time"
	
	# 这里如果是用时间追踪比如:数据的更新时间或创建时间等和时间有关的这里一定不能是true
    use_column_value => false
	
    # 设置监听间隔 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
    schedule => "* * * * *"
  }
  jdbc {
	# 索引类型
    type => "message"
  
	# 驱动包位置
    jdbc_driver_library => "D:\ELk_SYNC_MYSQL\logstash-7.0.1\lib\mysql\mysql-connector-java-5.1.43.jar"
	
	# 驱动
    jdbc_driver_class => "com.mysql.jdbc.Driver"
	
    # 数据库名称
    jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/clothingsale?useUnicode=true&characterEncoding=UTF-8&useSSL=true"
	
    # 用户名
    jdbc_user => "root"
	
    # 密码
    jdbc_password => "root"
	
    # SQL文件
    # statement_filepath => "filename.sql"
	# SQL语言 SELECT * FROM product WHERE update_time > :last_sql_value
    statement => "SELECT * from message"
	
	# 设置时区
    jdbc_default_timezone => "Asia/Shanghai"
   
    # 是否分页
    jdbc_paging_enabled => "true"
	
    # 分页数量
    jdbc_page_size => "500"
	
	# 追踪字段
    tracking_column => "update_time"
	
	# 这里如果是用时间追踪比如:数据的更新时间或创建时间等和时间有关的这里一定不能是true
    use_column_value => false
	
    # 设置监听间隔 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
    schedule => "* * * * *"
  }
}

# 修改@timestamp默认时间
filter {
    ruby { 
		code => "event.set('timestamp', event.get('@timestamp').time.localtime + 8*60*60)" 
	}
	ruby {
		code => "event.set('@timestamp',event.get('timestamp'))"
	}
	mutate {
		remove_field => ["timestamp"]
	}
}

output {

	# 目前使用的elasticsearch7.x,所以一个index只能存储一种type,所以以下的index需要不一样
	if [type]=="product" {
		elasticsearch {
			hosts => "127.0.0.1:9200"
			# 索引名称 相当于数据库名称
			index => "cloproduct"
			# 类型名称 相当于数据库中的数据表
			document_type => "product"
	   
			document_id => "%{id}"
		}
	}
	
	if [type]=="message" {
		elasticsearch {
			hosts => "127.0.0.1:9200"
			# 索引名称 相当于数据库名称
			index => "clomessage"
			# 类型名称 相当于数据库中的数据表
			document_type => "message"
	   
			document_id => "%{id}"
		}
	}
}

上述是多表同步,每行都有注释,意思比较明了,就是input中多表使用jdbc隔开,然后output中用type区分。

5、启动

复制代码
logstash -f logstash_sync_mysql.conf >> C:\Users\Panlf\Desktop\log.txt

这样还能看到实时日志产生,方便查看错误和进程。

注意

上述即可实现MySQL的数据同步,但是存在问题 - 时区问题,MySQL是时间比ElasticSearch晚8个小时,我试了各种方式还是不能解决把时间调整过来。目前可以在取数据的时候,进行时间调整,应该问题不是很大。

相关推荐
春日见2 小时前
vscode代码无法跳转
大数据·人工智能·深度学习·elasticsearch·搜索引擎
·云扬·4 小时前
MySQL Binlog落盘机制深度解析:性能与安全性的平衡艺术
android·mysql·adb
霖霖总总5 小时前
[小技巧64]深入解析 MySQL InnoDB 的 Checkpoint 机制:原理、类型与调优
数据库·mysql
それども6 小时前
分库分表的事务问题 - 怎么实现事务
java·数据库·mysql
·云扬·6 小时前
MySQL Binlog 配置指南与核心作用解析
数据库·mysql·adb
天空属于哈夫克36 小时前
Java 版:利用外部群 API 实现自动“技术开课”倒计时提醒
数据库·python·mysql
luoluoal7 小时前
基于深度学习的web端多格式纠错系统(源码+文档)
python·mysql·django·毕业设计·源码
那起舞的日子8 小时前
ElasticSearch系列-3-java端整合CURD
elasticsearch
crossaspeed8 小时前
MySQL-索引
mysql
这周也會开心9 小时前
Redis与MySQL回写中的数据类型存储设计
数据库·redis·mysql