flink读kafka写mysql数据库

场景:从kafka读数据,通过jdbc写入mysql

示例:

#往kafka测试主题写入数据

kafka-console-producer.sh --broker-list wh01t:21007 --topic ypg_test --producer.config /client/Kafka/kafka/config/producer.properties

--创建mysql测试表

-- dsg.test definition

CREATE TABLE test (
id varchar(50) NOT NULL,
c_date date DEFAULT NULL,

PRIMARY KEY (id)

) ;

flink主类:

scala 复制代码
package com.pinko.testcase

import com.security.InitKafkaUtil
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.api.scala._
import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer011

import scala.collection.JavaConverters.seqAsJavaListConverter

/* 测试 */
object Test05FromKafkaToMysql {
  def main(args: Array[String]): Unit = {
    val prop = InitKafkaUtil.initPros()
    InitKafkaUtil.securityPrepare
    // 加载执行环境
    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
    env.setParallelism(1)

    //参数消费多个topic
    val topics: List[String] = List("ypg_test")
    val kafkaConsumer = new FlinkKafkaConsumer011[String](topics.asJava, new SimpleStringSchema(), prop)
//    val kafka = env.fromElements("ypghello", "ypgworld")
    println("flink环境加载完成,开始处理数据...")
    /* kafka消息处理逻辑 */
    val kafka = env.addSource(kafkaConsumer)
    kafka.print()
    kafka.addSink(new MysqlSink())
    env.execute("Test05FromKafka")
  }
}
scala 复制代码
package com.pinko.testcase

import org.apache.flink.configuration.Configuration
import org.apache.flink.streaming.api.functions.sink.{RichSinkFunction, SinkFunction}

import java.sql.{Connection, DriverManager, PreparedStatement}

class MysqlSink extends RichSinkFunction[String] {
  var conn: Connection = _
  var ps: PreparedStatement = _
  override def open(parameters: Configuration): Unit = {
    val conn_str = "jdbc:mysql://10.22.33.44:2883/testdb|test|test#123";
    val conns = conn_str.split("\\|")
    val url: String = conns(0)
    val username: String = conns(1)
    val password: String = conns(2)
    conn = DriverManager.getConnection(url, username, password)
    println(conn)

  }
  override def invoke(value: String, context: SinkFunction.Context[_]): Unit = {
    val sql = s"insert into test values ('$value', now()) on duplicate key update id = values(id),c_date = values(c_date)"
    println(sql)
    ps = conn.prepareStatement(sql)
    val rowsAffected = ps.executeUpdate()
    if (rowsAffected > 0) {
      println("更新成功")
    } else {
      println("没有进行更新操作")
    }
  }

  override def close(): Unit = {
    ps.close()
    conn.close()
  }
}
相关推荐
fengxin_rou2 分钟前
[Redis从零到精通|第四篇]:缓存穿透、雪崩、击穿
java·redis·缓存·mybatis·idea·多线程
全栈前端老曹23 分钟前
【MongoDB】深入研究副本集与高可用性——Replica Set 架构、故障转移、读写分离
前端·javascript·数据库·mongodb·架构·nosql·副本集
R1nG86326 分钟前
CANN资源泄漏检测工具源码深度解读 实战设备内存泄漏排查
数据库·算法·cann
fengxin_rou31 分钟前
黑马点评实战篇|第二篇:商户查询缓存
缓存
阿钱真强道42 分钟前
12 JetLinks MQTT直连设备事件上报实战(继电器场景)
linux·服务器·网络·数据库·网络协议
是阿楷啊1 小时前
Java大厂面试场景:音视频场景中的Spring Boot与微服务实战
spring boot·redis·spring cloud·微服务·grafana·prometheus·java面试
逍遥德1 小时前
Sring事务详解之02.如何使用编程式事务?
java·服务器·数据库·后端·sql·spring
笨蛋不要掉眼泪1 小时前
Redis哨兵机制全解析:原理、配置与实战故障转移演示
java·数据库·redis·缓存·bootstrap
Coder_Boy_1 小时前
基于SpringAI的在线考试系统-整体架构优化设计方案
java·数据库·人工智能·spring boot·架构·ddd
fen_fen10 小时前
Oracle建表语句示例
数据库·oracle