2.阿里云flink&selectdb-jar作业

1.概述

本文继续介绍使用阿里云实时计算flink把数据从自建mysql同步到阿里云selectdb的过程。上一节使用sql作业,不够强大,有如下问题:

  • 不支持自动创建结果表(selectdb表)。同步前需要手动在selectdb创建结果表;
  • 不支持源表(mysql表)的ddl语句。源表增加/修改字段,需要先手动在结果表(selectdb表)执行,然后重启sql作业;
  • 不支持添加新的源表。添加新表源表需要重新从全量同步阶段开始运行(flink cdc作业分为全量同步和增量同步两个阶段);
  • 不支持连接复用。sql作业里面的每个insert语句都需要一个源表(mysql表)的连接,当同步的源表比较多时,会占用大量的数据库连接;

本节使用jar作业,通过写代码的方式,解决sql作业存在的问题;

2.目标

把自建mysql的约100张表准实时同步到云服务selectdb。数据量不大,约5个G左右;

源表 flink 结果表
自建mysql 实时计算flink 云服务selectdb

3.步骤(重点)

对问题和过程没兴趣的同学,可以直接看这里。本章节记录了阿里云flink与selectdb集成时,使用jar作业的实现方式;

3.1.创建作业

  • JAR作业开发需要使用JDK 1.8版本;
  • JAR作业需要线下完成开发,然后打成jar包,上传到在Flink全托管控制台上部署并运行;
  • JAR作业不支持在Main函数中读取本地配置,读取配置文件需要可通过以下方式;
    • 部署作业所添加附加依赖文件将会加载到作业所运行Pod的/flink/usrlib目录下。配置文件以作业附加依赖文件上传,然后通过代码读取;
    • 上传到其它可访问地址,通过网络读取(注意Flink版默认不能访问公网,需要额外操作开通);
  • JAR作业依赖的其它jar包,可通过直接打进JAR作业的方式 ,也可以通过部署作业时添加附加依赖文件的方式;
java 复制代码
@Slf4j
public class CdcMysqlToDorisStream {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        String database = "test";
        Map<String, String> mysqlConfig = new HashMap<>();
            mysqlConfig.put(MySqlSourceOptions.DATABASE_NAME.key(), "bpms");
            mysqlConfig.put(MySqlSourceOptions.HOSTNAME.key(), "127.0.0.1");
            mysqlConfig.put(MySqlSourceOptions.PORT.key(), "3306");
            mysqlConfig.put(MySqlSourceOptions.USERNAME.key(), "test");
            mysqlConfig.put(MySqlSourceOptions.PASSWORD.key(), "test");
            mysqlConfig.put("jdbc.properties.use_ssl", "false");
            mysqlConfig.put("sink.properties.format", "json");
            //**支持在作业运行到增量同步阶段后,动态添加新的源表
            mysqlConfig.put(MySqlSourceOptions.SCAN_NEWLY_ADDED_TABLE_ENABLED.key(), "true");
        Configuration config = Configuration.fromMap(mysqlConfig);

        Map<String, String> sinkConfig = new HashMap<>();
            sinkConfig.put(DorisConfigOptions.FENODES.key(), "test.selectdbfe.rds.aliyuncs.com:8080");
            sinkConfig.put(DorisConfigOptions.USERNAME.key(), "test");
            sinkConfig.put(DorisConfigOptions.PASSWORD.key(), "test");
            sinkConfig.put(DorisConfigOptions.JDBC_URL.key(), "jdbc:mysql://test.selectdbfe.rds.aliyuncs.com:9030");
            sinkConfig.put(DorisConfigOptions.SINK_LABEL_PREFIX.key(), UUID.randomUUID().toString());
            sinkConfig.put("sink.enable-delete", "false");
        Configuration sinkConf = Configuration.fromMap(sinkConfig);

        Map<String, String> tableConfig = new HashMap<>();
            tableConfig.put(DatabaseSyncConfig.REPLICATION_NUM, "1");
            tableConfig.put(DatabaseSyncConfig.TABLE_BUCKETS, ".*:1");
        String includingTables = getTables();
        String excludingTables = "";
        boolean ignoreDefaultValue = false;
        boolean useNewSchemaChange = true;
        String schemaChangeMode = SchemaChangeMode.DEBEZIUM_STRUCTURE.getName();
        boolean singleSink = false;
        boolean ignoreIncompatible = false;
        DatabaseSync databaseSync = new MysqlDatabaseSync();
        databaseSync.setEnv(env)
                .setDatabase(database)
                .setConfig(config)
                .setIncludingTables(includingTables)
                .setExcludingTables(excludingTables)
                .setIgnoreDefaultValue(ignoreDefaultValue)
                .setSinkConfig(sinkConf)
                .setTableConfig(new DorisTableConfig(tableConfig))
                .setCreateTableOnly(false)
                .setNewSchemaChange(useNewSchemaChange)
                .setSchemaChangeMode(schemaChangeMode)
                .setSingleSink(singleSink)
                .setIgnoreIncompatible(ignoreIncompatible)
                .create();
        databaseSync.build();
        env.execute(String.format("mysql-doris数据库同步,database=%s", database));
    }

    //**读取配置文件里面,获取需要同步的表
    @SneakyThrows
    private static String getTables() {
        String rst;
        //**Flink JAR作业不支持在Main函数中读取本地配置
        //**在作业运行时,部署作业所添加附加依赖文件将会加载到作业所运行Pod的/flink/usrlib目录下
        try (Stream<String> stream = Files.lines(Paths.get("/flink/usrlib/mysql-to-doris-tables"))) {
            rst = stream.map(String::trim).filter(StringUtils::isNotBlank).collect(joining("|"));
        }

        log.info("读取同步的表成功,tables={}", rst);
        Assert.notBlank(rst, "同步的表不能为空");
        return rst;
    }
}

3.2.部署作业

4.遇到的问题

全托管flink怎么获取上传的文件;

我们使用的是阿里云全托管flink,文件都上传到了阿里云管理的oss。查询文档发现地址如下:

复制代码
oss://flink-fullymanaged-<工作空间ID>/artifacts/namespaces/<项目空间名称>/文件名

如果还是不知道是多少,可以先创建一个jar作业,然后在作业的基础信配置->JAR Uri里面查看;

运行报错java.lang.NoSuchMethodError: java.nio.ByteBuffer.flip()Ljava/nio/ByteBuffer;

  • 原因: 编译的jdk版本和运行的jdk版本不一致。jdk8和jdk11的此方法不兼容;
  • 解决: 查看打包编译的jdk版本,需使用jdk8;
相关推荐
互联网老欣15 小时前
2025年保姆级教程:阿里云服务器部署Dify+Ollama,打造专属AI应用平台
服务器·阿里云·ai·云计算·dify·ollama·deepseek
Hello.Reader19 小时前
在 YARN 上跑 Flink CDC从 Session 到 Yarn Application 的完整实践
大数据·flink
二进制_博客1 天前
eventTime+watermarker+allowedLateness到底窗口关闭时间是什么?
flink·kafka
2501_941403761 天前
Python高性能图像识别与TensorFlow实战分享:深度学习模型优化与批量推理经验
flink
G31135422732 天前
从零开始 通义千问大模型本地化到阿里云通义千问API调用
阿里云·云计算
Bug快跑-12 天前
面向高并发场景的多语言异构系统架构演进与性能优化策略深度解析实践分享全过程方法论探索
flink
大侠课堂3 天前
互联网大厂面试题100道-阿里百度篇-完整版
百度·阿里云·面试·面试题·阿里
Serverless社区3 天前
【本不该故障系列】告别资源“不确定性”,SAE如何破解刚性交付核心困境
阿里云·云原生·serverless
斯文~3 天前
「玩透ESA」站点配置阿里云ESA全站加速+自定义规则缓存
阿里云·缓存·云计算·cdn·esa
Hello.Reader3 天前
在 Flink Standalone 集群上运行 Flink CDC从下载到跑起一个 MySQL→Doris 同步任务
大数据·mysql·flink