在streampark运行paimon-flink-action-1.20.0.jar

1、上传相关jar包到streampark所在服务的 /opt/flink-1.20.0/lib

rm -rf flink-sql-connector-mysql-cdc-3.0.1.jar (要用3.1)

2、在streampark上配置任务

查看相关的类:

jar -tf paimon-flink-action-1.2.0.jar | grep FlinkActions

org/apache/paimon/flink/action/FlinkActions.class

上传

添加程序参数

复制代码
mysql_sync_database
--warehouse s3://warehouse/wh
--database order_dw
--mysql_conf hostname=192.168.1.247
--mysql_conf port=3306
--mysql_conf username=root
--mysql_conf password=123456
--mysql_conf database-name=order_dw
--catalog_conf s3.endpoint=http://192.168.1.243:9000
--catalog_conf s3.access-key=minio
--catalog_conf s3.secret-key=minio@123
--catalog_conf s3.region=us-east-1
--catalog_conf s3.path.style.access=true
--table_conf bucket=1
--table_conf changelog-producer=input
--table_conf sink.parallelism=1

运行成功:


验证:

starrocks 的PAIMON原数据:

在mysql 新增数据新增数据:

复制代码
INSERT INTO orders VALUES
(100011, 'user_001', 12345, 3, 3000, '2025-02-15 17:40:56', '2025-02-15 18:42:56', 1),
(100012, 'user_002', 12348, 4, 1000, '2025-02-15 18:40:56', '2025-02-15 19:42:56', 1),
(100013, 'user_003', 12348, 2, 2000, '2025-02-15 19:40:56', '2025-02-15 20:42:56', 1);
 
 
 
INSERT INTO orders_pay VALUES
(2011, 100011, 1, '2025-02-15 18:40:56'),
(2012, 100012, 1, '2025-02-15 19:40:56'),
(2013, 100013, 0, '2025-02-15 20:40:56');

在starrocks查询PAIMON的数据:

数据已同步

相关推荐
Jackyzhe3 分钟前
Flink学习笔记:时间与Watermark
大数据·flink
Hello.Reader5 分钟前
Flink SQL 中的 SELECT & WHERE,批流统一的查询入口
sql·flink·linq
老蒋新思维12 分钟前
创客匠人峰会深度解析:创始人 IP 打造的 “情绪 + 技术” 双引擎
大数据·网络·人工智能·网络协议·tcp/ip·重构·创客匠人
元拓数智10 小时前
IntaLink:破解数仓建设痛点,重塑高效建设新范式
大数据·数据仓库·人工智能·数据关系·intalink
区块链小八歌10 小时前
从电商收入到链上资产:Liquid Royalty在 Berachain 重塑 RWA 想象力
大数据·人工智能·区块链
沃达德软件10 小时前
大数据反诈平台功能解析
大数据·人工智能
音视频牛哥10 小时前
AI时代底层技术链:GPU、云原生与大模型的协同进化全解析
大数据·云原生·kubernetes·音视频·transformer·gpu算力·云原生cloud native
howard200511 小时前
实训云上搭建大数据集群
大数据·大数据集群·实训云
大模型服务器厂商11 小时前
人形机器人的技术概况与算力支撑背景
大数据·人工智能
第二只羽毛11 小时前
主题爬虫采集主题新闻信息
大数据·爬虫·python·网络爬虫