Apache StreamPark系列教程第二篇——项目打包和开发

一、项目打包

项目依赖maven、jdk8.0、前端(node、npm)

复制代码
//下载代码
git clone

//maven打包相关内容
mvn -N io.takari:maven:wrapper
//前端打包相关内容
curl -sL https://rpm.nodesource.com/setup_16.x | bash -
yum -y install nodejs
npm -v
npm install -g pnpm

默认是h2(内存数据库,项目重新启动,数据库信息丢失),因此建议修改为mysql,同时workspace路径目录也需要修改

最后在mysql数据中分别执行schema和data文件,就可以正常访问streampark

修改上述配置文件信息再进行打包

复制代码
//执行打包命令
sh build.sh

打包完成之后

复制代码
tar -zxvf apache-streampark-2.2.0-SNAPSHOT-incubating-bin.tar.gz

cd apache-streampark_2.12-2.2.0-SNAPSHOT-incubating-bin

#启动
sh bin/startup.sh
#停止
sh bin/bin/shutdown.sh

访问http://ip:10000 没问题即认为启动无误

二、集群配置信息

Flink 单机版本本地安装,注意StreamPark remote 模式

复制代码
wget https://archive.apache.org/dist/flink/flink-1.14.5/flink-1.14.5-bin-scala_2.12.tgz

tar -zxvf flink-1.14.5-bin-scala_2.12.tgz

cd flink-1.14.5

./bin/start-cluster.sh

访问 http://ip:8081 认为无误

Flink Home 配置:/root/flink/flink-1.14.5 上述flink 的安装路径

集群配置:http://localhost:8081 或者宿主机ip

修改Application里面自带的Flink SQL demo 任务,即可成功运行

修改完成之后点击release(发布作业)然后start(启动作业),任务即可启动成功。

备注:Flink SQL demo会运行一段时间之后自动结束,因为代码里面设置自动生成数据是增量数据,如果想任务一直运行

复制代码
去掉自增设置同时改为最小和最大值成为随机数
'fields.f_sequence.min'='1',
'fields.f_sequence.max'='500',

这样job就能一直运行起来 ,而不会运行一段时间就停止了。

相关推荐
码农小白AI3 分钟前
AI审核驱动动态预警:IACheck如何重塑环境数据一致性监测与质量管控新模式
大数据·人工智能
LaughingZhu4 分钟前
Product Hunt 每日热榜 | 2026-04-02
大数据·人工智能·经验分享·搜索引擎
福客AI智能客服8 分钟前
低价竞争之外,商家正在重新思考客服的价值
大数据·人工智能
GJGCY18 分钟前
企业级AI智能体平台技术评测:9款产品架构差异与生产落地能力分析
大数据·人工智能·ai·智能体
专注API从业者18 分钟前
淘宝 API 调用链路追踪实战:基于 SkyWalking/Pinpoint 的全链路监控搭建
大数据·开发语言·数据库·skywalking
jinanwuhuaguo19 分钟前
OpenClaw v2026.4.1 深度剖析报告:任务系统、协作生态与安全范式的全面跃迁
java·大数据·开发语言·人工智能·深度学习
SeaTunnel27 分钟前
关于 Apache SeaTunnel 类加载器治理的一些观察与思考(欢迎讨论)
大数据·开源·apache·seatunnel·数据同步
北冥有羽Victoria28 分钟前
Django 实战:SQLite 转 MySQL 与 Bootstrap 集成
大数据·服务器·python·django·编辑器
拓端研究室29 分钟前
2026年智能网联汽车(车联网)蓝皮书:渠道整合、新能源出海与市场分化|附200+份报告PDF、数据、可视化模板汇总下载
大数据·人工智能
咕噜签名-铁蛋35 分钟前
OpenClaw 中转 API:打造安全高效的 AI 智能体调用方案
大数据·人工智能·安全