centos7搭建flink1.18并以 standalone模式启动

版本

组件 版本
scala 2.12.20
java 1.8.0_181
flink 1.18.1

关于scala和Java的安装参考:scala和java安装

flink 下载地址:flink下载链接

集群规划

bigdata01 bigdata02 bigdata03
master
worker worker worker

安装

1.创建存放路径

三个节点都需要操作

sh 复制代码
用于存放安装包: mkdir /home/software/
用于存放存放解压后的模块: mkdir /opt/module/bin/
用于存放模块软链接: mkdir /opt/module/link/

2.上传安装包

三个节点都需要操作

将安装包【flink-1.18.1-bin-scala_2.12.tgz】上传至/home/software/目录下

3.解压 压缩包

三个节点都需要操作

sh 复制代码
tar -zxvf /home/software/flink-1.18.1-bin-scala_2.12.tgz -C /opt/module/bin/

4.修改配置文件

三个节点都需要操作

配置文件路径:/opt/module/bin/flink-1.18.1/conf

修改文件: vi master

添加内容:

sh 复制代码
bigdata01:8081

修改文件: vi workers

添加内容:

sh 复制代码
bigdata01
bigdata02
bigdata03

修改文件: vi flink-conf.yaml

修改内容:

sh 复制代码
jobmanager.rpc.address: bigdata01 # jobmanager地址
jobmanager.bind-host: 0.0.0.0     # jobmanager绑定地址
taskmanager.bind-host: 0.0.0.0    # taskmanager绑定地址
# taskmanager地址,写当前修改文件的节点地址
taskmanager.host: bigdata01       

taskmanager.numberOfTaskSlots: 4   # 任务槽数 ,根据需求填写
parallelism.default: 4  # 并行度 ,根据需求填写
execution.checkpointing.interval: 5000 # checkpoint时间间隔,毫秒
rest.port: 8081              #  REST服务的端口
rest.address: bigdata01      #  REST服务的地址
rest.bind-address: 0.0.0.0   # REST服务的绑定地址

5.启动flink

sh 复制代码
./opt/module/bin/flink-1.18.1/bin/start-cluster.sh

三个节点分别执行jps查看

bigdata01节点出现 【StandaloneSessionClusterEntrypoint】进程

bigdata01,bigdata02,bigdata03节点都出现【TaskManagerRunner】进程

则表示启动成功

访问 http://bigdata01:8081,出现

6.如果启动失败

查看/opt/module/bin/flink-1.18.1/log目录下的最新日志,查看具体错误,针对解决。

相关推荐
字节跳动数据平台19 小时前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康5 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康6 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP7 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet