Flink学习(八)-Flink 集群搭建

1,准备三台机器

装好 jdk 等必要的组件。

注意,由于本身没有额外的 dns做转发。因此,需要在每台机器的 host 文件里,配置好相关 ip

具体方法

bash 复制代码
vim /etc/hosts

2,flink做配置

2.1 资源规划

|---------------|------------------------|-------------|-------------|
| 节点服务器 | node01 | node02 | node03 |
| 角色 | JobManager TaskManager | TaskManager | TaskManager |

下载地址

解压命令

bash 复制代码
tar xzvf flink-1.19.0-bin-scala_2.12.tgz

2.3 编辑相关配置信息

分别在 node01 、 node02以及 node03上

bash 复制代码
cd flink-1.19.0/conf
vim config.yaml

JobManager节点地址.

jobmanager.rpc.address: node01

jobmanager.bind-host: 0.0.0.0

rest.address: node01

rest.bind-address: 0.0.0.0

TaskManager节点地址.需要配置为当前机器名

taskmanager.bind-host: 0.0.0.0

taskmanager.host: node01

bash 复制代码
vim workers

node01

node02

node03

bash 复制代码
vim masters

node01:8081

注意,在 node02 和 node03节点上,只需要编辑对应的 config.yaml 文件中的taskmanager.host属性,node02改为 node02,node03 改为 node03.

bash 复制代码
bin/start-cluster.sh

3,访问 webUI

访问 jobManager 所在的 8081 端口,即可打开相关管理页面

http://node01:8081/#/overview

4,问题

如果外部机器无法访问上述地址。可能是防火墙的原因

放通 8081 的防火墙就行。

相关推荐
Jason不在家1 天前
Flink 本地 idea 调试开启 WebUI
大数据·flink·intellij-idea
happycao1232 天前
Flink 03 | 数据流基本操作
大数据·flink
州周2 天前
Flink一点整理
大数据·flink
MarkHD3 天前
Flink集群部署
大数据·flink
武子康4 天前
大数据-153 Apache Druid 案例 从 Kafka 中加载数据并分析
java·大数据·分布式·flink·kafka·apache
D愿你归来仍是少年4 天前
Flink从ck拉起任务脚本
大数据·flink
Qyt-Coding4 天前
flink设置保存点和恢复保存点
大数据·flink
知知之之5 天前
Flink
大数据·flink
武子康5 天前
大数据-154 Apache Druid 架构与原理详解 基础架构、架构演进
java·大数据·clickhouse·hdfs·架构·flink·apache
武子康6 天前
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!
java·大数据·clickhouse·flink·apache