flink集群的安装部署
flink集群是以hadoop集群为基础的,所以先要搭建hadoop集群(参看前文:hadoop集群搭建)
环境规划
IP | HOSTNAME | 性质 |
---|---|---|
192.168.101.191 | hadoop191 | master |
192.168.101.192 | hadoop192 | slave |
192.168.101.193 | hadoop193 | slave |
一、下载安装
下载地址(以1.20.0为例):
https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.20.0/
下载flink-1.20.0-bin-scala_2.12.tgz分别上传到 3台服务器的/opt/module/flink/目录,解压:
tar -zxvf flink-1.20.0-bin-scala_2.12.tgz
二、修改配置文件
vim /home/data/flink/flink-1.20.0/conf/config.yaml
hadoop191的配置如下:
powershell
jobmanager:
# 允许访问的ip
bind-host: 0.0.0.0
rpc:
# master服务器的hostname,3台机器都配置hadoop191
address: hadoop191
port: 6123
memory:
process:
size: 1600m
execution:
failover-strategy: region
taskmanager:
# 任务节点,允许访问ip
bind-host: 0.0.0.0
# 任务节点的主机名,每台机器填自己的主机名
host: hadoop191
numberOfTaskSlots: 6
memory:
process:
size: 1728m
parallelism:
default: 4
rest:
address: localhost
# 允许web访问的ip,仅修改hadoop191,浏览器也只访问此台
bind-address: 0.0.0.0
hadoop192、hadoop193的配置,仅taskmanager.host各自填自己的主机名,不修改rest.address,
其他与master保持一致即可
三、修改主从
在目录 /opt/module/flink/flink-1.20.0/conf下修改:
①
vim masters
写入:hadoop191:8081
②
vim workers
写入:
hadoop191
hadoop192
hadoop193
分发到另外两台机器,3台机器的masters与workers是一致的
四、权限修改
分别在3台机器的目录:/opt/module/flink 执行:
chown -R hadoop:hadoop flink-1.20.0
五、免密访问
我的3台机器,的hadoop账号设置了免密访问(参考hadoop集群搭建的1.4)
六、编写启动脚本
在 /home/hadoop/bin目录下执行
vim flink.sh
powershell
#!/bin/bash
if [ $# -lt 1 ]
then
echo "No Args Input..."
exit ;
fi
case $1 in
"start")
echo " =================== 启动 flink 集群 ==================="
ssh hadoop191 "/opt/module/flink/flink-1.20.0/bin/start-cluster.sh"
;;
"stop")
echo " =================== 关闭 flink 集群 ==================="
ssh hadoop191 "/opt/module/flink/flink-1.20.0/bin/stop-cluster.sh"
;;
*)
echo "Input Args Error..."
;;
esac
授权与改变归属:
chmod +x flink.sh
chown -R hadoop:hadoop flink.sh
七、启动
用hadoop用户执行:
sh flink.sh start