flink集群的安装部署

flink集群的安装部署

flink集群是以hadoop集群为基础的,所以先要搭建hadoop集群(参看前文:hadoop集群搭建)

环境规划

IP HOSTNAME 性质
192.168.101.191 hadoop191 master
192.168.101.192 hadoop192 slave
192.168.101.193 hadoop193 slave

一、下载安装

下载地址(以1.20.0为例):https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.20.0/ 下载flink-1.20.0-bin-scala_2.12.tgz

分别上传到 3台服务器的/opt/module/flink/目录,解压:tar -zxvf flink-1.20.0-bin-scala_2.12.tgz

二、修改配置文件

vim /home/data/flink/flink-1.20.0/conf/config.yaml

hadoop191的配置如下:

powershell 复制代码
jobmanager:
  # 允许访问的ip
  bind-host: 0.0.0.0
  rpc:
  	# master服务器的hostname,3台机器都配置hadoop191
    address: hadoop191
    port: 6123
  memory:
    process:
       size: 1600m
  execution:
     failover-strategy: region
taskmanager:
	# 任务节点,允许访问ip
  bind-host: 0.0.0.0
  # 任务节点的主机名,每台机器填自己的主机名
  host: hadoop191
  numberOfTaskSlots: 6
  memory:
    process:
          size: 1728m
parallelism:
  default: 4
rest:
  address: localhost
  # 允许web访问的ip,仅修改hadoop191,浏览器也只访问此台
  bind-address: 0.0.0.0

hadoop192、hadoop193的配置,仅taskmanager.host各自填自己的主机名,不修改rest.address,

其他与master保持一致即可

三、修改主从

在目录 /opt/module/flink/flink-1.20.0/conf下修改:

vim masters

写入:hadoop191:8081

vim workers

写入:

hadoop191

hadoop192

hadoop193

分发到另外两台机器,3台机器的masters与workers是一致的

四、权限修改

分别在3台机器的目录:/opt/module/flink 执行: chown -R hadoop:hadoop flink-1.20.0

五、免密访问

我的3台机器,的hadoop账号设置了免密访问(参考hadoop集群搭建的1.4)

六、编写启动脚本

在 /home/hadoop/bin目录下执行 vim flink.sh

powershell 复制代码
#!/bin/bash
if [ $# -lt 1 ]
then
 echo "No Args Input..."
 exit ;
fi
case $1 in
"start")
 echo " =================== 启动 flink 集群 ==================="
 ssh hadoop191 "/opt/module/flink/flink-1.20.0/bin/start-cluster.sh"

;;
"stop")
 echo " =================== 关闭 flink 集群 ==================="
 ssh hadoop191 "/opt/module/flink/flink-1.20.0/bin/stop-cluster.sh"

;;
*)
 echo "Input Args Error..."
;;
esac

授权与改变归属:
chmod +x flink.sh
chown -R hadoop:hadoop flink.sh

七、启动

用hadoop用户执行: sh flink.sh start

八、浏览器访问

http://192.168.101.191:8081/

相关推荐
风途知识百科2 分钟前
分布式光伏环境监测仪
大数据·人工智能
档案宝档案管理9 小时前
档案宝自动化档案管理,从采集、整理到归档、利用,一步到位
大数据·数据库·人工智能·档案·档案管理
郑州光合科技余经理10 小时前
技术架构:上门服务APP海外版源码部署
java·大数据·开发语言·前端·架构·uni-app·php
云器科技10 小时前
告别Spark?大数据架构的十字路口与技术抉择
大数据·架构·spark·lakehouse·数据湖仓
zhongerzixunshi11 小时前
把握申报机遇 赋能高质量发展
大数据·人工智能
Jackeyzhe11 小时前
Flink源码阅读:双流操作
flink
AI数据皮皮侠12 小时前
中国乡村旅游重点村镇数据
大数据·人工智能·python·深度学习·机器学习
小北方城市网13 小时前
第 11 课:Python 全栈项目进阶与职业发展指南|从项目到职场的无缝衔接(课程终章・进阶篇)
大数据·开发语言·人工智能·python·数据库架构·geo
躺柒13 小时前
读共生:4.0时代的人机关系06人机合作关系
大数据·人工智能·人机协作·人机对话·人机合作
天远数科14 小时前
前端体验优化:用Node.js中间件无缝集成天远手机号码归属地核验服务
大数据·api