Flink搭建

目录

一、standalone模式

[二、Flink on Yarn模式](#二、Flink on Yarn模式)


一、standalone模式

  1. 解压安装Flink

    [root@bigdata1 software]# tar -zxvf flink-1.14.0-bin-scala_2.12.tgz -C /opt/module/
    [root@bigdata1 module]# mv flink-1.14.0/ flink-standalone

2.进入conf修改flink-conf.yaml

复制代码
jobmanager.rpc.address: bigdata1

3.修改wokers

复制代码
[root@bigdata1 conf]# vim workers
bigdata1
bigdata2
bigdata3

4.分发到集群其他节点

复制代码
[root@bigdata1 module]# rsync -av /opt/module/flink-standalone/ bigdata2:/opt/module/flink-standalone/
[root@bigdata1 module]# rsync -av /opt/module/flink-standalone/ bigdata3:/opt/module/flink-standalone/

5.启动Flink集群命令

复制代码
[root@bigdata1 flink-standalone]# bin/start-cluster.sh
复制代码

6.访问http://主机:8081可以对flink集群和任务进行监控

http://bigdata1:8081

7.停止Flink集群命令

复制代码
bin/stop-cluster.sh

1.解压安装

复制代码
[root@bigdata1 software]# tar -zxvf /opt/software/flink-1.14.0-bin-scala_2.12.tgz -C /opt/module/
[root@bigdata1 module]# mv flink-1.14.0/ flink-yarn

2.配置环境变量

vim /etc/profile

复制代码
#配置环境变量HADOOP_CLASSPATH, 如果前面已经配置可以忽略。
#export HADOOP_CLASSPATH=`hadoop classpath`
#FLINK_HOME
export FLINK_HOME=/opt/module/flink-yarn
export PATH=$PATH:$FLINK_HOME/bin
export HADOOP_CLASSPATH=`hadoop classpath`
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

3.启动Hadoop集群

Flink on yarn 基于Hadoop集群的yarn

相关推荐
武子康8 小时前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
0xDevNull9 小时前
Linux切换JDK版本详细教程
linux
进击的丸子9 小时前
虹软人脸服务器版SDK(Linux/ARM Pro)多线程调用及性能优化
linux·数据库·后端
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
Johny_Zhao2 天前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天2 天前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive