【hadoop】Flink安装部署

一、单机模式

步骤:

1、使用XFTP将Flink安装包flink-1.13.5-bin-scala_2.11.tgz发送到master机器的主目录。

2、解压安装包:

复制代码
tar -zxvf ~/flink-1.13.5-bin-scala_2.11.tgz

3、修改文件夹的名字,将其改为flume,或者创建软连接也可:

复制代码
mv ~/flink-1.13.5 ~/flink

4、配置环境变量:

复制代码
vim ~/.bashrc

然后在文件末尾添加以下内容:

复制代码
export FLINK_HOME=/home/hadoop/flink

export PATH=$FLINK_HOME/bin:$PATH

保存文件,然后刷新环境变量或重新启动命令行终端:

复制代码
source ~/.bashrc

5、可以使用以下命令开启一个Flink的Scala控制台:

复制代码
start-scala-shell.sh local

步骤:

1、使用vim命令配置Flink的flink-conf.yaml配置文件:

复制代码
cd ~/flink/conf

vim flink-conf.yaml

配置内容如下(注意:这里仅展示其中要修改的参数,其余参数配置保持不变):

复制代码
jobmanager.rpc.address: master

jobmanager.rpc.port: 6123

jobmanager.memory.process.size: 1600m

taskmanager.memory.process.size: 1728m

taskmanager.numberOfTaskSlots: 3

parallelism.default: 3

high-availability: zookeeper

high-availability.zookeeper.quorum: master:2181,slave1:2181,slave2:2181

high-availability.cluster-id: /cluster_one

high-availability.zookeeper.path.root: /flink

high-availability.storageDir: hdfs://mycluster/flink/ha/

2、配置workers:

复制代码
vim workers

修改为以下内容:

复制代码
master
slave1
slave2

3、配置masters,为节省资源,我们只在master启动主节点即可,如需启动备用节点,则需要在此处添加其他节点以作为备用节点:

复制代码
vim masters

修改为以下内容:

复制代码
master:8088

可指定端口,可访问web

4、添加Hadoop依赖包,若打算使Flink与Hadoop能够协同工作,比如后续在YARN上运行Flink、使用Flink连接到HDFS、HBase等,那么就需要将Flink对应Hadoop版本的shaded包,放到Flink安装目录的lib文件夹内,或者添加到Hadoop的环境变量中,这里使用第一种方法进行配置:

使用XFTP将 flink-shaded-hadoop-2-uber-2.8.3-10.0.jar 放到 ~/flink/lib文件夹内

5、接着把配置好的Flink安装目录使用scp命令发送到其他节点:

复制代码
scp -r ~/flink hadoop@slave1:~

scp -r ~/flink hadoop@slave2:~

6、(如第3步中配置了其他备用主节点,则需要做这步,只配置了一个master的话,这一步可以跳过)在备用主节点slave1上修改flink-conf.yaml,将其中的jobmanager.rpc.address一项修改为

复制代码
slave1:

cd ~/flink/conf

vim flink-conf.yaml

修改内容如下:

复制代码
jobmanager.rpc.address: slave1

7、依次启动ZooKeeper、HDFS、YARN集群,以启动Hadoop;

8、在master节点上,启动Flink Standalone集群:

复制代码
start-cluster.sh

要使用Flink on YARN只需要修改环境变量,让Flink可以从系统环境变量中读取到Hadoop的配置信息即可:

复制代码
vim ~/.bashrc

然后在末尾添加Hadoop配置文件夹的目录环境:

复制代码
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

然后刷新环境变量:

复制代码
source ~/.bashrc

后续就可以使用 yarn-session.sh 启动 yarn session 来运行Flink任务,或者使用 flink run 命令直接将Flink任务提交到YARN上运行。

相关推荐
Bug快跑-15 小时前
面向高并发场景的多语言异构系统架构演进与性能优化策略深度解析实践分享全过程方法论探索
flink
Hello.Reader1 天前
在 Flink Standalone 集群上运行 Flink CDC从下载到跑起一个 MySQL→Doris 同步任务
大数据·mysql·flink
A尘埃1 天前
Flink实时数据处理
大数据·flink·实时数据处理
expect7g2 天前
Paimon源码解读 -- PartialUpdateMerge
大数据·后端·flink
yumgpkpm2 天前
腾讯云TBDS与CDH迁移常见问题有哪些?建议由CDH迁移到CMP 7.13 平台(类Cloudera CDP,如华为鲲鹏 ARM 版)
hive·hadoop·zookeeper·flink·spark·kafka·hbase
Hello.Reader2 天前
使用 Flink CDC 搭建跨库 Streaming ETLMySQL + Postgres → Elasticsearch 实战
大数据·elasticsearch·flink
❀͜͡傀儡师3 天前
docker 部署Flink和传统部署
docker·容器·flink
Linux Huang3 天前
【Dinky】IDEA运行出现HistoryServer异常
java·hadoop·flink·intellij idea
渣渣盟3 天前
Flink分布式文件Sink实战解析
分布式·flink·scala·1024程序员节
c***72743 天前
SpringBoot集成Flink-CDC,实现对数据库数据的监听
数据库·spring boot·flink