CDH6.3.2集成Flink1.12.2

一、Linux下载httpd服务并开启
复制代码
yum install y httpd
systemctl start httpd
systemctl enable httpd
二、获取已制作好的安装包
复制代码
flink-1.12.2-bin-scala_2.11.tar
​
FLINK_ON_YARN-1.12.2.jar
​
flink-shaded-hadoop-2-uber-3.0.0-cdh6.3.2-10.0.jar
三、集成CM
1.上传编译好的parcel

将编译好的flink-1.12.2-bin-scala_2.11.tar解压到/var/www/html并重命名

复制代码
# 将flink-1.12.2-bin-scala_2.11.tar解压到/var/www/html
[root@bigdata1 html] tar -xvf /opt/software/flink-parcel/flink-1.12.2-bin-scala_2.11.tar -C /var/www/html/
[root@bigdata1 html] cd /var/www/html/
# 重命名目录名称
[root@bigdata1 html] mv FLINK-1.12.2-BIN-SCALA_2.11_build/ flink1.12.2-on-cdh6.3.2
[root@bigdata1 html] cd flink1.12.2-on-cdh6.3.2
# 创建flink-on-cdh的本地仓库,确保createrepo工具已经安装
[root@bigdata1 flink1.12.2-on-cdh6.3.2] yum install -y createrepo
[root@bigdata1 flink1.12.2-on-cdh6.3.2] createrepo .

开启httpd服务后,可以通过以下网址查看是否正常上传

复制代码
http://bigdata1/flink1.12.2-on-cdh6.3.2/

配置局域网flink的yum

复制代码
[root@bigdata1 html] vim /etc/yum.repos.d/flink-on-cdh.repo

添加如下配置

复制代码
[flink-on-cdh]
name=flink-on-cdh
baseurl=http://bigdata1/flink1.12.2-on-cdh6.3.2/
enabled=1
gpgcheck=0

将上述配置repo配置文件分发到所有节点上

所有节点上清除yum并建立yum缓存

复制代码
yum clean all
yum makecache

CM-Server主节点 上,将FLINK_ON_YARN-1.12.2.jar包复制到/opt/cloudera/csd/目录下(目的是让cm识别)

复制代码
[root@bigdata1 bin] cp /opt/software/flink-parcel/FLINK_ON_YARN-1.12.2.jar /opt/cloudera/csd/

重启集群的CM-Server及CM-agent

复制代码
service cloudera-scm-server restart
service cloudera-scm-agent restart
2.配置parcel库

CM页面--->主机---> parcel ---> 配置,添加上传的parcel的位置

添加上传的parcel的位置

复制代码
http://bigdata1/flink1.12.2-on-cdh6.3.2/

检查新Parcel ,然后下载--->分配--->激活

下载后报哈希验证失败错误

需要修改httpd配置文件

复制代码
[root@bigdata1 flink1.12.2-on-cdh6.3.2] cp /etc/httpd/conf/httpd.conf /etc/httpd/conf/httpd.conf.bak
[root@bigdata1 flink1.12.2-on-cdh6.3.2] vim /etc/httpd/conf/httpd.conf

在AddType中添加.parcel

重启httpd服务

复制代码
[root@bigdata1 flink1.12.2-on-cdh6.3.2] systemctl restart httpd

再次下载--->分配--->激活成功

点击添加服务

添加Flink-yarn服务

配置参数,kerberos的配置默认值清除掉,不填

其他参数按默认值继续安装

安装完成后,登录部署flink-yarn服务的后台上传flink-shaded-hadoop-2-uber-3.0.0-cdh6.3.2-10.0.jar

将其上传到/opt/cloudera/parcels/FLINK/lib/flink/lib目录下

然后启动flink-yarn服务

启动服务后,需要重启cm后端

复制代码
service cloudera-scm-server restart
4.webUI

进入YARN

查看应用程序,其中的Flink session cluster即为Flink on yarn进程

相关推荐
v***88566 小时前
SpringBoot集成Flink-CDC,实现对数据库数据的监听
数据库·spring boot·flink
Hello.Reader2 天前
在 YARN 上跑 Flink CDC从 Session 到 Yarn Application 的完整实践
大数据·flink
二进制_博客2 天前
eventTime+watermarker+allowedLateness到底窗口关闭时间是什么?
flink·kafka
2501_941403762 天前
Python高性能图像识别与TensorFlow实战分享:深度学习模型优化与批量推理经验
flink
Bug快跑-13 天前
面向高并发场景的多语言异构系统架构演进与性能优化策略深度解析实践分享全过程方法论探索
flink
Hello.Reader4 天前
在 Flink Standalone 集群上运行 Flink CDC从下载到跑起一个 MySQL→Doris 同步任务
大数据·mysql·flink
A尘埃4 天前
Flink实时数据处理
大数据·flink·实时数据处理
expect7g4 天前
Paimon源码解读 -- PartialUpdateMerge
大数据·后端·flink
yumgpkpm5 天前
腾讯云TBDS与CDH迁移常见问题有哪些?建议由CDH迁移到CMP 7.13 平台(类Cloudera CDP,如华为鲲鹏 ARM 版)
hive·hadoop·zookeeper·flink·spark·kafka·hbase
Hello.Reader5 天前
使用 Flink CDC 搭建跨库 Streaming ETLMySQL + Postgres → Elasticsearch 实战
大数据·elasticsearch·flink