【Linux】-Flink分布式内存计算集群部署[21]

注意:

本节的操作,需要前置准备好Hadoop生态集群,请先部署好Hadoop环境

简介

Flink同spark一样,是一款分布式内存计算引擎,可以支撑海量数据的分布式计算

Flink在大数据体系同样是明星产品,作为新一代的综合计算引擎,支持离线计算和实时计算。

在大数据邻域广泛应用,是目前世界上除去spark以外,应用最为广泛的分布式计算引擎。

spark更加偏向于离线计算,而flink更加偏向于实时计算

安装

1、【node1执行】 下载安装包

复制代码
wget https://archive.apache.org/dist/flink/flink-1.10.0/flink-1.10.0-bin-scala_2.11.tgz

解压到/export/server

复制代码
tar -zxvf flink-1.10.0-bin-scala_2.11.tgz -C /export/server

构建软链接

复制代码
ln -s /export/server/flink-1.10.0 /export/server/flink

在vim编辑时,可使用set paste粘贴模式

复制代码
# jobManager 的IP地址
jobmanager.rpc.address: node1
# JobManager 的端口号
jobmanager.rpc.port: 6123
# JobManager JVM heap 内存大小
jobmanager.heap.size: 1024m
#TaskManager JvM heap 内存大小
taskmanager.heap.size: 1024m
# 每个 TaskManager 提供的任务 slots 数量大小
taskmanager.numberOfTaskSlots: 2
# 是否进行预分配内存,默认不进行预分配,这样在我们不使fLink集群时不会占用集群资源
taskmanager.memory.preallocate: false
# 程序默认并行计算的个数
parallelism.default: 1
# JobManager的Web界面的端囗(默认:8081)
jobmanager.web.port: 8081

3、【node1】 修改配置文件,conf/slaves

复制代码
node1
node2
node3

4、【node1】 分发flink安装包到其他机器

复制代码
cd /export/server
scp -r flink-1.10.0 node2:`pwd`/
scp -r flink-1.10.0 node3:`pwd`/

5、【node2、node3】构建软链接

复制代码
ln -s /export/server/flink-1.10.0 /export/server/flink
复制代码
/export/server/flink/bin/start-cluster.sh

7、验证flink启动

浏览器打开http://node1:8081

这里使用的端口8081与前一章节spark使用的端口一致,需要关闭spark才能使用flink

至此,Flink就部署完毕啦。

相关推荐
萤丰信息8 分钟前
技术赋能安全:智慧工地构建城市建设新防线
java·大数据·开发语言·人工智能·智慧城市·智慧工地
Viking_bird1 小时前
Apache Spark 3.2.0 开发测试环境部署指南
大数据·分布式·ajax·spark·apache
励志成为糕手2 小时前
企业级Spring事务管理:从单体应用到微服务分布式事务完整方案
分布式·spring·微服务·隔离级别·事务管理
用户199701080182 小时前
抖音商品列表API技术文档
大数据·数据挖掘·数据分析
Fireworkitte3 小时前
Kafka的ISR、OSR、AR详解
分布式·kafka·ar
数据皮皮侠5 小时前
最新上市公司业绩说明会文本数据(2017.02-2025.08)
大数据·数据库·人工智能·笔记·物联网·小程序·区块链
陆小叁5 小时前
基于Flink CDC实现联系人与标签数据实时同步至ES的实践
java·elasticsearch·flink
计算机毕设-小月哥7 小时前
完整源码+技术文档!基于Hadoop+Spark的鲍鱼生理特征大数据分析系统免费分享
大数据·hadoop·spark·numpy·pandas·计算机毕业设计
Jinkxs7 小时前
AI重塑金融风控:从传统规则到智能模型的信贷审批转型案例
大数据·人工智能
时序数据说14 小时前
时序数据库市场前景分析
大数据·数据库·物联网·开源·时序数据库