所有集群启动的命令

所有集群启动的命令

⚠申明: 未经许可,禁止以任何形式转载,若要引用,请标注链接地址。 全文共计6391字,阅读大概需要3分钟

🌈更多学习内容, 欢迎👏关注👀【文末】我的个人微信公众号:不懂开发的程序猿

个人网站:https://jerry-jy.co/

查询所有节点

复制代码
jpsall

所有的一键启动命令在

复制代码
/root/bin

启动Hadoop集群(Yarn模式)

一键启动爆错了

复制代码
myhadoop.sh start
myhadoop.sh stop

分别启动Hadoop

hadoop102启动HDFS

复制代码
[root@hadoop102 hadoop-3.3.3]# sbin/start-dfs.sh

在hadoop102启动历史服务器

复制代码
[root@hadoop102 hadoop-3.3.3]# mapred --daemon start historyserver

在配置了ResourceManager的节点 hadoop103启动YARN

复制代码
[root@hadoop103 hadoop-3.3.3]# sbin/start-yarn.sh

查询节点启动情况

bash 复制代码
[root@hadoop102 hadoop-3.3.3]# jpsall
=============== hadoop102 ===============
11720 Jps
10619 NameNode
11645 JobHistoryServer
10862 DataNode
11327 NodeManager
=============== hadoop103 ===============
7491 Jps
6995 NodeManager
6837 ResourceManager
6602 DataNode
=============== hadoop104 ===============
6546 Jps
6038 DataNode
6122 SecondaryNameNode
6286 NodeManager

(4)Web端查看HDFS的NameNode


(5)Web端查看YARN的ResourceManager


6)查看JobHistory

http://hadoop102:19888/jobhistory


关闭Hadoop集群

hadoop102关闭HDFS,历史服务器

复制代码
[root@hadoop102 hadoop-3.3.3]# sbin/stop-dfs.sh
[root@hadoop102 hadoop-3.3.3]# mapred --daemon stop historyserver

hadoop103关闭YARN

复制代码
[root@hadoop103 hadoop-3.3.3]# sbin/stop-yarn.sh

Spark(local模式)

启动Spark前先启动Hadoop集群,不然后面无法RDD计算

启动Spark

复制代码
[root@hadoop102 spark-3.0.0-bin-hadoop3.2]# pwd
/opt/module/spark-3.0.0-bin-hadoop3.2
[root@hadoop102 spark-3.0.0-bin-hadoop3.2]# bin/spark-shell

证明环境没问题

复制代码
scala> sc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((Hello,3), (Scala,2), (Spark,1)) 

这里的"data/word.txt"文件在


提交计算作业

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master local[2] \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

启动Spark集群

standalone模式(不用了)

复制代码
[root@hadoop102 spark-standalone]# sbin/start-all.sh

查看 Master 资源监控 Web UI 界面: http://hadoop102:8080


启动历史服务器

复制代码
[root@hadoop102 spark-standalone]# sbin/start-history-server.sh

查看历史服务:http://hadoop102:18080


提交计算作业

复制代码
[root@hadoop102 spark-standalone]# bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop102:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

关闭standalone模式

复制代码
[root@hadoop102 spark-standalone]# sbin/stop-all.sh
[root@hadoop102 spark-standalone]# sbin/stop-history-server.sh

HA下的standalone模式

由于一台master会出现单点故障,为了配置高可用(HA),进行了spark-env.sh修改,需要用到Zookeeper,

因此先启动Zookeeper

复制代码
cd /opt/module/zookeeper-3.5.7
[root@hadoop103 zookeeper-3.5.7]# zk.sh start

接着在hadoop102上启动master1,作为主节点

复制代码
[root@hadoop102 spark-standalone]# sbin/start-all.sh
[root@hadoop102 spark-standalone]# sbin/start-history-server.sh

查看 Master 资源监控 Web UI 界面: http://hadoop102:8989


接着在hadoop103上启动master2,作为备用节点

复制代码
[root@hadoop103 spark-standalone]# sbin/start-master.sh

查看 备用Master 资源监控 Web UI 界面: http://hadoop103:8989


提交计算作业

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop102:7077,hadoop103:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

模拟其中 主master 宕机了

先查询进程,再kill -9 杀掉

复制代码
[root@hadoop102 spark-standalone]# jpsall
[root@hadoop102 spark-standalone]# kill -9 20603


接着去WebUI查看 备用Master 资源监控,发现变成了主master,这就是zookeeper发现了原来的主mater宕机,备用master上位


关闭HA-standalone模式

先关闭集群,再关闭zookeeper

复制代码
[root@hadoop102 spark-standalone]# sbin/stop-all.sh
[root@hadoop102 spark-standalone]# sbin/stop-history-server.sh
[root@hadoop103 spark-standalone]# sbin/stop-master.sh
[root@hadoop103 zookeeper-3.5.7]# zk.sh stop

Yarn模式(重点)

首先需要启动Hadoop的 HDFS 以及 YARN 集群

再提交作业,测试性能

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10


查看 http://hadoop103:8088 页面,点击 History,查看历史页面


启动历史服务器

复制代码
[root@hadoop102 spark-yarn]# sbin/start-history-server.sh

再次重新提交作业

复制代码
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode client \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10


Web 页面查看日志:http://hadoop103:8088




关闭Spark集群

启动flink集群

java 复制代码
[root@hadoop102 flink-1.17.1]# bin/start-cluster.sh 

关闭flink集群

复制代码
[root@hadoop102 flink-1.17.1]# bin/stop-cluster.sh 

启动Zookeeper集群

复制代码
cd /opt/module/zookeeper-3.5.7
zk.sh start
jpsall
# 查询哪一个zookeeper是leader,一般是hadoop103
bin/zkServer.sh status
# 在leader上运行这个
bin/zkCli.sh -server hadooop102:2181



关闭Zookeeper集群

复制代码
zk.sh stop

启动Kafka集群

一定要先启动zk再启动kafka,关闭的时候先关闭kafka,再关闭zk。

一键启动

复制代码
kafka.sh start

分别在Hadoop102,103,104上操作如下命令:

复制代码
[root@hadoop102 kafka_2.12-3.0.0]# bin/kafka-server-start.sh -daemon config/server.properties

查看节点启动情况

复制代码
jpsall

停止Kafka集群

一键停止

复制代码
kafka.sh stop

分别在Hadoop102,103,104上操作如下命令:

复制代码
[root@hadoop102 kafka_2.12-3.0.0]# bin/kafka-server-stop.sh

--end--

相关推荐
云老大TG:@yunlaoda36013 小时前
如何使用华为云国际站代理商的FunctionGraph进行事件驱动的应用开发?
大数据·数据库·华为云·云计算
yiersansiwu123d13 小时前
生成式AI重构内容生态,人机协同定义创作新范式
大数据·人工智能·重构
老蒋新思维13 小时前
创客匠人:从个人IP到知识变现,如何构建可持续的内容生态?
大数据·网络·人工智能·网络协议·tcp/ip·创客匠人·知识变现
Sui_Network14 小时前
Mysten Labs 与不丹王国政府的创新与技术部携手探索离线区块链
大数据·人工智能·web3·去中心化·区块链
互联科技报14 小时前
GEO优化工具、AI搜索引擎优化软件平台实测报告:四大平台深度体验与选型指南
大数据·人工智能·搜索引擎
递归尽头是星辰14 小时前
AI 驱动的报表系统:从传统到智能的落地与演进
大数据·人工智能·大模型应用·spring ai·ai 报表·报表智能化
cetcht888814 小时前
35kV-750kV 变电站集中监控系统(涵盖火灾消防、安全防卫、动环、智能锁控、智能巡视等) 设备配置与布置
大数据·运维·物联网·机器人·能源
Elastic 中国社区官方博客14 小时前
通过 Elasticsearch 中的 function score query 按利润和受欢迎程度提升电商搜索效果
大数据·数据库·elasticsearch·搜索引擎·全文检索
Data-Miner15 小时前
165页满分PPT | 某商贸企业数字化蓝图整体规划方案
大数据
CES_Asia15 小时前
政策x技术x市场:三位一体推动机器人产业爆发
大数据·人工智能·科技·机器人