hadoop 编写开启关闭集群脚本, hadoop hdfs,yarn开启关闭脚本。傻瓜式hadoop脚本 hadoop(九)

  1. 三台机器: hadoop22, hadoop23, hadoop24

  2. hdfs在22机器启动,yarn在hadoop23机器

  3. 脚本需要hadoop用户启动才可以

  4. 脚本必须在hadoop22机器运行。如果想在所有机器都能运行,你可以自己修改脚本

  5. 脚本:

bash 复制代码
#!/bin/bash
 
HADOOP_PATH="/opt/module/hadoop-3.3.4"

# 检查脚本执行用户是否为 hadoop
if [ "$(whoami)" != "hadoop" ]; then
    echo "错误: 该脚本需要以 hadoop 用户身份执行"
    exit 1
fi

# 检查输入参数
if [ "$#" -ne 1 ]; then
    echo "使用方法: $0 <start|stop>"
    exit 1
fi
 
function start_cluster() {

		echo "****************************************************************"
		echo "*                                                              *"
		echo "***********************启动hadoop集群.**************************"
		echo "*                                                              *"
		echo "****************************************************************"

		cd $HADOOP_PATH
		sbin/start-dfs.sh
		echo "已启动hdf."
		ssh -T hadoop23 << EOF
		cd "$HADOOP_PATH"
		sbin/start-yarn.sh
		echo "已启动yarn."
		exit
EOF

}
 
function stop_cluster() {

		echo "****************************************************************"
		echo "*                                                              *"
		echo "***********************关闭hadoop集群.**************************"
		echo "*                                                              *"
		echo "****************************************************************"

		cd $HADOOP_PATH
		sbin/stop-dfs.sh
		echo "已关闭hdf."
		ssh -T hadoop23 << EOF
		cd "$HADOOP_PATH"
		sbin/stop-yarn.sh
		echo "已关闭yarn."
		exit
EOF
		
}
 
# 判断输入参数是start还是stop
case "$1" in
	"start")
		start_cluster
		;;
	"stop")
		stop_cluster
		;;
	*)
		echo "未知操作:$1"
		exit 1
		;;
esac
  1. 含有历史服务器的:
bash 复制代码
#!/bin/bash
 
HADOOP_PATH="/opt/module/hadoop-3.3.4"

# 检查脚本执行用户是否为 hadoop
if [ "$(whoami)" != "hadoop" ]; then
    echo "错误: 该脚本需要以 hadoop 用户身份执行"
    exit 1
fi

# 检查输入参数
if [ "$#" -ne 1 ]; then
    echo "使用方法: $0 <start|stop>"
    exit 1
fi
 
function start_cluster() {

		echo "****************************************************************"
		echo "*                                                              *"
		echo "***********************启动hadoop集群.**************************"
		echo "*                                                              *"
		echo "****************************************************************"

		cd $HADOOP_PATH
		sbin/start-dfs.sh
		echo "已启动hdf."
		ssh -T hadoop23 << EOF
		cd "$HADOOP_PATH"
		sbin/start-yarn.sh
		echo "已启动yarn."
		exit
EOF
		bin/mapred --daemon start historyserver
		echo "已启动historysever."

}
 
function stop_cluster() {

		echo "****************************************************************"
		echo "*                                                              *"
		echo "***********************关闭hadoop集群.**************************"
		echo "*                                                              *"
		echo "****************************************************************"

		cd $HADOOP_PATH
		
		bin/mapred --daemon stop historyserver
		echo "已关闭historysever."
		
		sbin/stop-dfs.sh
		echo "已关闭hdf."

		ssh -T hadoop23 << EOF
		cd "$HADOOP_PATH"
		sbin/stop-yarn.sh
		echo "已关闭yarn."
		exit
EOF
		
}
 
# 判断输入参数是start还是stop
case "$1" in
	"start")
		start_cluster
		;;
	"stop")
		stop_cluster
		;;
	*)
		echo "未知操作:$1"
		exit 1
		;;
esac
相关推荐
武子康19 分钟前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台21 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康2 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天2 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
武子康4 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康5 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP6 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库6 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全