aspark 配置2

编写Hadoop集群启停脚本

1.建立新文件,编写脚本程序

在hadoop101中操作,在/root/bin下新建文件:myhadoop,输入如下内容:

2.分发执行权限

保存后退出,然后赋予脚本执行权限

root@hadoop101 \~\]$ chmod +x /root/bin/myhadoop 像下图这样查看显示绿色即代表成功!![](https://i-blog.csdnimg.cn/direct/9bb1ef025d4e40ab940180e33f5f1e9e.png) 3.分发脚本 \[root@hadoop101 \~\]$ xsync /root/bin/![](https://i-blog.csdnimg.cn/direct/851fc81abc144d87ac2ab1543afc1870.png) 4.测试执行 分配完成后可在其他设备上关闭myhadoop![](https://i-blog.csdnimg.cn/direct/0386149eab654b4c9fadf10d8e56824a.png) 启动命令:\[root@hadoop100 sbin\]# myhadoop start 关闭命令:\[root@hadoop100 sbin\]# myhadoop stop

相关推荐
D愿你归来仍是少年1 天前
Apache Spark 第六章:执行计划与 DAG 调度
大数据·spark
Hello.Reader1 天前
PySpark DataFrame 快速入门创建、查询、分组、读写、SQL 实战一篇讲透
数据库·sql·spark
D愿你归来仍是少年1 天前
Apache Spark 第五章:Spark SQL 与 DataFrame
大数据·spark
D愿你归来仍是少年3 天前
Apache Spark 第 3 章:核心概念 RDD / DataFrame
大数据·spark·apache
Hello.Reader3 天前
PySpark 安装保姆级教程pip、Conda、手动安装、Spark Connect 一次讲透(一)
python·spark·conda·pip
Light603 天前
SPARK Agent Protocol(SAP):AI Agent时代的前端开发革命指南
大数据·人工智能·spark
D愿你归来仍是少年3 天前
Apache Spark 第 4 章:Spark 整体架构
spark·apache
datablau国产数据库建模工具3 天前
【无标题】
大数据·数据挖掘·spark
yumgpkpm3 天前
Apache Spark 和 Flink,处理实时大数据流对比(Cloudera CDH、CDP)
flink·spark·apache
D愿你归来仍是少年4 天前
Apache Spark 从入门到精通:完整学习指南
大数据·spark