aspark 配置2

编写Hadoop集群启停脚本

1.建立新文件,编写脚本程序

在hadoop101中操作,在/root/bin下新建文件:myhadoop,输入如下内容:

2.分发执行权限

保存后退出,然后赋予脚本执行权限

root@hadoop101 \~\]$ chmod +x /root/bin/myhadoop 像下图这样查看显示绿色即代表成功!![](https://i-blog.csdnimg.cn/direct/9bb1ef025d4e40ab940180e33f5f1e9e.png) 3.分发脚本 \[root@hadoop101 \~\]$ xsync /root/bin/![](https://i-blog.csdnimg.cn/direct/851fc81abc144d87ac2ab1543afc1870.png) 4.测试执行 分配完成后可在其他设备上关闭myhadoop![](https://i-blog.csdnimg.cn/direct/0386149eab654b4c9fadf10d8e56824a.png) 启动命令:\[root@hadoop100 sbin\]# myhadoop start 关闭命令:\[root@hadoop100 sbin\]# myhadoop stop

相关推荐
麻芝汤圆2 小时前
在 Sheel 中运行 Spark:开启高效数据处理之旅
大数据·前端·javascript·hadoop·分布式·ajax·spark
Eternity......3 小时前
如何在idea中写spark程序
大数据·spark
lix的小鱼3 小时前
在sheel中运行Spark
大数据·分布式·spark
Aaaa小嫒同学3 小时前
spark local模式
大数据·分布式·spark
猪猪果泡酒4 小时前
Spark,配置历史服务
大数据·分布式·spark
anqi274 小时前
在sheel中运行Spark
大数据·开发语言·分布式·后端·spark
乌恩大侠5 小时前
【东枫科技】代理销售 NVIDIA DGX Spark 您的桌上有一台 Grace Blackwell AI 超级计算机。
大数据·人工智能·科技·spark·nvidia
计算机人哪有不疯的14 小时前
如何搭建spark yarn模式集群的集群
大数据·分布式·spark
Freedom℡16 小时前
如何在idea中写spark程序。
spark
6.9418 小时前
Spark,配置hadoop集群1
java·hadoop·spark