aspark 配置2

编写Hadoop集群启停脚本

1.建立新文件,编写脚本程序

在hadoop101中操作,在/root/bin下新建文件:myhadoop,输入如下内容:

2.分发执行权限

保存后退出,然后赋予脚本执行权限

root@hadoop101 \~\]$ chmod +x /root/bin/myhadoop 像下图这样查看显示绿色即代表成功!![](https://i-blog.csdnimg.cn/direct/9bb1ef025d4e40ab940180e33f5f1e9e.png) 3.分发脚本 \[root@hadoop101 \~\]$ xsync /root/bin/![](https://i-blog.csdnimg.cn/direct/851fc81abc144d87ac2ab1543afc1870.png) 4.测试执行 分配完成后可在其他设备上关闭myhadoop![](https://i-blog.csdnimg.cn/direct/0386149eab654b4c9fadf10d8e56824a.png) 启动命令:\[root@hadoop100 sbin\]# myhadoop start 关闭命令:\[root@hadoop100 sbin\]# myhadoop stop

相关推荐
百度Geek说2 小时前
搜索数据建设系列之数据架构重构
数据仓库·重构·架构·spark·dubbo
大数据CLUB10 小时前
基于spark的航班价格分析预测及可视化
大数据·hadoop·分布式·数据分析·spark·数据可视化
Cachel wood10 天前
Spark教程6:Spark 底层执行原理详解
大数据·数据库·分布式·计算机网络·spark
大数据CLUB10 天前
基于pyspark的北京历史天气数据分析及可视化_离线
大数据·hadoop·数据挖掘·数据分析·spark
Cachel wood10 天前
Spark教程1:Spark基础介绍
大数据·数据库·数据仓库·分布式·计算机网络·spark
张昕玥2023032211910 天前
Spark应用开发--WordCount实战
大数据·spark
阳光下是个孩子10 天前
基于 Spark 实现 COS 海量数据处理
大数据·分布式·spark
GawynKing10 天前
Apache SeaTunnel Spark引擎执行流程源码分析
spark·源码·seatunnel
heart000_111 天前
大数据≠大样本:基于Spark的特征降维实战(提升10倍训练效率)
大数据·分布式·spark
254054652011 天前
710SJBH基于Apriori算法的学籍课程成绩关联规则挖掘研究
大数据·算法·spark