aspark 配置2

编写Hadoop集群启停脚本

1.建立新文件,编写脚本程序

在hadoop101中操作,在/root/bin下新建文件:myhadoop,输入如下内容:

2.分发执行权限

保存后退出,然后赋予脚本执行权限

root@hadoop101 \~\]$ chmod +x /root/bin/myhadoop 像下图这样查看显示绿色即代表成功!![](https://i-blog.csdnimg.cn/direct/9bb1ef025d4e40ab940180e33f5f1e9e.png) 3.分发脚本 \[root@hadoop101 \~\]$ xsync /root/bin/![](https://i-blog.csdnimg.cn/direct/851fc81abc144d87ac2ab1543afc1870.png) 4.测试执行 分配完成后可在其他设备上关闭myhadoop![](https://i-blog.csdnimg.cn/direct/0386149eab654b4c9fadf10d8e56824a.png) 启动命令:\[root@hadoop100 sbin\]# myhadoop start 关闭命令:\[root@hadoop100 sbin\]# myhadoop stop

相关推荐
不辉放弃16 小时前
Spark的累加器(Accumulator)
大数据·数据库·spark
梦想养猫开书店16 小时前
36、spark-measure 源码修改用于数据质量监控
大数据·分布式·spark
码界筑梦坊1 天前
91-基于Spark的空气质量数据分析可视化系统
大数据·python·数据分析·spark·django·numpy·pandas
linweidong1 天前
深入剖析 Spark Shuffle 机制:从原理到实战优化
大数据·分布式·spark·spark sql·数据开发·shuffle·数据倾斜
道一云黑板报2 天前
Spark初探:揭秘速度优势与生态融合实践
大数据·分布式·spark·流式处理
WJ.Polar2 天前
Python与Spark
大数据·分布式·spark
喻师傅2 天前
Spark SQL 数组函数合集:array_agg、array_contains、array_sort…详解
大数据·hadoop·分布式·sql·spark
明天好,会的4 天前
从Spark/Flink到WASM:流式处理框架的演进与未来展望
flink·spark·wasm
IvanCodes6 天前
三、Spark 运行环境部署:全面掌握四种核心模式
大数据·分布式·spark
喻师傅7 天前
SparkSQL 子查询 IN/NOT IN 对 NULL 值的处理
大数据·spark