spark无法执行pi_如何验证spark搭建完毕

在配置yarn环境下的spark时,执行尚硅谷的以下命令发现报错,找不到这个也找不到那个,尚硅谷的代码是

python 复制代码
bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10

正确代码是:

python 复制代码
bin/spark-submit --master yarn --deploy-mode client --class org.apache.spark.examples.SparkPi /opt/module/spark-yarn/examples/jars/spark-examples_*.jar 10

去hadoop103::8088查看:

相关推荐
数据智能老司机3 小时前
CockroachDB权威指南——CockroachDB SQL
数据库·分布式·架构
数据智能老司机3 小时前
CockroachDB权威指南——开始使用
数据库·分布式·架构
你觉得2054 小时前
哈尔滨工业大学DeepSeek公开课:探索大模型原理、技术与应用从GPT到DeepSeek|附视频与讲义下载方法
大数据·人工智能·python·gpt·学习·机器学习·aigc
数据智能老司机4 小时前
CockroachDB权威指南——CockroachDB 架构
数据库·分布式·架构
啊喜拔牙4 小时前
1. hadoop 集群的常用命令
java·大数据·开发语言·python·scala
IT成长日记4 小时前
【Kafka基础】Kafka工作原理解析
分布式·kafka
别惊鹊4 小时前
MapReduce工作原理
大数据·mapreduce
8K超高清4 小时前
中国8K摄像机:科技赋能文化传承新图景
大数据·人工智能·科技·物联网·智能硬件
2401_871290586 小时前
MapReduce 的工作原理
大数据·mapreduce
州周6 小时前
kafka副本同步时HW和LEO
分布式·kafka