spark无法执行pi_如何验证spark搭建完毕

在配置yarn环境下的spark时,执行尚硅谷的以下命令发现报错,找不到这个也找不到那个,尚硅谷的代码是

python 复制代码
bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10

正确代码是:

python 复制代码
bin/spark-submit --master yarn --deploy-mode client --class org.apache.spark.examples.SparkPi /opt/module/spark-yarn/examples/jars/spark-examples_*.jar 10

去hadoop103::8088查看:

相关推荐
小鸡脚来咯5 小时前
Git 新手入门指南
大数据·git·elasticsearch
说私域8 小时前
基于AI智能名片链动2+1模式服务预约商城系统的社群运营与顾客二次消费吸引策略研究
大数据·人工智能·小程序·开源·流量运营
敏叔V58711 小时前
联邦学习与大模型:隐私保护下的分布式模型训练与微调方案
分布式
塔能物联运维12 小时前
隧道照明“智能进化”:PLC 通信 + AI 调光守护夜间通行生命线
大数据·人工智能
highly200912 小时前
Gitflow
大数据·elasticsearch·搜索引擎
短剑重铸之日12 小时前
《7天学会Redis》特别篇: Redis分布式锁
java·redis·分布式·后端·缓存·redission·看门狗机制
humors22113 小时前
韩秀云老师谈买黄金
大数据·程序人生
重生之绝世牛码13 小时前
Linux软件安装 —— SSH免密登录
大数据·linux·运维·ssh·软件安装·免密登录
StarChainTech13 小时前
无人机租赁平台:开启智能租赁新时代
大数据·人工智能·微信小程序·小程序·无人机·软件需求
Hello.Reader13 小时前
Flink DynamoDB Connector 用 Streams 做 CDC,用 BatchWriteItem 高吞吐写回
大数据·python·flink