头歌:Spark任务提交

第1关:spark-submit提交

任务描述

相关知识

spark-submit参数

计算圆周率

编程要求

测试说明

任务描述

本关任务:学会将程序提交到集群上执行。

相关知识

为了完成本关任务,你需要掌握:1.了解spark-submit的参数。2.学会提交Spark程序在集群运行。

课程视频《spark-submit提交》

spark-submit参数

使用格式:

复制代码
./bin/spark-submit
  --class
  --master
  --deploy-mode
  --conf
  ... # other options
  application-jar

计算圆周率

复制代码
cd /opt/spark/dist/bin
./spark-submit 
--master local 
--class org.apache.spark.examples.SparkPi
/opt/spark/dist/examples/jars/spark-examples_2.11-2.2.0.jar
./spark-submit --master 本地模式 --class 程序运行的主类名 xxx.jar 

编程要求

根据提示,在右侧编辑器补充代,将程序提交到spark上执行。

测试说明

平台会对你编写的代码进行测试:

jar包所在位置:

/root/project.jar

(点击测评的时候root目录下会有project.jar)

主类:Student

提交模式:local

预期输出:

(bj,88)(sh,67)(gz,92).

复制代码
#!/bin/bash

cp -r  Spark/SparkRDD/target/project.jar /root
cd /opt/spark/dist/bin
#********** Begin **********#

./spark-submit \
--master local \
--class Student \
/root/project.jar


#********** End **********#

这段脚本首先将 project.jar 复制到 /root 目录下,然后切换到 /opt/spark/dist/bin 目录。在 begin 和 end 之间,使用 spark-submit 命令提交 Spark 程序,其中 --master local 指定了本地模式,--class Student 指定了主类为 Student,最后指定了 jar 包的路径为 /root/project.jar。

相关推荐
Lx3522 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康5 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g6 小时前
Flink KeySelector
大数据·后端·flink
Seven977 小时前
剑指offer-31、整数中1出现的次数
redis
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
努力的小郑1 天前
从一次分表实践谈起:我们真的需要复杂的分布式ID吗?
分布式·后端·面试
武子康1 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
AAA修煤气灶刘哥2 天前
别让Redis「歪脖子」!一次搞定数据倾斜与请求倾斜的捉妖记
redis·分布式·后端
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据