大数据E10:基于Spark和Scala编程解决一些基本的数据处理和统计分析,去重、排序等

实验10:Spark基础编程2

  • 实验目的
  1. 通过实验掌握基Scala的Spark编程方法;
  2. 掌握基于Spark和Scala编程解决一些基本的数据处理和统计分析,去重、排序等;
  • 实验要求
  1. 掌握Spark基于Scala编写应用程序的方法;
  2. 完成下面的实验内容,实现数据信息的处理分析;
  • 实验平台
  1. 操作系统:Linux(建议Ubuntu16.04或者CentOS 7 以上);
  2. Spark版本:2.4.0;
  3. Maven:3.6.3;
  4. JDK版本:1.8;
  5. Java IDE:Eclipse。
  • 实验内容、结果及分析(直接在题目后面列出实验过程、结果以及分析)

启动IntelliJ Idea并创建spark项目,导入spark的jar包到项目

  1. WordCount
  1. 在本地创建一个文本文件以**"学号sparktest** . txt" 命名,向其中各输入一个长篇英语文章,将其上传至hadoop中的分布式文件系统中**/input** / 学号文件夹中;
  1. 编写基于Spark的WordCount scala应用程序,进行单词统计并按照单词频数由大到小输出统计结果(sortBy操作,代码以截图方式呈现并标注重点代码);

2.1将22111303195shakestest.txt拷贝到项目的resources目录下。

2.2编写spark代码:

2.3 运行测试输出:

(1)打印单词统计结果:

  1. 打印单词总数:
  1. 编写pom文件;
  1. 打包应用程序并列出打包结果;

4.1部署分布式Spark应用程序

在生产环境中,Spark通常会处理存储在HDFS等分布式文件系统中的数据。Spark通常也以集群模式运行。

修改源代码如下:

打包文件

执行作业:

使用spark-submit运行我们的代码。我们需要指定主类、要运行的jar和运行模式(集群),且主机名为instance-00000868执行:

此时遇到问题:

检查:

确保端口监听:在 IP 地址 172.17.0.2 上的 7077 端口正在被监听。

解决以上问题后重新执行命令出现新问题:

解决以上问题后,运行

出现报错:

检查:

  1. 检查 Spark Master 状态:

检查结果:Spark Master 服务正在运行,并且监听在正确的端口上。

2、检查端口占用

使用 netstat 命令检查端口占用:

检查结果:端口 9000 没有被其他服务占用。

  1. 运行Word Count程序(包含Scala代码运行成功截图)
  1. 修改2)中的程序,使得单词统计按照单词出现的次数降序排序,输出统计结果(代码以截图方式呈现并标注重点代码,并附上成功运行结果截图);

运行结果:

  1. 成绩统计

每个输入文件表示班级学生某个学科的成绩,每行内容由两个字段组成,第一个是学生名字,第二个是学生的成绩;输入文件样例如下,供参考。

Algorithm.txt:

Xiaoming 92

Xiaohong 87

Xiaoxin 82

Xiaoli 90

Database.txt:

Xiaoming 95

Xiaohong 81

Xiaoxin 89

Xiaoli 85

Python.txt:

Xiaoming 82

Xiaohong 83

Xiaoxin 94

Xiaoli 91

  1. 新建三个成绩文件,并输入对应的成绩数据,将三个成绩文件上传至HDFS中**/input** / 学号文件夹中;

1.1在本地data/dataset创建文件:

1.2上传导hdfs中input/22111303195/目录,并查看:

  1. 编写 Spark Scala 独立应用程序求出所有学生以及平均成绩信息,并根据成绩降序输出统计结果,最后将统计结果存储在HDFS的**/output** / 学号 文件夹中(代码以截图方式呈现并标注重点代码,下面代码供参考使用);

本地运行输出:

  1. 打包运行程序,并列出运行结果;
  • 实验小结(问题和收获)

学习曲线:最初对 Spark 的分布式计算模型和编程模型不太熟悉,但通过实验逐渐理解了其工作原理。问题解决:在实验过程中遇到了连接和配置问题,通过查阅文档和社区支持得以解决,增强了解决问题的能力。性能优势:体会到了 Spark 在处理大规模数据时的性能优势,尤其是在分布式环境中。工具掌握:通过实验,熟悉了 spark-submit 命令的使用,以及如何在集群模式下运行 Spark 应用程序。

相关推荐
SelectDB17 小时前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康1 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes1 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康2 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
字节跳动数据平台3 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康3 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台4 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术4 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康4 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康5 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive