本地环境下运行Spark程序

1. 前言

终于又有实际的大数据计算业务功能开发了,是对一个以前用SpringBoot来处理Elasticsearch集群上的日志数据的计算程序,这个程序的最大问题就是单进程内存会达到几十G,直到最后运行在中途出现OutOfMemoryError而崩溃掉,毕竟用SpringBoot来实现分布式计算是有难度的,而且Spark框架已经帮我们实现了一切,非常稳定高效,何必自己再去造轮子呢。

2. 环境配置

2.1 解决找不到winutils.exe

在本地eclipse环境里运行Spark程序,需要Hadoop windows环境,不然会报错:

java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

这是因为我们确实没有本地的winutils.exe,那么就配置一个,直接访问GitHub - steveloughran/winutils: Windows binaries for Hadoop versions (built from the git commit ID used for the ASF relase) 按github常规copy它的url,在命令行窗口执行:

git clone https://github.com/steveloughran/winutils.git

成功则得到一个winutils目录,cd ./winutils/, 里面有很多hadoop版本目录,由于我采用hadoop-2.10.0,而这里2.x最大版本是hadoop-2.8.3,故选择它,我的最终目录是:

D:\app\hadoop\winutils\hadoop-2.8.3

在代码入口main()方法下加一行:

java 复制代码
	public static void main(String[] args) {
    	logger.info("spark execute begin...........");
    	System.setProperty("hadoop.home.dir", "D:\\app\\hadoop\\winutils\\hadoop-2.8.3");
 

2.2 解决master URL设置问题

上面问题处理好之后,我们再次执行,还是会报错:

复制代码
A master URL must be set in your configuration

我们在入口main()所在类文件上单击右键:

Run As --> Run Configurations --> Arguments --> VM arguments下输入:

-Dspark.master=local[*]

点"Apply"保存,然后点"Run"执行,终于程序跑起来,从Elasticsearch读取日志数据,最后把计算结果再次写入Elasticsearch里另外一个索引。

3. 后记

Spark程序还是比较好调测的,在面对亿级以上的数据分析时,不建议用SpringBoot框架来写schduler模式的后台处理程序解决问题,那不是SpringBoot擅长的,建议用Spark框架来批处理这种数据分析问题,你会发现代码行少得多,分布式多进程多线程问题不用我们去手工解决。

相关推荐
代码匠心19 小时前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康3 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
茶杯梦轩3 天前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
IvanCodes3 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康4 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯5 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
字节跳动数据平台5 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康5 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive