SparkSubmit提交任务到yarn及报错解决方案

@[TOC]

一、提交任务代码

java 复制代码
@Override
    public Response submitApplication(String[] args) throws IOException, InterruptedException {
        log.info("spark任务传入参数args:{}", args);
        args[0] = args[0].replace("}}", "} }").replace("{{", "{ {");
        SparkLauncher  handle = new SparkLauncher()
                .setAppResource(sparkJars)	//jar位置,可以是本地可以是hdfs上地址
                .setMainClass(sparkMainClass)	//运行主函数,项目相对路径,要带包名
                .setMaster(sparkMaster)	//举例:yarn
                .setAppName("Submit Application To Yarn")
                .setSparkHome(sparkHome)	//linux中地址,举例:/usr/hdp/3.1.0.0-78/spark2
                .setDeployMode(sparkDeployMode)	//cluster
                .setVerbose(true)
                .setConf("spark.driver.memory", sparkDriverMemory)	//1g
                .setConf("spark.executor.memory", sparkExecutorMemory)	//1g
                .setConf("spark.executor.cores", sparkExecutorCores)	//1
                .setVerbose(true)
                .addAppArgs(args[0]);
        handle.startApplication(new SparkAppHandle.Listener() {
            //这里监听任务状态,当任务结束时(不管是什么原因结束),isFinal()方法会返回true,否则返回false
            @Override
            public void stateChanged(SparkAppHandle sparkAppHandle) {
                if (sparkAppHandle.getState().isFinal()) {
                    System.out.println("============stateChanged-getAppId:" + sparkAppHandle.getAppId());
                }
                System.out.println("getState:" + sparkAppHandle.getState().toString());
            }
            @Override
            public void infoChanged(SparkAppHandle sparkAppHandle) {
                System.out.println("============infoChanged-getAppId:" + sparkAppHandle.getAppId());              
                }
            }
        });
        System.out.println("**********************The task is finished!");

        return Response.success();
    }

说明: 1)windows下无法运行,必须在linux中进行提交 2)这段代码必须在yarn所在linux服务器上运行,不然标识符.setMaster("yarn"),不认识 3)这种方式如果在运行中想获得appId,只能在infoChanged中获得或者在stateChanged方法中代表当任务结束后获得,当然推荐使用前者

二、Linux提交可能出现的问题及解决方案

情况1:JSON解析异常

出错原因:spark命令提交参数json,到另一个jar发现{{或者}}消失了,导致解析异常

解决方案:blog.csdn.net/u010814849/... 双括号间+空格

情况2:java.lang.InstantiationException spark.sql.driver

出错原因:spark操作mysql数据库缺少驱动

解决方案: Properties对象设置props.put("driver", "com.mysql.jdbc.Driver");

情况3 中kafka:java.lang.NoClassDefFoundError: org/apache/kafka/clients/producer/Callback

出错原因:运行spark jar(也就是普通maven jar或者java jar,而不是springboot jar)期缺少jar包,问题出在maven程序打包没把依赖打进去

解决方案:添加打包插件指定打入依赖jar

java 复制代码
<plugin>
    <artifactId>maven-assembly-plugin</artifactId>
    <configuration>
        <descriptorRefs>
            <descriptorRef>jar-with-dependencies</descriptorRef>
        </descriptorRefs>
    </configuration>
    <executions>
        <execution>
            <id>make-assembly</id>
            <phase>package</phase>
            <goals>
                <goal>single</goal>
            </goals>
        </execution>
    </executions>
</plugin>

情况4 idea启动报错:Connection to node -1 could not be established. Broker may not be available

出错原因:指定bootstrap-servers前面多了空格,导致层级目录出错,也就是说application.yml文件由于复杂导致多添加 "空格",造成缩进格式混乱,这点尤其注意

解决方案:

情况5中kafka: Caused by: java.nio.channels.UnresolvedAddressException master:8080

出错原因:ip映射没修改对,导致不认识master,因为我们采用ambari安装的kafka,初始化为:localhost:6667,所以必须把"localhost" -》"IP"

解决方案:如果是ambari安装的kafka修改cinfig下面的,如果是自己linux搭建的,需改动kafka下的cinfig下的server.properties,把PLAINTEXT://localhost:6667 -》 改为PLAINTEXT://192.168.20.91:6667

重要信息

相关推荐
Iawfy226 分钟前
Pytorch中矩阵乘法使用及案例
人工智能·pytorch·矩阵
訾博ZiBo7 分钟前
AI日报 - 2025年3月15日
人工智能
紫雾凌寒12 分钟前
计算机视觉|首次写入政府工作报告!这个科技新词“具身智能”到底是什么?
人工智能·计算机视觉·cnn·transformer·具身智能·ei
cnbestec1 小时前
IXTUR气控永磁铁:以高精度气控和稳定磁场,为机器人应用提供稳定抓取力
人工智能·机器人·欣佰特
S181517004861 小时前
美发行业的数字化转型:从痛点出发,探索未来新机遇
大数据·人工智能·经验分享·笔记·科技
静心问道1 小时前
LLaMA:开放且高效的基础语言模型
人工智能·语言模型·llama
猎人everest1 小时前
机器学习之线性代数
人工智能·线性代数·机器学习
galaxylove3 小时前
Gartner发布中国CIO和安全团队生成式AI指南:制定人工智能安全治理计划的五个阶段
人工智能·安全
树莓集团3 小时前
树莓集团落子海南,如何重构数字产业生态体系
人工智能·重构