学习Spark遇到的问题

1.【报错】AttributeError: 'SparkContext' object has no attribute 'setcheckpointDir'

本人传参:

python 复制代码
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    # 1.告知spark,开启CheckPoint功能
    sc.setcheckpointDir("hdfs://node1:8020/output/ckp")

分析:SparkContext找不到setcheckpointDir方法,参数传参错误

解决:将setcheckpointDir改成setCheckpointDir,其中c字母大写。是因为两个方法的传参不同导致

updateTime:2024-01-23

相关推荐
guitarCC10 小时前
spark Rdd的创建方式
大数据·分布式·spark
B站计算机毕业设计超人10 小时前
计算机毕业设计hadoop+spark知网文献论文推荐系统 知识图谱 知网爬虫 知网数据分析 知网大数据 知网可视化 预测系统 大数据毕业设计 机器学习
大数据·hadoop·爬虫·机器学习·spark·知识图谱·推荐算法
月亮月亮要去太阳16 小时前
spark-scala使用与安装(一)
大数据·spark·scala
武子康1 天前
大数据-133 - ClickHouse 基础概述 全面了解
java·大数据·分布式·clickhouse·flink·spark
码爸2 天前
spark读mongodb
大数据·mongodb·spark
妙龄少女郭德纲3 天前
基于Spark框架实现XGBoost模型
大数据·分布式·spark
南斯拉夫的铁托3 天前
(PySpark)RDD实验实战——求商品销量排行
python·spark·pyspark
全栈弟弟3 天前
高级大数据开发协会
大数据·数据仓库·hadoop·flink·spark
武子康5 天前
大数据-132 - Flink SQL 基本介绍 与 HelloWorld案例
java·大数据·数据库·sql·flink·spark·scala