学习Spark遇到的问题

1.【报错】AttributeError: 'SparkContext' object has no attribute 'setcheckpointDir'

本人传参:

python 复制代码
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    # 1.告知spark,开启CheckPoint功能
    sc.setcheckpointDir("hdfs://node1:8020/output/ckp")

分析:SparkContext找不到setcheckpointDir方法,参数传参错误

解决:将setcheckpointDir改成setCheckpointDir,其中c字母大写。是因为两个方法的传参不同导致

updateTime:2024-01-23

相关推荐
搞数据的小杰1 天前
spark广播表大小超过Spark默认的8GB限制
大数据·数据库·分布式·spark
isNotNullX1 天前
数据怎么分层?从ODS、DW、ADS三大层一一拆解!
大数据·开发语言·数据仓库·分布式·spark
一切顺势而行1 天前
flink 和 spark 架构的对比
架构·flink·spark
线条12 天前
Spark 单机模式安装与测试全攻略
大数据·分布式·spark
贝塔西塔4 天前
PySpark中python环境打包和JAR包依赖
大数据·开发语言·python·spark·jar·pyspark
抛砖者5 天前
hive/spark sql中unix_timestamp 函数的坑以及时间戳相关的转换
hive·sql·spark
isNotNullX7 天前
数据中台架构解析:湖仓一体的实战设计
java·大数据·数据库·架构·spark
暗影八度9 天前
Spark流水线数据质量检查组件
大数据·分布式·spark
涤生大数据10 天前
Apache Spark 4.0:将大数据分析提升到新的水平
数据分析·spark·apache·数据开发