学习Spark遇到的问题

1.【报错】AttributeError: 'SparkContext' object has no attribute 'setcheckpointDir'

本人传参:

python 复制代码
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)
    # 1.告知spark,开启CheckPoint功能
    sc.setcheckpointDir("hdfs://node1:8020/output/ckp")

分析:SparkContext找不到setcheckpointDir方法,参数传参错误

解决:将setcheckpointDir改成setCheckpointDir,其中c字母大写。是因为两个方法的传参不同导致

updateTime:2024-01-23

相关推荐
火龙谷2 小时前
day1-部署集群
spark
火龙谷4 小时前
day3-构建数仓
spark
阿里云大数据AI技术21 小时前
迅雷基于阿里云 EMR Serverless Spark 实现数仓资源效率与业务提升
spark
伟大的大威1 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui
叫我:松哥1 天前
基于Spark智能推荐算法的农业作物推荐系统,推荐算法使用Spark ML风格推荐引擎
大数据·python·机器学习·spark-ml·spark·flask·推荐算法
是阿威啊1 天前
【用户行为归因分析项目】- 【企业级项目开发第五站】数据采集并加载到hive表
大数据·数据仓库·hive·hadoop·spark·scala
云器科技2 天前
告别Spark?大数据架构的十字路口与技术抉择
大数据·架构·spark·lakehouse·数据湖仓
云器科技2 天前
云器Lakehouse2025年03月版本发布:打造更强大、更智能、更安全的数据管理新体验
大数据·数据库·架构·spark·lakehouse
会编程的李较瘦3 天前
【期末考试总结】spark课程知识点
大数据·单例模式·spark
linweidong4 天前
Spark Shuffle的优化
大数据·分布式·spark