python与PySpark

1、Spark是Apache基金会 下的顶级开源项目,用于对海量数据经行大规模的分布式技术;

2、P有Spark是Spark的python实现,用于python中完成Spark的任务开发;

3、安装:可通过cmd终端进行安装

pip install PySpark

也可以通过国内镜像网站,

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pyspark

3、执行一个简答的程序进行验证

# 导入 PySpark 相关包
from pyspark import SparkConf, SparkContext


conf =SparkConf().setMaster("local[*]").setAppName("test_spark_app") # 创建SparkConf对象
 # 基于SparkConf对象创建sparkcontext对象,
sc=SparkContext(conf=conf)

#打印pyspark的版本
print(sc.version)
sc.stop()

如果出现乱码,可能是jdk的问题,或者是编码问题

相关推荐
药尘师几秒前
java集合工具类
java·开发语言·python
玉成2261 分钟前
java基础学习:序列化之 - ObjectMapper
java·python·学习
无尽的罚坐人生3 分钟前
关于java的反射
java·开发语言·python
NLP工程化8 分钟前
Dify中的RAG和知识库
python·django·dify·rag
油丶酸萝卜别吃21 分钟前
前端数据加密,后端java解密
java·开发语言·前端
爱水的鱼110128 分钟前
stm32出现hardfault-自动化分析map文件
开发语言·前端·javascript
恰小面包36 分钟前
wxml与标准的html的异同
开发语言·前端·小程序
深度学习lover39 分钟前
<数据集>UA-DETRAC车辆识别数据集<目标检测>
人工智能·python·yolo·目标检测·计算机视觉
码农超哥同学1 小时前
Python面试题:在 Python 中,如何实现一个 LRU(最近最少使用)缓存?
开发语言·python·缓存·面试·编程
一杯梅子酱1 小时前
学Java JVM:全面解析Java虚拟机
java·开发语言·jvm