python与PySpark

1、Spark是Apache基金会 下的顶级开源项目,用于对海量数据经行大规模的分布式技术;

2、P有Spark是Spark的python实现,用于python中完成Spark的任务开发;

3、安装:可通过cmd终端进行安装

复制代码
pip install PySpark

也可以通过国内镜像网站,

复制代码
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pyspark

3、执行一个简答的程序进行验证

复制代码
# 导入 PySpark 相关包
from pyspark import SparkConf, SparkContext


conf =SparkConf().setMaster("local[*]").setAppName("test_spark_app") # 创建SparkConf对象
 # 基于SparkConf对象创建sparkcontext对象,
sc=SparkContext(conf=conf)

#打印pyspark的版本
print(sc.version)
sc.stop()

如果出现乱码,可能是jdk的问题,或者是编码问题

相关推荐
sheji341610 分钟前
【开题答辩全过程】以 基于Java的旅游网站的设计与开发为例,包含答辩的问题和答案
java·开发语言·旅游
yue00828 分钟前
C# XML文件的读写V2.0
xml·开发语言·c#
SweetCode31 分钟前
C++ 实现大数加法
开发语言·c++·算法
Nan_Shu_61434 分钟前
学习:JavaScript(5)
开发语言·javascript·学习
像风一样自由20201 小时前
Rust与Python完全指南:从零开始理解两门语言的区别与关系
开发语言·python·rust
stay_alive.1 小时前
C++ 四种类型转换
开发语言·c++
房开民1 小时前
RKNN-Toolkit2入门
python
喜欢吃燃面2 小时前
C++:哈希表
开发语言·c++·学习
mit6.8242 小时前
[C++] 时间处理库函数 | `tm`、`mktime` 和 `localtime`
开发语言·c++