spark-本地模式的配置和简单使用

python环境的安装

在虚拟机中,只能安装一个python的版本,若想要安装别的版本,则需要卸载之前的版本------解决方式,安装Anaconda

通过百度网盘分享的文件:Anaconda3-2021.05-Linux-x86_64.sh

链接:https://pan.baidu.com/s/1e3rvqD0G7eSEP_7di8uzxQ?pwd=do8s

提取码:do8s

复制代码
1、上传Anaconda3-2021.05-Linux-x86_64.sh 到/opt/installs下
2、执行文件:
    sh Anaconda3-2021.05-Linux-x86_64.sh
3、开始安装
# 过程
    #第一次:【直接回车,然后按q】
       Please, press ENTER to continue
       >>>
    #第二次:【输入yes】
     Do you accept the license terms? [yes|no]
     [no] >>> yes
    #第三次:【输入解压路径:/opt/installs/anaconda3】
     [/root/anaconda3] >>> /opt/installs/anaconda3
     #第四次:【输入yes,是否在用户的.bashrc文件中初始化
    Anaconda3的相关内容】
     Do you wish the installer to initialize  Anaconda3
       by running conda init? [yes|no]
       [no] >>> yes
4、刷新环境变量
    source /root/.bashrc
5、激活虚拟环境,如果需要关闭就使用:conda deactivate

# 默认会进入 base中 或者在后面加参数
conda activate 


# 配置成功 会出现
(base) [root@bigdata01 modules]#

6、此时Anaconda已经下载完成 而在Anaconda中自带了一个python3------3.8.8
    #可以看一下
    cd /opt/installs/anaconda3/bin/python3
    # 而linux中自带的python是2.7.5 
7、创建软连接
ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3

Anaconda 的命令

复制代码
conda list:列举所有的包
conda install 包名:安装库包
conda remove 包名:移除库包

base:Anaconda自带的基础环境
# 切换
conda activate base
# 关闭
conda deactivate

spark本地模式的配置

通过百度网盘分享的文件:spark-3.1.2-bin-hadoop3.2.tgz

链接:https://pan.baidu.com/s/1J2-d_qEubjcAXq_8LYi_hA?pwd=sgtm

提取码:sgtm

由于需要进行本地模式 集群-standalone 集群-yarn 三种模式的配置,所以后续是需要将该解压包解压三次的,通过创建软连接连接到不同的模式,若要修改只需要删除软连接,重新创建即可。

复制代码
1、上传(上传到/opt/modules 下),解压(解压到/opt/installs 下),重命名
tar -zxvf /opt/install/spark-3.1.2-bin-hadoop3.2.tgz -C /opt/modules
mv spark-3.1.2-bin-hadoop3.2/ spark-local
2、创建一个软连接
ln -s spark-local spark
3、配置环境变量 vi /etc/profile
export SPARK_HOME=/opt/installs/spark
export PATH=$PATH:$SPARK_HOME/bin
4、刷新环境变量
source /etc/profile

本地模式的简单使用

运行自带或上传的py文件

复制代码
spark-submit --master local[2] /opt/installs/spark/examples/src/main/python/pi.py  100

黑窗口的使用

复制代码
/opt/installs/spark/bin/pyspark --master local[2]

此时会进入一个黑窗口

复制代码
# 需求:将一个包含 1~ 10 共10个元素的列表,使用Spark实现分布式处理,将每个元素的平方输出

# 1、定义一个列表
list1 = [1,2,3,4,5,6,7,8,9,10]
# 2、将列表通过SparkContext将数据转换为一个分布式集合RDD------将一个list变为Rdd对象
inputRdd = sc.parallelize(list1)

# 获取行数 10行
inputRdd.count()
# 获取前n行的内容 ,放到一个list中,每行占一个
fileRdd.take(3)

# 调用Rdd中的map方法 返回还是一个Rdd 
rsRdd = inputRdd.map(lambda x : x**2)

# 将结果RDD的每个元素进行输出
rsRdd.foreach(lambda x : print(x))
相关推荐
是有头发的程序猿3 分钟前
Python爬虫实战:面向对象编程在淘宝商品数据抓取中的应用
开发语言·爬虫·python
哈哈哈笑什么6 分钟前
蜜雪冰城1分钱奶茶秒杀活动下,使用分片锁替代分布式锁去做秒杀系统
redis·分布式·后端
智元视界11 分钟前
农业AI化:如何让一台无人机懂得“看天种地”?
大数据·人工智能·prompt·无人机·数字化转型·产业升级
萑澈17 分钟前
Windows系统Anaconda/Miniconda的安装、配置、基础使用、清理缓存空间和Pycharm/VSCode配置指南
python
Deepoch24 分钟前
Deepoc-M 破局:半导体研发告别试错内耗
大数据·人工智能·数学建模·半导体·具身模型·deepoc
Onebound_Ed35 分钟前
Python爬虫进阶:面向对象设计构建高可维护的1688商品数据采集系统
开发语言·爬虫·python
阿蔹1 小时前
JavaWeb-Selenium 配置以及Selenim classnotfound问题解决
java·软件测试·python·selenium·测试工具·自动化
金融小师妹1 小时前
基于NLP政策信号解析的联邦基金利率预测:美银动态调整12月降息概率至88%,2026年双降路径的强化学习模拟
大数据·人工智能·深度学习·1024程序员节
哈哈哈笑什么1 小时前
高并发分布式Springcloud系统下,使用RabbitMQ实现订单支付完整闭环的实现方案(反向撤销+重试+补偿)
分布式·spring cloud·rabbitmq
万粉变现经纪人1 小时前
如何解决 pip install 代理报错 407 Proxy Authentication Required 问题
windows·python·pycharm·beautifulsoup·bug·pandas·pip