Spark——安装步骤详细教程

1、安装步骤

1、上传

复制代码
cd /opt/modules

2、解压

复制代码
tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C  /opt/installs

3、重命名

复制代码
cd /opt/installs
mv spark-3.1.2-bin-hadoop3.2 spark-local

4、创建软链接

复制代码
ln -s spark-local spark

5、配置环境变量:

复制代码
vi /etc/profile

export SPARK_HOME=/opt/installs/spark
export PATH=$SPARK_HOME/bin:$PATH

5、安装python

通过Anaconda 安装 ,因为这个软件不仅有python还有其他的功能,比单纯安装python功能要强大。

实现Linux机器上使用Anaconda部署Python

复制代码
conda list:列举所有的包
conda install 包名:安装库包
conda remove 包名:移除库包

安装这个软件的另一个好处:具有资源环境隔离功能,方便基于不同版本不同环境进行测试开发

进入某个环境,退出某个环境的命令:

复制代码
base:Anaconda自带的基础环境
# 切换
conda activate base
# 关闭
conda deactivate

下载链接:下载https://repo.anaconda.com/archive/

1)上传

复制代码
cd /opt/modules
  1. 安装

    添加执行权限

    chmod u+x Anaconda3-2021.05-Linux-x86_64.sh

    执行

    sh ./Anaconda3-2021.05-Linux-x86_64.sh

    过程

    #第一次:【直接回车,然后按q】
    Please, press ENTER to continue
    >>>
    #第二次:【输入yes】
    Do you accept the license terms? [yes|no]
    [no] >>> yes
    #第三次:【输入解压路径:/opt/installs/anaconda3】
    [/root/anaconda3] >>> /opt/installs/anaconda3
    #第四次:【输入yes,是否在用户的.bashrc文件中初始化
    Anaconda3的相关内容】
    Do you wish the installer to initialize Anaconda3
    by running conda init? [yes|no]
    [no] >>> yes

安装完成之后,进行环境变量的刷新

复制代码
# 刷新环境变量
source /root/.bashrc
# 激活虚拟环境,如果需要关闭就使用:conda deactivate
conda activate

输入python3 查看命令是否可用

配置环境变量:

复制代码
# 编辑环境变量
vi /etc/profile
# 添加以下内容
# Anaconda Home
export ANACONDA_HOME=/opt/installs/anaconda3
export PATH=$PATH:$ANACONDA_HOME/bin

刷新环境变量,并且做一个软链接

复制代码
# 刷新环境变量
source /etc/profile
小结:实现Linux机器上使用Anaconda部署Python
3:单机部署:Spark Python Shell
目标:掌握Spark Shell的基本使用
实施
功能:提供一个交互式的命令行,用于测试开发Spark的程序代码
Spark的客户端bin目录下:提供了多个测试工具客户端
启动
核心
# 创建软连接
ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3
# 验证
echo $ANACONDA_HOME

2、测试使用

Spark Python Shell 是一个交互工具,可以启动spark中的交互工具,里面可以写代码

复制代码
# 启动Python开发Spark的交互命令行
# --master:用于指定运行的模式,--master yarn  
# local[2]:使用本地模式,并且只给2CoreCPU来运行程序
/opt/installs/spark/bin/pyspark --master local[2]
相关推荐
CS创新实验室2 小时前
CS实验室行业报告:机器人领域就业分析报告
大数据·人工智能·机器人
LinuxGeek10245 小时前
Kylin-Server-V11、openEuler-22.03和openEuler-24.03的MySQL 9.7.0版本正式发布
大数据·mysql·kylin
容智信息5 小时前
国家级算力底座+企业级智能体:容智Agent OS 获选入驻移动云能中心,联手赋能千行百业
大数据·人工智能·自然语言处理·智慧城市
Chuer_6 小时前
讲透财务Agent核心概念,深度拆解财务Agent应用趋势
大数据·数据库·安全·数据分析·甘特图
gushinghsjj6 小时前
什么是主数据管理平台?怎么构建主数据管理平台?
大数据·数据库
焦糖玛奇朵婷6 小时前
解锁扭蛋机小程序的五大优势
java·大数据·服务器·前端·小程序
阿瑞说项目管理6 小时前
AI Agent 与普通 AI 助手的区别是什么?
大数据·人工智能·agent·智能体·企业级ai
黎阳之光7 小时前
黎阳之光:以视频孪生+全域感知,助力低空经济破局突围
大数据·人工智能·算法·安全·数字孪生
汽车仪器仪表相关领域7 小时前
Kvaser Leaf Light HS v2 M12:5 针 M12 NMEA 2000 接口,海事与工业 CAN 总线测试的防水耐用之选
大数据·网络·人工智能·功能测试·安全性测试
ElfBoard7 小时前
飞凌精灵(ElfBoard)技术贴|如何在RK3506开发板上实现UART功能复用
大数据·linux·人工智能·驱动开发·单片机·嵌入式硬件·物联网