Pycharm通过SSH配置centos上Spark环境

直接在shell进行pyspark进行编程,程序没有办法写得太长,而且我们希望能够实现一个及时给出结果的编程环境,可以使用pycharm连接centos上的spark,进行本地编程,同步到centos系统中运行程序,并把结果返回pycharm上。以下是pycharm的环境配置,这里采用的是2020版本的,2023版本变动较大,暂时没有找到配置方法:

  1. 新建项目→选择pure python→选择existing interpreter→选择更多...按钮
  2. 选择SSH→New server configuration→Host填写ip地址,这里以:192.168.19.137,Port不变→Username填写自己的系统用户名:root为例→点击New按钮
  3. 填写Password→点击Nex
  4. 点击后面的文件夹图标→配置centos上的python路径,选择centos上的python路径,这里选择miniconda里的python路径→点击OK→点击Finish
  5. 配置上传文件的存放路径:点击Remote project location后的文件夹→选择centos上存放py文件的路径→选择ok→点击create
  6. 配置部署关联路径:Tools→Deployment→Configuration
  7. 选择前面配置的远程客户端→选择Mappings→Deployment path的文件夹→选择跟前面上传路径一样的位置→点击OK→点击OK
  8. 在后面运行中会出现以下错误,需要代码头部添加以下两段代码
    没有设置JAVA运行环境

JAVA_HOME is not set

以下代码

python 复制代码
import os
JAVA_HOME='/root/bigdata/jdk'
#向系统环境变量中添加 JAVA_HOME路径
os.environ['JAVA_HOME']=JAVA_HOME

指定Python解释器的位置

Exception: Python in worker has different version 2.7 than that in driver 3.6,

PySpark cannot run with different minor versions.Please check environment variables

PYSPARK_PYTHON and PYSPARK_DRIVER_PYTHON are correctly set.

添加以下代码

python 复制代码
PYSPARK_PYTHON = "/miniconda2/envs/py365/bin/python"
os.environ["PYSPARK_PYTHON"] = PYSPARK_PYTHON
os.environ["PYSPARK_DRIVER_PYTHON"] = PYSPARK_PYTHON

示例代码

运行结果

相关推荐
ZHOU_WUYI23 分钟前
Apache Spark 集群部署与使用指南
大数据·spark·apache
我狸才不是赔钱货1 小时前
揭开命令行的面纱:终端、CLI、Shell的终极辨析
vscode·ssh·bash
chenzfp2 小时前
【运维】鲲鹏麒麟V10 操作系统aarch64自制OpenSSH 9.8p1 rpm包 ssh漏洞修复
运维·ssh
tryCbest10 小时前
CentOS部署Docker容器
linux·docker·centos
坠金11 小时前
linux/centos迁移conda文件夹
linux·centos·conda
惘嘫、冋渞14 小时前
CentOS 7 下 Nginx 编译后热重启方案
chrome·nginx·centos
随心............17 小时前
在开发过程中遇到问题如何解决,以及两个经典问题
hive·hadoop·spark
蓝色土耳其love20 小时前
centos 7.9 安装单机版k8s
linux·运维·服务器·kubernetes·centos
洛克大航海20 小时前
CentOS8无法使用sudo提权
linux·centos·无法使用 sudo 提权
这周也會开心1 天前
通过ssh连接GitHub远程仓库
运维·ssh·github