Spark基础

Spark基础

建库一定要指定字符集,错了好多次了

pip

卸载某个模块

复制代码
pip uninstall pandas

-- 下载其它的改掉pandas即可
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pandas

更新最新版本pip
python -m pip install --upgrade pip

1、 启动服务

Hadoop

启动全部服务
*****/hadoop/sbin/start-all.sh

启动hdfs
*****/hadoop/sbin/start-dfs.sh

启动yarn
*****/hadoop/sbin/start-yarn.sh

启动history日志服务
*****/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver

Spark

同上,前面是你自己安装的路径

启动standalone资源调度服务
/spark/sbin/start-all.sh

启动master
/spark/sbin/start-master.sh

启动历史日志服务
/spark/sbin/start-history-server.sh

2、spark的(交互开发)指令参数

在通过指令运行时,就是进入交互模式,运行一个计算程序

该参数对spark指令都有效的

计算任务运行期间查询计算的任务信息可以访问4040端口

计算任务结束后查询计算的任务信息可以访问18080端口

pyspark --master yarn --name shaonianlu_conf --conf 'spark.sql.shuffle.partitions=100'

使用yarn进行资源调度,指定任务名为shaonianlu 更改配置信息

3、dirver和excutor

dirver 和excutor是两个进程程序

当spark的计算代码程序运行时就会产生一个dirver,dirver管理执行计算任务

driver会先申请资源,创建出excutor进程

excutor进程创建成功或通知driver,dirver会将计算任务以线程的方式交给excutor执行

dirver 负责管理计算任务

excutor 负责执行计算任务

4、spark-submit提交方式

在--master yarn模式下会有一个--deploy-mode指定提交模式

  • 有两种提交代码计算的模式
    • clinet模式 默认的提交模式 不指定--deploy-mode
    • cluster模式 --deploy-mode cluster
      • 在cluster模式下不会输出终端结果信息
相关推荐
武子康1 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
肌肉娃子2 天前
20260227.spark.Spark 性能刺客:千万别在 for 循环里写 withColumn
spark
初次攀爬者2 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康2 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP3 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库3 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟3 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人3 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长3 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人3 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计