Spark基础

Spark基础

建库一定要指定字符集,错了好多次了

pip

卸载某个模块

复制代码
pip uninstall pandas

-- 下载其它的改掉pandas即可
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pandas

更新最新版本pip
python -m pip install --upgrade pip

1、 启动服务

Hadoop

启动全部服务
*****/hadoop/sbin/start-all.sh

启动hdfs
*****/hadoop/sbin/start-dfs.sh

启动yarn
*****/hadoop/sbin/start-yarn.sh

启动history日志服务
*****/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver

Spark

同上,前面是你自己安装的路径

启动standalone资源调度服务
/spark/sbin/start-all.sh

启动master
/spark/sbin/start-master.sh

启动历史日志服务
/spark/sbin/start-history-server.sh

2、spark的(交互开发)指令参数

在通过指令运行时,就是进入交互模式,运行一个计算程序

该参数对spark指令都有效的

计算任务运行期间查询计算的任务信息可以访问4040端口

计算任务结束后查询计算的任务信息可以访问18080端口

pyspark --master yarn --name shaonianlu_conf --conf 'spark.sql.shuffle.partitions=100'

使用yarn进行资源调度,指定任务名为shaonianlu 更改配置信息

3、dirver和excutor

dirver 和excutor是两个进程程序

当spark的计算代码程序运行时就会产生一个dirver,dirver管理执行计算任务

driver会先申请资源,创建出excutor进程

excutor进程创建成功或通知driver,dirver会将计算任务以线程的方式交给excutor执行

dirver 负责管理计算任务

excutor 负责执行计算任务

4、spark-submit提交方式

在--master yarn模式下会有一个--deploy-mode指定提交模式

  • 有两种提交代码计算的模式
    • clinet模式 默认的提交模式 不指定--deploy-mode
    • cluster模式 --deploy-mode cluster
      • 在cluster模式下不会输出终端结果信息
相关推荐
一叶飘零_sweeeet2 小时前
从手写 Redis 分布式锁到精通 Redisson:分布式系统的并发控制终极指南
redis·分布式·redisson
深空数字孪生3 小时前
储能调峰新实践:智慧能源平台如何保障风电消纳与电网稳定?
大数据·人工智能·物联网
百胜软件@百胜软件3 小时前
胜券POS:打造智能移动终端,让零售智慧运营触手可及
大数据
摩羯座-185690305944 小时前
Python数据可视化基础:使用Matplotlib绘制图表
大数据·python·信息可视化·matplotlib
在未来等你5 小时前
Kafka面试精讲 Day 13:故障检测与自动恢复
大数据·分布式·面试·kafka·消息队列
jiedaodezhuti5 小时前
Flink通讯超时问题深度解析:Akka AskTimeoutException解决方案
大数据·flink
庄小焱5 小时前
大数据存储域——Kafka实战经验总结
大数据·kafka·大数据存储域
cui_win5 小时前
基于Golang + vue3 开发的 kafka 多集群管理
分布式·kafka
iiYcyk5 小时前
kafka特性和原理
分布式·kafka
zskj_qcxjqr6 小时前
告别传统繁琐!七彩喜艾灸机器人:一键开启智能养生新时代
大数据·人工智能·科技·机器人