|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功
文件内容
查看文件目录
|
| 启动pyspark 3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果
|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
MZWeiei1 小时前
Kafka 集群中,Broker和Controller的关系免檒2 小时前
CAP分布式理论lilye665 小时前
精益数据分析(79/126):从黏性到爆发——病毒性增长的三种形态与核心指标解析难以触及的高度7 小时前
优化Hadoop性能:如何修改Block块大小Themberfue8 小时前
RabbitMQ ⑥-集群 || Raft || 仲裁队列数数科技的数据干货8 小时前
如何避免你的高付费用户活跃度下降?Leo.yuan8 小时前
bi软件是什么?bi软件是做什么用的?数据要素X9 小时前
【数据架构03】数据治理架构篇小小工匠9 小时前
分布式缓存:缓存的三种读写模式及分类搞不懂语言的程序员9 小时前
Elasticsearch简单集成java框架方式。