|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功
文件内容
查看文件目录
|
| 启动pyspark 3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果
|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
人大博士的交易之路10 分钟前
龙虎榜——20250620hwj运维之路29 分钟前
大数据系统架构实践(一):Zookeeper集群部署189228048611 小时前
NY339NY341美光固态闪存NW841NW843DavidSoCool1 小时前
Elasticsearch 中实现推荐搜索(方案设想)未来并未来1 小时前
微服务中的分布式事务lilye662 小时前
精益数据分析(108/126):媒体网站用户参与时间优化与分享行为解析sevevty-seven2 小时前
阿里巴巴开源的 分布式事务解决方案SeataTDengine (老段)2 小时前
使用 Prometheus 访问 TDengine ---大千AI助手4 小时前
饼图:数据可视化的“切蛋糕”艺术高小秋5 小时前
Hadoop 技术生态体系