|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功
文件内容
查看文件目录
|
| 启动pyspark 3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果
|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
亿牛云爬虫专家1 分钟前
优化分布式采集的数据同步:一致性、去重与冲突解决的那些坑与招B站_计算机毕业设计之家8 分钟前
大数据实战:Python+Flask 汽车数据分析可视化系统(爬虫+线性回归预测+推荐 源码+文档)✅Elastic 中国社区官方博客23 分钟前
Simple MCP Client - 连接到 Elasticsearch MCP 并进行自然语言搜索QYResearch1 小时前
QYResearch水平井钻井市场规模调研QYResearch1 小时前
QYResearch调研全球仓储物流机器人市场报告weixin_456904272 小时前
# Pandas 与 Spark 数据操作完整教程心随雨下2 小时前
Redis中Geospatial 实际应用指南百度Geek说3 小时前
百度APP日志处理框架升级之路yumgpkpm5 小时前
CMP (类Cloudera) CDP7.3(400次编译)在华为鲲鹏Aarch64(ARM)信创环境中的性能测试过程及命令hg01185 小时前
“中非咖桥 世界湘见”2025首届星沙-非洲咖啡嘉年华系列活动启动