|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark
1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 
文件内容
查看文件目录
|
| 启动pyspark
3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果 

|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
Coder_Boy_9 小时前
技术让开发更轻松的底层矛盾2501_944934739 小时前
高职大数据技术专业,CDA和Python认证优先考哪个?九河云10 小时前
5秒开服,你的应用部署还卡在“加载中”吗?Gain_chance10 小时前
36-学习笔记尚硅谷数仓搭建-DWS层数据装载脚本每日新鲜事10 小时前
热销复盘:招商林屿缦岛203套售罄背后的客户逻辑分析AI架构全栈开发实战笔记11 小时前
Eureka 在大数据环境中的性能优化技巧AI架构全栈开发实战笔记11 小时前
Eureka 对大数据领域服务依赖关系的梳理自挂东南枝�12 小时前
政企舆情大数据服务平台的“全域洞察中枢”weisian15112 小时前
Elasticsearch-1--什么是ES?LaughingZhu12 小时前
Product Hunt 每日热榜 | 2026-02-08