|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功
文件内容
查看文件目录
|
| 启动pyspark 3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果
|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
Yvonne9781 小时前
创建三个节点bug404_4 小时前
分布式大语言模型服务引擎vLLM论文解读OJAC近屿智能4 小时前
苹果新品今日发布,AI手机市场竞争加剧,近屿智能专注AI人才培养lucky_syq5 小时前
Spark算子:大数据处理的魔法棒昔我往昔7 小时前
项目中分库分表的分布式ID如何生成m0_748233647 小时前
【分布式】Hadoop完全分布式的搭建(零基础)圣享科技SMARTLIC7 小时前
企业软件合规性管理:构建高效、安全的软件资产生态roman_日积跬步-终至千里7 小时前
【分布式理论14】分布式数据库存储:分表分库、主从复制与数据扩容策略京东零售技术8 小时前
京东广告基于 Apache Doris 的冷热数据分层实践D愿你归来仍是少年8 小时前
解决Python升级导致PySpark任务异常方案