Spark wordcount实验

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 文件内容 查看文件目录 |
| 启动pyspark 3、输入代码 从本地读入文本数据 读入1中创建好的data.txt文本文件。 并计算打印结果 ### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 编写代码 并把.py文件传输到Linux上 提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。 运行结果 |
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |

相关推荐
Faith_xzc6 分钟前
【Apache Doris】周FAQ集锦:第 29 期
大数据·数据库·开源·apache·数据库开发·doris
斯普信专业组1 小时前
RabbitMQ 高可用方案:原理、构建与运维全解析
运维·分布式·rabbitmq
huapiaoy1 小时前
RabbitMQ的工作模式
分布式·rabbitmq
十六ᵛᵃᵉ1 小时前
day06_Spark SQL
大数据·sql·spark
黄名富1 小时前
Kafka 分区管理
java·分布式·缓存·kafka
抛砖者1 小时前
01、kafka知识点综合
分布式·kafka·cap·kafka面试·kafka优化·kafka架构
十六ᵛᵃᵉ1 小时前
day08_Kafka
分布式·kafka
十六ᵛᵃᵉ1 小时前
day09_kafka高级
分布式·kafka·linq
网易智企2 小时前
游戏语音的历史是什么样的?
大数据·人工智能·游戏·ai·音视频·语音识别·实时音视频
nchu可乐百香果2 小时前
sparkRDD教程之基本命令
大数据·linux·spark