Spark wordcount实验

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 文件内容 查看文件目录 |
| 启动pyspark 3、输入代码 从本地读入文本数据 读入1中创建好的data.txt文本文件。 并计算打印结果 ### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 编写代码 并把.py文件传输到Linux上 提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。 运行结果 |
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |

相关推荐
掘金-我是哪吒35 分钟前
分布式微服务系统架构第108集:ConcurrentHashMap,LinkedHashMap底层原理详解
分布式·微服务·云原生·架构·系统架构
文慧的科技江湖35 分钟前
充电桩领域垂直行业大模型分布式推理与训练平台建设方案 - (慧哥)慧知开源充电桩平台
分布式·开源
程序猿阿伟36 分钟前
《分布式软总线:不同频段Wi-Fi环境下设备发现兼容性难题》
分布式
Lary_Rock44 分钟前
ubuntu20.04 Android14编译环境配置
大数据·数据库·elasticsearch
smileNicky1 小时前
RabbitMQ架构原理及消息分发机制
分布式·架构·rabbitmq
noravinsc1 小时前
windows上rabbitmq服务激活后 15672无法打开
windows·分布式·rabbitmq
胡萝卜糊了Ohh2 小时前
spark-sql
spark·scala
合合技术团队3 小时前
TextIn ParseX文档解析参数使用指南(第一期)
大数据·人工智能·算法·ocr·文档解析