Spark wordcount实验

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 文件内容 查看文件目录 |
| 启动pyspark 3、输入代码 从本地读入文本数据 读入1中创建好的data.txt文本文件。 并计算打印结果 ### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 编写代码 并把.py文件传输到Linux上 提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。 运行结果 |
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |

相关推荐
wang_yb8 小时前
数据会说谎?三大推断方法帮你“审问”数据真相
大数据·databook
天远数科10 小时前
Golang并发实战:高效对接天远API实现海量用户画像构建
大数据·api
expect7g10 小时前
Paimon源码解读 -- Compaction-2.KeyValueFileWriterFactory
大数据·后端·flink
第二只羽毛10 小时前
C++ 高性能编程要点
大数据·开发语言·c++·算法
jason成都11 小时前
elasticsearch部署时创建用户密码
大数据·elasticsearch·jenkins
新华经济12 小时前
合同管理系统2025深度测评:甄零科技居榜首
大数据·人工智能·科技
黑客思维者12 小时前
招商银行信用卡AI客服系统:从0到1实战笔记
大数据·人工智能·笔记
醇氧13 小时前
【git】 撤回一个本地提交
大数据·git·elasticsearch
Elastic 中国社区官方博客13 小时前
Elasticsearch:数据脱节如何破坏现代调查
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
Wang's Blog14 小时前
Elastic Stack梳理:Logstash Input插件详解与Codec插件应用指南之文件监控、多行日志处理与Kafka集成
分布式·搜索引擎·kafka·elastic search