|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark
1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 
文件内容
查看文件目录
|
| 启动pyspark
3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果 

|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
熙客31 分钟前
TiDB:分布式关系型数据库wudl55663 小时前
flink 1.20 物化表(Materialized Tables)InfiSight智睿视界4 小时前
AI 技术助力汽车美容行业实现精细化运营管理8K超高清6 小时前
高校巡展:中国传媒大学+河北传媒学院Sirius Wu6 小时前
Rclone实战技巧amhjdx7 小时前
政策东风下:卓玛儿童级健康腻子引领行业升级TDengine (老段)7 小时前
TDengine 字符串函数 CONCAT_WS 用户手册TTGGGFF7 小时前
人工智能:大语言模型或为死胡同?拆解AI发展的底层逻辑、争议与未来方向言之。9 小时前
TiDB分布式数据库技术架构概述老夫的码又出BUG了9 小时前
分布式Web应用场景下存在的Session问题