|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 文件内容 查看文件目录 |
| 启动pyspark 3、输入代码 从本地读入文本数据 读入1中创建好的data.txt文本文件。 并计算打印结果 ### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 编写代码 并把.py文件传输到Linux上 提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。 运行结果 |
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
Elastic 中国社区官方博客34 分钟前
使用 Elastic AI Assistant for Search 和 Azure OpenAI 实现从 0 到 60 的转变Francek Chen3 小时前
【大数据技术基础 | 实验十二】Hive实验:Hive分区Natural_yz6 小时前
大数据学习17之Spark-Core莫叫石榴姐7 小时前
数据科学与SQL:组距分组分析 | 区间分布问题魔珐科技8 小时前
以3D数字人AI产品赋能教育培训人才发展,魔珐科技亮相AI+教育创新与人才发展大会上优9 小时前
uniapp 选择 省市区 省市 以及 回显陌小呆^O^9 小时前
Cmakelist.txt之Liunx-rabbitmqsamLi06209 小时前
【更新】中国省级产业集聚测算数据及协调集聚指数数据(2000-2022年)Mephisto.java10 小时前
【大数据学习 | Spark-Core】Spark提交及运行流程