Spark wordcount实验

|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功 文件内容 查看文件目录 |
| 启动pyspark 3、输入代码 从本地读入文本数据 读入1中创建好的data.txt文本文件。 并计算打印结果 ### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt 编写代码 并把.py文件传输到Linux上 提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。 运行结果 |
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |

相关推荐
半夏知半秋24 分钟前
CentOS7下的ElasticSearch部署
大数据·服务器·后端·学习·elasticsearch·搜索引擎·全文检索
俞凡1 小时前
高性能数据模型设计
大数据
Aurora_NeAr1 小时前
大数据之路:阿里巴巴大数据实践——日志采集与数据同步
大数据·后端
泡芙萝莉酱1 小时前
世界各国和地区ICRG政治经济金融综合风险指标数据(1984-2023年)-实证数据
大数据·人工智能·深度学习·数据挖掘·数据分析·数据统计·实证数据
♛暮辞2 小时前
hadoop(服务器伪分布式搭建)
服务器·hadoop·分布式
焦点问界2 小时前
Newline全场景方案闪耀2025中国智慧生活大会
大数据·人工智能
金融RPA机器人丨实在智能2 小时前
从爬虫到AI:亚马逊数据采集工具的进化与应用
大数据·人工智能·数据采集·亚马逊
云畅新视界2 小时前
从算力到智能资产:Sol long引领A I A g ent赋能设备的价值重构
大数据·人工智能
鹧鸪云光伏6 小时前
光伏财务管理:在阳光与资本的精密计算中前行
大数据·光伏设计
智象科技6 小时前
智象科技赋能金融、证券行业 IT 运维
大数据·运维·网络·数据库·科技·金融·智能运维