|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| ### Spark WordCount实验一 启动spark 1. 数据准备 创建建数据文件夹 进入data文件夹 创建文本文件 并查看是否创建成功
文件内容
查看文件目录
|
| 启动pyspark 3、输入代码 从本地读入文本数据
读入1中创建好的data.txt文本文件。 并计算打印结果
### Spark WordCount实验二 切工作目录到Downloads文件夹下, 并用用vim命令新建data.txt
编写代码
并把.py文件传输到Linux上
提交应用 切换到spark-submit所在目录下,然后提交wordcount.py代码。
运行结果
|
| 总体还是比较简单就练习如何使用spark-submit命令提交独立的python程序时最后的输出wordcount01.py时有点问题 |
Spark wordcount实验
涡看你就不是好人呐2024-08-08 15:33
相关推荐
lily363926046a8 分钟前
智联未来 点赋科技学习中的阿陈27 分钟前
Hadoop伪分布式环境配置程序员小羊!39 分钟前
大数据电商流量分析项目实战:Spark SQL 基础(四)CesareCheung1 小时前
JMeter分布式压力测试失散132 小时前
分布式专题——10.5 ShardingSphere的CosID主键生成框架TDengine (老段)3 小时前
TDengine 特殊函数 MODE() 用户手册xiaofan6720134 小时前
大数据与财务管理专业如何转型做金融科技?kaomiao20255 小时前
空间信息与数字技术和传统GIS专业有何不同?IT研究室5 小时前
大数据毕业设计选题推荐-基于大数据的健康与生活方式数据可视化分析系统-Spark-Hadoop-Bigdata尺度商业5 小时前
2025服贸会“海淀之夜”,点亮“科技”与“服务”底色