大数据Spark范式

文章目录

大数据Spark范式

python 复制代码
from pyspark.sql import SparkSession
import json


def filter_debate(x):
    data = json.loads(x)
    return data["subject"]


if __name__ == '__main__':
    spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()
    sc = spark.sparkContext

    # 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀
    input_path = "${DATA_ID:00001}:Auser/data_en/*"
    rdd = sc.textFile(input_path)
    filtered_rdd = rdd.map(debate)

    # 取消注释以保存所有过滤后的记录,而不是只取前100条
    output_path = "${DATA_ID:00001}:Auser/data_en/01"
    filtered_rdd.saveAsTextFile(output_path)

    # 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理
    # for i in filtered_rdd.take(100):
    #     print(i)

    sc.stop()
相关推荐
询问QQ:18080951几秒前
基于perscan、simulink、carsim联仿的自动驾驶避障模型:动态工况下的边界约束...
spark
m***66731 分钟前
Python 爬虫实战案例 - 获取社交平台事件热度并进行影响分析
开发语言·爬虫·python
语落心生2 分钟前
流式数据湖Paimon探秘之旅 (十八) 常见问题排查与性能调优
大数据
语落心生3 分钟前
流式数据湖Paimon探秘之旅 (十三) 分区与过期管理
大数据
语落心生4 分钟前
流式数据湖Paimon探秘之旅 (十五) 文件清理与维护
大数据
土拨鼠烧电路4 分钟前
RPA悖论迷思:从解放的利器到运维的枷锁?
大数据·运维·笔记·rpa
语落心生5 分钟前
流式数据湖Paimon探秘之旅 (十七) 集群部署与运维
大数据
语落心生7 分钟前
流式数据湖Paimon探秘之旅 (十二) 索引与加速
大数据
语落心生9 分钟前
流式数据湖Paimon探秘之旅 (十四) Tag与分支管理
大数据
语落心生10 分钟前
流式数据湖Paimon探秘之旅 (十一) Changelog变更日志
大数据