大数据Spark范式

文章目录

大数据Spark范式

python 复制代码
from pyspark.sql import SparkSession
import json


def filter_debate(x):
    data = json.loads(x)
    return data["subject"]


if __name__ == '__main__':
    spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()
    sc = spark.sparkContext

    # 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀
    input_path = "${DATA_ID:00001}:Auser/data_en/*"
    rdd = sc.textFile(input_path)
    filtered_rdd = rdd.map(debate)

    # 取消注释以保存所有过滤后的记录,而不是只取前100条
    output_path = "${DATA_ID:00001}:Auser/data_en/01"
    filtered_rdd.saveAsTextFile(output_path)

    # 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理
    # for i in filtered_rdd.take(100):
    #     print(i)

    sc.stop()
相关推荐
张彦峰ZYF7 小时前
Python 项目文件组织与工程化实践
python·项目文件组织与工程化实践
尋有緣7 小时前
力扣614-二级关注者
大数据·数据库·sql·oracle
webbodys8 小时前
Python文件操作与异常处理:构建健壮的应用程序
java·服务器·python
serve the people8 小时前
Agent 基于大模型接口实现用户意图识别:完整流程与实操
大数据·人工智能·agent
小鹿学程序8 小时前
安装Flume
大数据·flume
中科天工8 小时前
智能工厂的投资回报分析是什么?主要包含哪些关键因素?
大数据·人工智能·智能
Apache Flink9 小时前
Flink + Fluss 实战: Delta Join 原理解析与操作指南
大数据·数据库·flink
互联网江湖9 小时前
蚂蚁阿福引爆AI健康赛道,美年健康锚定AI健康智能体核心生态位
大数据·人工智能
LINGYI0009 小时前
电商代运营是怎么合作的?一般提供服务有哪些?
大数据·全域电商
无代码专家9 小时前
生产ERP解决方案:赋能制造企业精益运营与智能升级
大数据·低代码·制造