大数据Spark范式

文章目录

大数据Spark范式

python 复制代码
from pyspark.sql import SparkSession
import json


def filter_debate(x):
    data = json.loads(x)
    return data["subject"]


if __name__ == '__main__':
    spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()
    sc = spark.sparkContext

    # 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀
    input_path = "${DATA_ID:00001}:Auser/data_en/*"
    rdd = sc.textFile(input_path)
    filtered_rdd = rdd.map(debate)

    # 取消注释以保存所有过滤后的记录,而不是只取前100条
    output_path = "${DATA_ID:00001}:Auser/data_en/01"
    filtered_rdd.saveAsTextFile(output_path)

    # 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理
    # for i in filtered_rdd.take(100):
    #     print(i)

    sc.stop()
相关推荐
l木本I10 分钟前
uv 技术详解
人工智能·python·深度学习·机器学习·uv
AI营销快线20 分钟前
AI如何每日自动生成大量高质量营销素材?
大数据·人工智能
宁大小白23 分钟前
pythonstudy Day31
python·机器学习
KKKlucifer36 分钟前
从 “人工标注” 到 “AI 驱动”:数据分类分级技术的效率革命
大数据·人工智能·分类
天远云服38 分钟前
Spring Boot 金融实战:如何清洗天远API的 KV 数组格式风控数据
大数据·api
江上鹤.14842 分钟前
Day34模块和库的导入
python
我爱鸢尾花44 分钟前
第十四章聚类方法理论及Python实现
大数据·python·机器学习·数据挖掘·数据分析·聚类
言之。2 小时前
Dropbear远程连接
python
阿里云大数据AI技术2 小时前
活动报名 | Apache Spark Meetup · 上海站,助力企业构建高效数据平台
spark
dhdjjsjs2 小时前
Day34 PythonStudy
python