大数据Spark范式

文章目录

大数据Spark范式

python 复制代码
from pyspark.sql import SparkSession
import json


def filter_debate(x):
    data = json.loads(x)
    return data["subject"]


if __name__ == '__main__':
    spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()
    sc = spark.sparkContext

    # 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀
    input_path = "${DATA_ID:00001}:Auser/data_en/*"
    rdd = sc.textFile(input_path)
    filtered_rdd = rdd.map(debate)

    # 取消注释以保存所有过滤后的记录,而不是只取前100条
    output_path = "${DATA_ID:00001}:Auser/data_en/01"
    filtered_rdd.saveAsTextFile(output_path)

    # 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理
    # for i in filtered_rdd.take(100):
    #     print(i)

    sc.stop()
相关推荐
禾叙_9 分钟前
mac配置es
大数据·elasticsearch·搜索引擎
Elastic 中国社区官方博客10 分钟前
Jina 模型的介绍,它们的功能,以及在 Elasticsearch 中的使用
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
培培说证14 分钟前
2026大专后端开发工程师认证有哪些?
大数据
沃斯堡&蓝鸟14 分钟前
DAY34 文件的规范拆分和写法
开发语言·python
ss27314 分钟前
final关键字如何创造线程安全的对象
开发语言·python
大得36915 分钟前
gpt-oss:20b大模型知识库,ai大模型
人工智能·python·gpt
2401_8414956415 分钟前
【机器学习】生成对抗网络(GAN)
人工智能·python·深度学习·神经网络·算法·机器学习·生成对抗网络
清水白石00820 分钟前
构建高性能异步 HTTP 客户端:aiohttp 与 httpx 实战解析与性能优化
python·http·性能优化·httpx
38242782739 分钟前
Edge开发者工具:保留日志与禁用缓存详解
java·前端·javascript·python·selenium
nuowenyadelunwen39 分钟前
Harvard CS50 Week 6 Python
开发语言·python