大数据Spark范式

文章目录

大数据Spark范式

python 复制代码
from pyspark.sql import SparkSession
import json


def filter_debate(x):
    data = json.loads(x)
    return data["subject"]


if __name__ == '__main__':
    spark = SparkSession.builder.appName("NonDebateFilter").getOrCreate()
    sc = spark.sparkContext

    # 假设${DATA_ID:12455}是一个环境变量或需要替换的具体路径前缀
    input_path = "${DATA_ID:00001}:Auser/data_en/*"
    rdd = sc.textFile(input_path)
    filtered_rdd = rdd.map(debate)

    # 取消注释以保存所有过滤后的记录,而不是只取前100条
    output_path = "${DATA_ID:00001}:Auser/data_en/01"
    filtered_rdd.saveAsTextFile(output_path)

    # 如果确实只需要前100条记录进行打印或其它处理,可以在保存后单独处理
    # for i in filtered_rdd.take(100):
    #     print(i)

    sc.stop()
相关推荐
倦王32 分钟前
PyTorch图片数据载入方法
人工智能·pytorch·python
Hello.Reader34 分钟前
用 Flink CDC 将 MySQL 实时同步到 Doris
大数据·mysql·flink
用户617433273101 小时前
Python 的 with ... as ... 上下文管理器
python
Web3_Daisy1 小时前
消除链上气泡图:为什么换仓正在成为新的链上生存策略?
大数据·人工智能·安全·web3·区块链
临风赏月1 小时前
多模态数据湖对接 AI 训练的技术方案
大数据·人工智能
TDengine (老段)1 小时前
TDengine 数学函数 ASCII 用户手册
java·大数据·数据库·物联网·时序数据库·tdengine·涛思数据
Darenm1111 小时前
Git介绍
大数据·elasticsearch·搜索引擎
周周记笔记2 小时前
PyCharm的初始设置
ide·python·pycharm