spark读取csv文件

测试spark读取本地和hdfs文件

python 复制代码
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("Example PySpark Script") \
    .getOrCreate()

# 读取本地csv文件
df = spark.read.csv("/Users/xiaokkk/Desktop/local_projects/spark/intents.csv", header=True, inferSchema=True)
# 显示前几行数据
df.show(5)
# 读取HDFS的csv文件
df = spark.read.csv("hdfs://127.0.0.1:9001/data/intents.csv", header=True, inferSchema=True)
df.show(5)
相关推荐
鸿乃江边鸟2 天前
Spark Datafusion Comet 向量化Rust Native--Native算子指标如何传递到Spark UI上展示
rust·spark·native
uesowys3 天前
Apache Spark算法开发指导-K-means
算法·spark·kmeans
uesowys4 天前
Apache Spark算法开发指导-Gradient-boosted tree regression
算法·spark
uesowys5 天前
Apache Spark算法开发指导-Random forest regression
算法·spark
DisonTangor5 天前
介绍 GPT‑5.3‑Codex‑Spark
大数据·gpt·spark
小邓睡不饱耶5 天前
Hadoop 3.x实战:基于HDFS+Spark+Flink的实时用户行为分析平台(含Kerberos安全配置+冷热数据分层)
hadoop·hdfs·spark
阿里云大数据AI技术5 天前
阿里云 EMR Serverless Spark TPC-DS 100T 榜首背后的内核技术
spark
KANGBboy7 天前
spark参数优化
大数据·分布式·spark
十月南城7 天前
Spark批处理认知——RDD与DataFrame的差异、Shuffle与资源利用
大数据·分布式·spark
徐先生 @_@|||7 天前
Spark的DataFrame的Map Task和Reduce Task深入理解
ajax·spark·php