spark读取csv文件

测试spark读取本地和hdfs文件

python 复制代码
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("Example PySpark Script") \
    .getOrCreate()

# 读取本地csv文件
df = spark.read.csv("/Users/xiaokkk/Desktop/local_projects/spark/intents.csv", header=True, inferSchema=True)
# 显示前几行数据
df.show(5)
# 读取HDFS的csv文件
df = spark.read.csv("hdfs://127.0.0.1:9001/data/intents.csv", header=True, inferSchema=True)
df.show(5)
相关推荐
嘉禾望岗5036 小时前
spark计算框架与RDD特性介绍
大数据·分布式·spark
智海观潮21 小时前
SparkSQL真的不支持存储NullType类型数据到Parquet吗?
大数据·spark
灯下夜无眠1 天前
spark集群文件分发问题
大数据·分布式·spark
Thomas21431 天前
pyspark3.5给paimon1.2的表打tag报错 spark_catalog is not a ProcedureCatalog
大数据·分布式·spark
路边草随风1 天前
使用SparkLauncher发布k8s作业
云原生·容器·spark·kubernetes
士心凡1 天前
数据仓库教程
大数据·数据仓库·spark
会编程的李较瘦1 天前
Spark SQL 窗口函数全面解析:概念、语法与实战案例
大数据·spark
士心凡1 天前
Spark
大数据·ajax·spark
鹿衔`1 天前
CDH 6.3.2 集群外挂 Spark 3.5.7 (Paimon) 集成 Hue 实战指南
大数据·分布式·spark
鹿衔`1 天前
CDH 6.3.2 集群外挂部署 Spark 3.5.7 连接 Paimon 1.1.1 (一)
大数据·分布式·spark