spark读取csv文件

测试spark读取本地和hdfs文件

python 复制代码
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("Example PySpark Script") \
    .getOrCreate()

# 读取本地csv文件
df = spark.read.csv("/Users/xiaokkk/Desktop/local_projects/spark/intents.csv", header=True, inferSchema=True)
# 显示前几行数据
df.show(5)
# 读取HDFS的csv文件
df = spark.read.csv("hdfs://127.0.0.1:9001/data/intents.csv", header=True, inferSchema=True)
df.show(5)
相关推荐
qq_4084133919 小时前
spark 执行 hive sql数据丢失
hive·sql·spark
后端码匠19 小时前
Spark 单机模式部署与启动
大数据·分布式·spark
qq_463944861 天前
【Spark征服之路-2.3-Spark运行架构】
大数据·架构·spark
yt948321 天前
如何在IDE中通过Spark操作Hive
ide·hive·spark
不吃饭的猪2 天前
记一次spark在docker本地启动报错
大数据·docker·spark
Leo.yuan2 天前
实时数据仓库是什么?数据仓库设计怎么做?
大数据·数据库·数据仓库·数据分析·spark
£菜鸟也有梦2 天前
从0到1,带你走进Flink的世界
大数据·hadoop·flink·spark
小伍_Five2 天前
Spark实战能力测评模拟题精析【模拟考】
java·大数据·spark·scala·intellij-idea
不吃饭的猪2 天前
记一次运行spark报错
大数据·分布式·spark
qq_463944862 天前
【Spark征服之路-2.1-安装部署Spark(一)】
大数据·分布式·spark