spark读取csv文件

测试spark读取本地和hdfs文件

python 复制代码
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("Example PySpark Script") \
    .getOrCreate()

# 读取本地csv文件
df = spark.read.csv("/Users/xiaokkk/Desktop/local_projects/spark/intents.csv", header=True, inferSchema=True)
# 显示前几行数据
df.show(5)
# 读取HDFS的csv文件
df = spark.read.csv("hdfs://127.0.0.1:9001/data/intents.csv", header=True, inferSchema=True)
df.show(5)
相关推荐
IT观察6 分钟前
Spark 2.0携手Solcore:AI重构去中心化质押算力生态 !
人工智能·重构·spark
墨染丶eye2 天前
数据仓库项目启动与管理
大数据·数据仓库·spark
Y1nhl2 天前
Pyspark学习一:概述
数据库·人工智能·深度学习·学习·spark·pyspark·大数据技术
chat2tomorrow4 天前
数据仓库是什么?数据仓库的前世今生 (数据仓库系列一)
大数据·数据库·数据仓库·低代码·华为·spark·sql2api
SmartManWind4 天前
YARN Container与Spark Executor参数优先级详解
大数据·javascript·spark
Freedom℡4 天前
hadoop 集群的常用命令
spark
猪猪果泡酒4 天前
Spark,hadoop的组成
spark
今天我又学废了4 天前
Spark,配置hadoop集群1
大数据·hadoop·spark
Lansonli5 天前
大数据Spark(五十六):Spark生态模块与运行模式
大数据·分布式·spark
hf2000125 天前
技术深度报道:解析云器Lakehouse如何实现超越Spark 10倍性能提升
大数据·分布式·spark