spark读取csv文件

测试spark读取本地和hdfs文件

python 复制代码
from pyspark.sql import SparkSession

spark = SparkSession.builder \
    .appName("Example PySpark Script") \
    .getOrCreate()

# 读取本地csv文件
df = spark.read.csv("/Users/xiaokkk/Desktop/local_projects/spark/intents.csv", header=True, inferSchema=True)
# 显示前几行数据
df.show(5)
# 读取HDFS的csv文件
df = spark.read.csv("hdfs://127.0.0.1:9001/data/intents.csv", header=True, inferSchema=True)
df.show(5)
相关推荐
心止水j34 分钟前
数据采集-----案例
spark
梦里不知身是客1113 小时前
RDD分区的设定规则
spark
梦里不知身是客1113 小时前
spark中如何调节Executor的堆外内存
大数据·javascript·spark
beijingliushao17 小时前
105-Spark之Standalone HA环境搭建过程
大数据·spark
毅硕科技17 小时前
毅硕HPC | NVIDIA DGX Spark 万字硬核评测:将AI超级工厂带上桌面
功能测试·spark·hpc
联系QQ 180809511 天前
探索光伏MPPT控制:基于Boost升压变换器的实践
spark
梦里不知身是客111 天前
spark如何调节jvm的连接等待时长
大数据·分布式·spark
梦里不知身是客111 天前
spark的血脉机制
大数据·分布式·spark
yumgpkpm1 天前
AI大模型手机的“简单替换陷阱”与Hadoop、Cloudera CDP 7大数据底座的关系探析
大数据·人工智能·hadoop·华为·spark·kafka·cloudera