在Spark SQL中,fillna函数

目录

前言

[以下是在Spark SQL中使用fillna函数的示例代码:](#以下是在Spark SQL中使用fillna函数的示例代码:)

运行以上代码将输出:

总结


前言


在Spark SQL中,fillna函数用于填充DataFrame或Dataset中的缺失值(NULL或NaN)。它可以根据指定的列名和值来替换缺失值,以便进行数据清洗和预处理。

以下是在Spark SQL中使用fillna函数的示例代码:

python 复制代码
# 导入必要的库
from pyspark.sql import SparkSession

# 创建SparkSession
spark = SparkSession.builder.getOrCreate()

# 创建示例DataFrame
data = [("Alice", 25, None), ("Bob", None, 180.0), ("Charlie", 35, 175.2)]
df = spark.createDataFrame(data, ["name", "age", "height"])

# 使用fillna函数填充缺失值
filled_df = df.fillna({"age": 0, "height": 0.0})

# 显示填充后的DataFrame
filled_df.show()

运行以上代码将输出:


python 复制代码
+-------+---+------+
|   name|age|height|
+-------+---+------+
|  Alice| 25|   0.0|
|    Bob|  0| 180.0|
|Charlie| 35| 175.2|
+-------+---+------+

总结


在上述示例中,首先创建了一个包含姓名、年龄和身高的DataFrame,并且其中包含了一些缺失值(用None表示)。然后,使用fillna函数将缺失值替换为指定的值。在本例中,我们将年龄的缺失值替换为0,将身高的缺失值替换为0.0。填充后得到的DataFrame存储在filled_df变量中。最后,使用show方法显示填充后的DataFrame。

需要注意的是,fillna函数的参数是一个字典,其中键表示要填充的列名,值表示要填充的值。您可以根据实际需求指定不同的列和填充值。

通过使用fillna函数,您可以对DataFrame或Dataset中的缺失值进行处理,以便进行后续的数据分析和建模操作。

相关推荐
知初~4 小时前
出行项目案例
hive·hadoop·redis·sql·mysql·spark·database
狮歌~资深攻城狮8 小时前
HBase性能优化秘籍:让数据处理飞起来
大数据·hbase
Elastic 中国社区官方博客8 小时前
Elasticsearch Open Inference API 增加了对 Jina AI 嵌入和 Rerank 模型的支持
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·jina
努力的小T9 小时前
使用 Docker 部署 Apache Spark 集群教程
linux·运维·服务器·docker·容器·spark·云计算
workflower9 小时前
Prompt Engineering的重要性
大数据·人工智能·设计模式·prompt·软件工程·需求分析·ai编程
API_technology11 小时前
电商搜索API的Elasticsearch优化策略
大数据·elasticsearch·搜索引擎
黄雪超11 小时前
大数据SQL调优专题——引擎优化
大数据·数据库·sql
The god of big data11 小时前
MapReduce 第二部:深入分析与实践
大数据·mapreduce
G***技12 小时前
杰和科技GAM-AI视觉识别管理系统,让AI走进零售营销
大数据·人工智能·系统架构
天天爱吃肉821813 小时前
碳化硅(SiC)功率器件:新能源汽车的“心脏”革命与技术突围
大数据·人工智能