GraphFrames路径边多值字段过滤

  1. 背景:

GraphFrames是spark封装的关于图算子的操作,并且可以兼容pyspark的调用方式.里面包括了创建图,遍历图,过滤图的一些操作。在创建图的过程需要定义图上的节点和图的边,边的定义可以一般为三元组,即:(A, B, EdgeType),当按某种条件继续边的过滤时,会有两种情况:一是对RDD里的某一列内部进行过滤;二是过滤前后两列的情况,比如在边的路径上,按前后两条边的某种关系继续过滤,如按日期继续排序。该问题定义为DataFrame RDD对多值字段的过滤解析问题,即:RDD中某个字段含有多个值,多值的表达一般为array,struct等。

2、方法

(1)struct

对spark的dataframe多值字段的过滤,首先通过dataFrame.printSchema()打印看到df中每个字段的类型。

对于这种以结构体struct存储,过滤的方法采用

dataframe.select("first.data").show(),通过对象.属性的方式实现对某一个属性的引用;进而通过filter方法进行过滤

dataframe.filter("sec.date > first.date and third.date > sec.date").show()

(2)array

df = spark.createDataFrame([('a',[1,2,3]), ('b', [4,5,6])], ['key', 'values'])

df.printSchema()

root

|-- key: string (nullable = true)

|-- values: array (nullable = true)

| |-- element: long (containsNull = true)

df.select(expr('key'), expr('values[1]')).show()

df.selectExpr('key', 'values[1]').show()

df.withColumn('c1', df['values'].getItem(1)).drop('values').show()

(3)vector

将array转成vector的方法:

from pyspark.ml.linalg import Vectors, VectorUDT

from pyspark.sql.functions import udf

list_to_vector_udf = udf(lambda l: Vectors.dense(l), VectorUDT())

df = df.select('key', list_to_vector_udf(df['values']).alias('values'))

df.show()

df.printSchema()

root

|-- key: string (nullable = true)

|-- values: vector (nullable = true)

from pyspark.sql.functions import udf

from pyspark.sql.types import FloatType

firstelement=udf(lambda v:float(v[0]),FloatType())

df.select(firstelement('values').alias('val1')).show()

  1. 总结

对dtaframe的多值字段进行提取和过滤,spark都提供了对应的方法,根据自己的需要进行不同的过滤

相关推荐
鸿乃江边鸟13 小时前
Spark Datafusion Comet 向量化Rust Native--Native算子(CometNativeExec)怎么串联执行
大数据·rust·spark·native
Light6013 小时前
数智孪生,金流·物流全透视:构建某银行制造业贷后风控新范式—— 基于领码 SPARK 融合平台的技术解决方案
大数据·spark·数字孪生·实时监控·物联网金融·供应链风控·ai决策
小邓睡不饱耶16 小时前
基于Spark GraphX构建用户信任网络:精准定位高价值目标用户
大数据·spark·php
编程彩机1 天前
互联网大厂Java面试:从Java SE到大数据场景的技术深度解析
java·大数据·spring boot·面试·spark·java se·互联网大厂
ApacheSeaTunnel1 天前
Apache SeaTunnel Zeta、Flink、Spark 怎么选?底层原理 + 实战对比一次讲透
大数据·flink·spark·开源·数据集成·seatunnel·数据同步
迎仔1 天前
06-Spark 进阶指南:架构原理与 Alluxio 加速
大数据·架构·spark
阿里云大数据AI技术1 天前
淘宝闪购基于阿里云 EMR Serverless Spark&Paimon 的湖仓实践:超大规模下的特征生产&多维分析双提效
starrocks·阿里云·spark·paimon
鸿乃江边鸟2 天前
Spark Datafusion Comet 向量化Rust Native--执行Datafusion计划
大数据·rust·spark·native
小邓睡不饱耶2 天前
Spark Streaming实时微博热文分析系统:架构设计与深度实现
大数据·分布式·spark
Zilliz Planet2 天前
<span class=“js_title_inner“>Spark做ETL,与Ray/Daft做特征工程的区别在哪里,如何选型?</span>
大数据·数据仓库·分布式·spark·etl