Spark SQL 桶抽样(Bucket Sampling)

目录

前言:

在Spark SQL中,桶抽样(Bucket Sampling)是一种基于哈希分桶的抽样方法,它可以将数据划分为若干个桶(bucket),然后抽取其中一个或多个桶的数据作为样本。桶抽样有两种主要形式:

基于分桶列(Bucketed Column)的抽样:这种抽样要求表本身是分桶表(Bucketed Table),并且抽样是基于分桶时指定的列进行的。

基于任意列的随机抽样:使用TABLESAMPLE语法,可以基于随机函数(如rand())或指定列进行分桶抽样,即使表不是分桶表也可以使用。

这里我们主要讨论第二种,即使用TABLESAMPLE (BUCKET x OUT OF y ON expr)语法,其中expr可以是列名,也可以是随机函数(如rand())。

语法:

sql 复制代码
SELECT ...
FROM table_name
TABLESAMPLE (BUCKET x OUT OF y [ON colname | rand()])

解释:

x:抽取的桶编号,从1开始。

y:总桶数。

ON后面的表达式:可以是某个列名,也可以是一个随机函数(如rand())。如果是列名,那么会根据该列的哈希值进行分桶抽样;如果是rand(),则使用随机分桶(每次运行不同,除非指定种子),如果使用rand(seed)则可以重复抽样。

注意:

桶抽样是精确抽样,它将数据分成y个桶,然后抽取第x个桶。

当使用列名进行分桶抽样时,具有相同列值的行会进入同一个桶,这样可以保证具有相同关键字的行被一起抽样或不被抽样。

当使用rand()时,则是随机将行分配到各个桶中,每次运行会因为随机性而不同。

示例:

示例1:基于某个列(如user_id)进行桶抽样,保证相同user_id的行在同一个桶中:

sql 复制代码
sql
SELECT * 
FROM sales 
TABLESAMPLE (BUCKET 1 OUT OF 10 ON user_id);

这将数据分成10个桶,然后抽取第1个桶的数据。同一个user_id的所有行都会被分到同一个桶中,因此要么全部被抽中,要么全部不被抽中。

示例2:基于随机函数进行桶抽样(每次运行结果随机):

sql 复制代码
sql
SELECT * 
FROM sales 
TABLESAMPLE (BUCKET 1 OUT OF 10 ON rand());

同样分成10个桶,抽取第1个桶,但是行是随机分配的。

示例3:可重复的随机抽样(通过指定随机种子):

sql 复制代码
sql
SELECT * 
FROM sales 
TABLESAMPLE (BUCKET 1 OUT OF 10 ON rand(42));

这样,每次运行都会得到相同的抽样结果。

示例4:抽取多个桶:例如,抽取前3个桶(即30%的数据):

使用WHERE子句配合取模运算(前提是抽样表达式相同):

sql 复制代码
sql
SELECT *
FROM (
    SELECT *, abs(hash(rand(42))) % y AS bucket_id
    FROM sales
) tmp
WHERE bucket_id IN (0, 1, 2);   -- 注意:桶的编号在0到y-1之间?

但是要注意,TABLESAMPLE的分桶编号是从1开始,而自己计算哈希取模通常是0到y-1。所以需要调整。

相关推荐
武子康4 小时前
大数据-105 Spark GraphX 入门详解:分布式图计算框架全面解析 架构、算法与应用场景
大数据·后端·spark
虾说羊4 小时前
Spring注解驱动开发:从XML到注解的完美蜕变
xml·sql·spring
计算机编程小央姐4 小时前
【Spark+Hive+hadoop】基于spark+hadoop基于大数据的全球用水量数据可视化分析系统大数据毕设
大数据·hadoop·数据分析·spark·课程设计
歪歪1005 小时前
介绍一下SQLite的基本语法和常用命令
数据库·sql·架构·sqlite
会功夫的李白6 小时前
捕获Mybatis执行的Sql
sql·mybatis
TDengine (老段)6 小时前
TDengine 聚合函数 SPREAD 用户手册
大数据·数据库·sql·物联网·时序数据库·tdengine·涛思数据
武子康4 天前
大数据-102 Spark Streaming 与 Kafka 集成全解析:Receiver 与 Direct 两种方式详解 附代码案例
大数据·后端·spark
CloudDM4 天前
SQL 审核工具深度体验(一): CloudDM vs Archery vs Yearning vs Bytebase
sql
武子康5 天前
大数据-101 Spark Streaming 有状态转换详解:窗口操作与状态跟踪实战 附多案例代码
大数据·后端·spark