-
读取clickhouse数据库数据
scalaimport scala.collection.mutable.ArrayBuffer import java.util.Properties import org.apache.spark.sql.SaveMode import org.apache.spark.sql.SparkSession def getCKJdbcProperties( batchSize: String = "100000", socketTimeout: String = "300000", numPartitions: String = "50", rewriteBatchedStatements: String = "true"): Properties = { val properties = new Properties properties.put("driver", "ru.yandex.clickhouse.ClickHouseDriver") properties.put("user", "default") properties.put("password", "数据库密码") properties.put("batchsize", batchSize) properties.put("socket_timeout", socketTimeout) properties.put("numPartitions", numPartitions) properties.put("rewriteBatchedStatements", rewriteBatchedStatements) properties } // 读取click数据库数据 val today = "2023-06-05" val ckProperties = getCKJdbcProperties() val ckUrl = "jdbc:clickhouse://233.233.233.233:8123/ss" val ckTable = "ss.test" var ckDF = spark.read.jdbc(ckUrl, ckTable, ckProperties) -
**show**展示数据,类似于select * from test的功能[ckDF.show](http://ckDF.show)默认展示前20个记录ckDF.show(3)指定展示记录数ckDF.show(false)是否展示前20个ckDF.show(3, 0)截取记录数
-
**ckDF.collect** 方法会将ckDF中的所有数据都获取到,并返回一个Array对象 -
ckDF.collectAsList功能和collect类似,只不过将返回结构变成了List对象 -
**ckDF.describe**("ip_src").show(3)****获取指定字段的统计信息scalascala> ckDF.describe("ip_src").show(3) +-------+------+ |summary|ip_src| +-------+------+ | count|855035| | mean| null| | stddev| null| +-------+------+ only showing top 3 rows -
first, head, take, takeAsList获取若干行记录first获取第一行记录head获取第一行记录,head(n: Int)获取前n行记录take(n: Int)获取前n行数据takeAsList(n: Int)获取前n行数据,并以List的形式展现
以
Row或者Array[Row]的形式返回一行或多行数据。first和head功能相同。take和takeAsList方法会将获得到的数据返回到Driver端,所以,使用这两个方法时需要注意数据量,以免Driver发生OutOfMemoryError
【Hadoop】在spark读取clickhouse中数据
方大刚2332024-03-06 11:28
相关推荐
零一科技2 小时前
windows安装VMware Workstation Pro麦兜和小可的舅舅6 小时前
ClickHouse 一次Schema修改造成的Merge阻塞问题的分析和解决过程yumgpkpm7 小时前
2026软件:白嫖,开源,外包,招标,晚进场(2025年下半年),数科,AI...中国的企业软件产业出路kylezhao201910 小时前
深入浅出地理解 C# WPF 中的属性迎仔11 小时前
01-Hadoop 核心三剑客通俗指南:从“单机搬砖”到“包工队”鸿乃江边鸟16 小时前
Spark Datafusion Comet 向量化Rust Native--Native算子(CometNativeExec)怎么串联执行TTBIGDATA16 小时前
【Ranger】Ranger Admin 配置 Knox 策略时出现,the trustAnchors parameter must be non-emptyLight6016 小时前
数智孪生,金流·物流全透视:构建某银行制造业贷后风控新范式—— 基于领码 SPARK 融合平台的技术解决方案BYSJMG16 小时前
计算机毕设推荐:基于大数据的各省碳排放数据分析与可视化系统实战小邓睡不饱耶18 小时前
基于Spark GraphX构建用户信任网络:精准定位高价值目标用户