spark sql实践开发后端引擎

写在前面:

一转眼的时间,2024年了,翻看了一下博客首页,已有8年的码领,自从去年开启博客关注才能预览,至今已有1500个粉丝,比其他短视频平台的粉丝还要多,经年累月,8年一瞬,在码代码的道路上越来越不快乐,为何不快乐,因为寻觅不到快乐的源泉。

------------- "何以解忧,唯有暴富"

需求

开发一个系统,主要是将数仓中治理完用于检索的数据灌入​Elasticsearch​中,一般情况,开源的一些系统都可以满足情况,包括自己编写代码实现。系统开发主要用于数据产品的产品化,需要开发界面和后续开发完成软著的申请

设计思路

使用spark sql进行处理,之前也调研了抽象语法树生成代码的方式,也能实现功能,相对于sparksql方式稍显复杂,spark sql只需要将sql 字符串传入,生成临时试图,多表关联也可以通过参数传入,多表join将sql传入,并将需要用到的配置以参数方式传入,这样jar报的编码只需要对应一个模板主类入口,其他的参数从前端页面上配置传入。

主要代码

Scala 复制代码
object DataToEs {
  def main(args: Array[String]): Unit = {

    val table_name = args(0)
    val filter_expr = args(1)
    val primary_query = args(2)
    val patient_join = args(3)
    val where_expr = args(4)
    val sql_str = args(5)
    val es_index = args(6)

    val spark: SparkSession = SparkSession....

    val df: DataFrame = spark.read.jdbc(JdbcConfig.URL, SchemaConst.schemaName + table_name, JdbcConfig.getProperties)

   
    df.createOrReplaceTempView(table_name)

    val sql_df: DataFrame = spark.sql(sql_str)
    sql_df.printSchema()

    sql_df.show()
    val es_df_no_null = sql_df.filter(where_expr)
    es_df_no_null.saveToEs(es_index, EsConfig.es_index_routing_patient_id_config)
    spark.stop()
  }
}

多表join 多几个 df.createOrReplaceTempView(table_name) ,将代码打成jar包,系统前端页面参数通过服务端传入并提交执行在大数据集群节点

相关推荐
slyybw12 分钟前
MySQL SQL语句
sql·mysql·oracle
guoji778818 分钟前
Gemini vs Grok镜像站技术拆解对比:视觉派与实时派的正面交锋
大数据·人工智能·gpt
乐迪信息23 分钟前
乐迪信息:AI防爆摄像机在智慧港口船舶监测中的技术优势
大数据·人工智能·安全·计算机视觉·目标跟踪
合合技术团队30 分钟前
合合信息联合亚马逊云科技推出长文档智能处理方案,破解智能体规模化落地困局
大数据·人工智能·科技·文档解析
尽兴-32 分钟前
Elasticsearch 入门全景:核心概念与典型应用场景速览
大数据·elasticsearch·搜索引擎·全文检索·高性能·elastic stack·分布式生态
php_kevlin40 分钟前
git提交限制规范
大数据·git·elasticsearch
wzl202612131 小时前
基于企微API与数据中台,构建用户分层与沉默用户召回体系
大数据·人工智能·企业微信
币之互联万物1 小时前
好用的推理训练引擎:博云AIOS如何重塑企业AI算力底座
大数据·人工智能
从零开始学习人工智能1 小时前
从PDF到智能问答:RAG-Anything多模态银行文档处理实战解析
大数据·人工智能·pdf
jkyy20142 小时前
破解零售增长瓶颈,AI智能营养师成为保健品成交新引擎
大数据·人工智能·健康医疗·零售