FlinkSQL的联结和函数

联结查询

常规联结

  • Inner Join: 结果集取交集
  • Outer Join
    • left outer join: 左表的数据全取,右表的数据取与左表匹配的数据
    • right outer join:右表的数据全取,左表的数据取与右表匹配的数据
    • full outer join:左表和右表都取匹配的数据
  • 常规联结,会将流中的数据一直保留在状态中,需要考虑状态的清除,可以使用TTL
    • tableEnv.getConfig().getConfiguration().setLong("table.exec.state.ttl", 10000);

间隔联结 interval join

  • 以一条流中数据的时间为基准,
sql 复制代码
select
	t1.id,
	t1.vc,
	t2.vc
from t1, t2
where t1.id = t2.id

维表联结 lookUp join

一条流与外部的一张表(维度表)进行联结。

sql 复制代码
select 
	t1.id,
	t1.vc,
	t2.vc
from t1
join t2 for system_time as of t1.pt
	on t1.id = t2.id;

函数

  1. 系统函数
    • API方式:table(call("UPPER", $("id"))).execute().print();
    • SQL方式:tableEnv.sqlQuery("select UPPER(id), vc, ts from t1");
  2. 自定义函数
    • Scalar Function: UDF 一进一出
      • 继承 ScalarFunction类,实现一个或多个eval()
      • 注册函数:TableEnv.createTemporyFunction("MyUpper", MyUpperFunction.class);
    • Table function: UDTF, 一进多出
      • 继承TableFunction类,有泛型,表示输出类型。flink中二元组建议使用Row类型
      • 实现一个或多个eval方法
      • 收集数据时直接使用collect()方法
      • 由于Row类型无法确定元素的个数,需要添加注解@FunctionHint(output=@DataTypeHint("ROW<word string, len int>"))
      • 输出结果需要使用侧写:left join lateral table(mySplit(id)) on true;
    • Aggregate function : UDAF, 多进一出
      • 写个类继承AggregateFunction<OUT, Tuple2<Integer, Integer>输入类型>
      • 实现3个方法:getValue(), createAccumulator(), accumulate()
      • 注册方法:tableEnv.createTemporyFunction()
    • Table aggregate Function: 多进多出 ,UDTAF
      • 写个类继承TableAggregateFunction<OUT, IN>
      • 实现3个方法:createAccumulator(), accumulate()
      • 该类型的方法无法使用SQL的方式来调用,SQL中没有该类型的方法,只能使用API的方式
      • .flatAggregate(call("myTop2"), $ ("vc") )

CataLog目录

  1. 默认库 tableEnv.getCurrentDatabase() => default_database
  2. 默认目录 tableEnv.getCurrentCataLog() => default_catalog, 名字为GenericInMemeryCatalog
  3. 目录包含库,库包含表,方便后期管理。
  4. 可以读取外部数据库的表,可以查询外部数据库的表
  5. JdbcCataLog不支持创建外部数据表
  6. HiveCatalog
    • 需要下载hive-set.xml文件到本地项目中
    • 启动metastore服务:nohup metastore --service &
    • 设置登录用户 setProperties("HADOOP_USER_NAME", "atguigu");
    • Flink只是将元数据存储到了Hive中

Module操作

Flink支持引入Hive中的优秀函数,比如Split('aa,bb,cc,dd', ',').

  • 创建 HiveModule hiveModule = new HiveModule();
  • 引入:tableEnv.loadModule("hive", hiveModule);
  • 查看Flink中Module: tableEnv.listModules(); 如果出现同名的函数,会按照当前module的顺序来使用
    • 调换顺序:tableEnv.useModules("hive", "core");

SQL-Client

  1. 先启动Flink集群,独立部署模式或者Yarn模式
  2. bin/sql_client.sh
  3. 建立对应的表
  4. 查询表中数据
    • 显示模式
      • set 'sql-client.execution.result-mode' = 'table'
      • set 'sql-client.execution.result-mode' = 'tableau'
      • set 'sql-client.execution.result-mode' = 'changelog'
相关推荐
青云交8 分钟前
Java 大视界 -- Java 大数据在智能医疗电子病历数据分析与临床决策支持中的应用
java·flink·数据清洗·电子病历·智能医疗·医疗信息化·临床决策
用户新10 分钟前
五万字沥血事件 深度学习 事件 循环 事件传播 异步 脱离新手区 成为事件达人
前端·javascript·事件·event loop
han_hanker12 分钟前
@JsonIgnore,@JsonProperty, @JsonInclude,@JsonFormat
数据库·oracle
w2sfot19 分钟前
JS代码压缩
前端·javascript·html
hanyi_qwe23 分钟前
MySQL事务基础
数据库·mysql
码途潇潇26 分钟前
从组件点击事件到业务统一入口:一次前端操作链的完整解耦实践
前端
l1t26 分钟前
三种用SQL解决Advent of Code 2022第8题 树顶木屋 的比较和分析
数据库·sql·oracle·duckdb·advent of code
用户03048059126328 分钟前
【Spring进阶】深入理解 FactoryBean:定制化 Bean 的秘密武器
java
如果未来,29 分钟前
Oracle的Redo log和Undo log的区别
数据库·oracle
BBB努力学习程序设计33 分钟前
深入理解 Java 多态:解锁面向对象编程的灵活性
java