【大数据面试题】33 手写一个 Flink SQL 样例

一步一个脚印,一天一道大数据面试题
博主希望能够得到大家的点赞收,藏支持!非常感谢~

点赞,收藏是情分,不点是本分。祝你身体健康,事事顺心!

我们来看看 Flink SQL大概流程和样例:

流程:

1.创建 流处理环境 StreamExecutionEnvironment env

2.创建 表环境 StreamTableEnvironment.create(env);

3.创建 source表,sink

4.用 table API 编写查询 SQL(返回 Table 对象)

5.执行 sink executeInsert("sink")

代码样例:

java 复制代码
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.EnvironmentSettings;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.TableEnvironment;
import org.apache.flink.table.api.bridge.java.StreamTableEnvironment;

import static org.apache.flink.table.api.Expressions.$;

public class SqlDemo2 {
    public static void main(String[] args) {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 1.创建表环境
        // 1.1 方法 1
//        EnvironmentSettings settings = EnvironmentSettings.newInstance()
//                .inStreamingMode()
//                .build();
//        TableEnvironment tableEnv = TableEnvironment.create(settings);

        // 1.2 方法 2
        StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);

        // 创建表
        // 用 datagen 生成随机数据作为 source
        tableEnv.executeSql("CREATE TABLE source (\n" +
                "    id INT\n" +
                "    ,ts BIGINT\n" +
                "    ,vc INT\n" +
                ") WITH (\n" +
                "    'connector' = 'datagen'\n" +
                "    ,'rows-per-second'='1'\n" +
                "    ,'fields.id.kind'='random'\n" +
                "    ,'fields.id.min'='1'\n" +
                "    ,'fields.id.max'='10'\n" +
                "    ,'fields.ts.kind'='sequence'\n" +
                "    ,'fields.ts.min'='1'\n" +
                "    ,'fields.ts.max'='1000000'\n" +
                "    ,'fields.vc.kind'='random'\n" +
                "    ,'fields.vc.min'='1'\n" +
                "    ,'fields.vc.max'='100'\n" +
                ");\n");

        tableEnv.executeSql("CREATE TABLE sink(\n" +
                "    id INT,\n" +
                "    sumVC INT,\n" +
                ") WITH (\n" +
                "'connector'='print'\n" +
                ");\n");

        // 执行查询
        Table source = tableEnv.from("source");
        Table select = source.where($("id").isGreater(5))
                .groupBy($("id"))
                .aggregate($("vc").sum().as("sumVC"))
                .select($("id"), $("sumVC"));

        // 执行 sink
        select.executeInsert("sink");

    }
}

运行截图:

我是近未来,祝你变得更强!

相关推荐
@小红花11 分钟前
从零到精通 Hadoop 的系统学习文档
大数据·hadoop·学习
Dandelion____z11 分钟前
AI 驱动业务的致命风险:如何用架构设计守住安全底线?
java·大数据·人工智能·spring boot·aigc·jboltai
TDengine (老段)38 分钟前
TDengine 转化函数 TO_CHAR 用户手册
大数据·数据库·物联网·时序数据库·iot·tdengine·涛思数据
zhou_gai2 小时前
供应链计划 - 物料分类
大数据·分类·制造
BD_Marathon3 小时前
java.io.FileNotFoundException: File does not exist: hdfs://master:9000/sparklog
大数据·hadoop·hdfs
2501_941870564 小时前
人工智能与未来的工作:自动化与人类协作的新时代
大数据·人工智能
sunxunyong4 小时前
flink/spark/hive 使用paimon
hive·flink·spark
杜斯{Data}4 小时前
Excel 高阶实战:从脏数据到可视化报告的完整闭环
大数据·数据分析·excel
无级程序员4 小时前
datasophon安装hive3.1.3手记
大数据·hive
Elias不吃糖5 小时前
NebulaChat:C++ 高并发聊天室服务端
开发语言·c++·redis·sql·项目文档