【大数据面试题】33 手写一个 Flink SQL 样例

一步一个脚印,一天一道大数据面试题
博主希望能够得到大家的点赞收,藏支持!非常感谢~

点赞,收藏是情分,不点是本分。祝你身体健康,事事顺心!

我们来看看 Flink SQL大概流程和样例:

流程:

1.创建 流处理环境 StreamExecutionEnvironment env

2.创建 表环境 StreamTableEnvironment.create(env);

3.创建 source表,sink

4.用 table API 编写查询 SQL(返回 Table 对象)

5.执行 sink executeInsert("sink")

代码样例:

java 复制代码
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.EnvironmentSettings;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.TableEnvironment;
import org.apache.flink.table.api.bridge.java.StreamTableEnvironment;

import static org.apache.flink.table.api.Expressions.$;

public class SqlDemo2 {
    public static void main(String[] args) {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

        // 1.创建表环境
        // 1.1 方法 1
//        EnvironmentSettings settings = EnvironmentSettings.newInstance()
//                .inStreamingMode()
//                .build();
//        TableEnvironment tableEnv = TableEnvironment.create(settings);

        // 1.2 方法 2
        StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);

        // 创建表
        // 用 datagen 生成随机数据作为 source
        tableEnv.executeSql("CREATE TABLE source (\n" +
                "    id INT\n" +
                "    ,ts BIGINT\n" +
                "    ,vc INT\n" +
                ") WITH (\n" +
                "    'connector' = 'datagen'\n" +
                "    ,'rows-per-second'='1'\n" +
                "    ,'fields.id.kind'='random'\n" +
                "    ,'fields.id.min'='1'\n" +
                "    ,'fields.id.max'='10'\n" +
                "    ,'fields.ts.kind'='sequence'\n" +
                "    ,'fields.ts.min'='1'\n" +
                "    ,'fields.ts.max'='1000000'\n" +
                "    ,'fields.vc.kind'='random'\n" +
                "    ,'fields.vc.min'='1'\n" +
                "    ,'fields.vc.max'='100'\n" +
                ");\n");

        tableEnv.executeSql("CREATE TABLE sink(\n" +
                "    id INT,\n" +
                "    sumVC INT,\n" +
                ") WITH (\n" +
                "'connector'='print'\n" +
                ");\n");

        // 执行查询
        Table source = tableEnv.from("source");
        Table select = source.where($("id").isGreater(5))
                .groupBy($("id"))
                .aggregate($("vc").sum().as("sumVC"))
                .select($("id"), $("sumVC"));

        // 执行 sink
        select.executeInsert("sink");

    }
}

运行截图:

我是近未来,祝你变得更强!

相关推荐
小白学大数据5 分钟前
海量小说数据采集:Spark 爬虫系统设计
大数据·开发语言·爬虫·spark
弘毅 失败的 mian10 分钟前
Git 分支管理
大数据·经验分享·笔记·git·elasticsearch
彬匠科技BinJiang_tech31 分钟前
对账太耗时?跨境ERP实现物流商/供应商自动化对账
大数据·运维·自动化
weilaikeqi111136 分钟前
宠物护理技术革命:“微米银”正在改写传统抗菌方式?
大数据·人工智能·宠物
喂完待续41 分钟前
【Big Data】2025年大数据技术演进与产业变革
大数据·ai·数据安全·big data·年度总结·微博之星
liangshanbo121541 分钟前
从“造智能体”到“赋能技能”:大模型应用范式的战略大转向
大数据·人工智能
阿坤带你走近大数据1 小时前
Elasticsearch(ES)的基本概念、架构及基本使用介绍
大数据·elasticsearch
阿标在干嘛1 小时前
【功能全景实测】科力辰科技查新网:它如何试图覆盖科研业务全链条?
大数据·人工智能·科技
越甲八千1 小时前
SQL注入
数据库·sql·oracle
Elastic 中国社区官方博客1 小时前
使用 Elasticsearch 中的结构化输出创建可靠的 agents
大数据·人工智能·elk·elasticsearch·搜索引擎·ai·全文检索