0基础学习PyFlink——使用Table API实现SQL功能

《0基础学习PyFlink------使用PyFlink的Sink将结果输出到Mysql》一文中,我们讲到如何通过定义Souce、Sink和Execute三个SQL,来实现数据读取、清洗、计算和入库。

如下图所示SQL是最高层级的抽象,在它之下是Table API。本文我们会将例子中的SQL翻译成Table API来实现等价的功能。

Souce

python 复制代码
    # """create table source (
    #         word STRING
    #     ) with (
    #         'connector' = 'filesystem',
    #         'format' = 'csv',
    #         'path' = '{}'
    #     )
    # """.format(input_path)

下面的SQL分为两部分:

  • Table结构:该表只有一个名字为word,类型为string的字段。
  • 连接器:是"文件系统"(filesystem)类型,格式是csv的文件。这样输入就会按csv格式进行解析。

SQL中的Table对应于Table API中的schema。它用于定义表的结构,比如有哪些类型的字段和主键等。

上述整个SQL整体对应于descriptor。即我们可以认为descriptor是表结构+连接器。

我们可以让不同的表和不同的连接器结合,形成不同的descriptor。这是一个组合关系,我们将在下面看到它们的组合方式。

schema

python 复制代码
    # define the source schema
    source_schema = Schema.new_builder() \
        .column("word", DataTypes.STRING()) \
        .build()

new_builder()会返回一个Schema.Builder对象;

column(self, column_name: str, data_type: Union[str, DataType])方法用于声明该表存在哪些类型、哪些名字的字段,同时返回之前的Builder对象;

最后的build(self)方法返回Schema.Builder对象构造的Schema对象。

descriptor

python 复制代码
    # Create a source descriptor
    source_descriptor= TableDescriptor.for_connector("filesystem") \
        .schema(source_schema) \
        .option('path', input_path) \
        .format("csv") \
        .build()

for_connector(connector: str)方法返回一个TableDescriptor.Builder对象;

schema(self, schema: Schema)将上面生成的source_schema 对象和descriptor关联;

option(self, key: Union[str, ConfigOption], value)用于指定一些参数,比如本例用于指定输入文件的路径;

format(self, format: Union[str, 'FormatDescriptor'], format_option: ConfigOption[str] = None)用于指定内容的格式,这将指导怎么解析和入库;

build(self)方法返回TableDescriptor.Builder对象构造的TableDescriptor对象。

Sink

python 复制代码
    # """CREATE TABLE WordsCountTableSink (
    #         `word` STRING,
    #         `count` BIGINT,
    #         PRIMARY KEY (`word`) NOT ENFORCED
    #     ) WITH (
    #         'connector' = 'jdbc',
    #         'url' = 'jdbc:mysql://127.0.0.1:3306/words_count_db?useSSL=false',
    #         'table-name' = 'WordsCountTable',
    #         'driver'='com.mysql.jdbc.Driver',
    #         'username'='admin',
    #         'password'='pwd123'
    #     );
    # """

schema

python 复制代码
    sink_schema = Schema.new_builder() \
        .column("word", DataTypes.STRING().not_null()) \
        .column("count", DataTypes.BIGINT()) \
        .primary_key("word") \
        .build()

大部分代码在之前已经解释过了。我们主要关注于区别点:

  • primary_key(self, *column_names: str) 用于指定表的主键。
  • 主键的类型需要使用调用not_null(),以表明其非空。

descriptor

python 复制代码
    # Create a sink descriptor
    sink_descriptor = TableDescriptor.for_connector("jdbc") \
        .schema(sink_schema) \
        .option("url", "jdbc:mysql://127.0.0.1:3306/words_count_db?useSSL=false") \
        .option("table-name", "WordsCountTable") \
        .option("driver", "com.mysql.jdbc.Driver") \
        .option("username", "admin") \
        .option("password", "pwd123") \
        .build()

这块代码主要是通过option来设置一些连接器相关的设置。可以看到这是用KV形式设计的,这样就可以让option方法有很大的灵活性以应对不同连接器千奇百怪的设置。

Execute

使用下面的代码将表创建出来,以供后续使用。

python 复制代码
t_env.create_table("source", source_descriptor)
tab = t_env.from_path('source')
t_env.create_temporary_table("WordsCountTableSink", sink_descriptor)
python 复制代码
    # execute insert
    # """insert into WordsCountTableSink
    #     select word, count(1) as `count`
    #     from source
    #     group by word
    # """
python 复制代码
    tab.group_by(col('word')) \
        .select(col('word'), lit(1).count) \
        .execute_insert("WordsCountTableSink") \
        .wait()

这儿需要介绍的就是lit。它用于生成一个表达式,诸如sum、max、avg和count等。

execute_insert(self, table_path_or_descriptor: Union[str, TableDescriptor], overwrite: bool = False)用于将之前的计算结果插入到Sink表中

完整代码

python 复制代码
import argparse
import logging
import sys

from pyflink.common import Configuration
from pyflink.table import (EnvironmentSettings, TableEnvironment, Schema)
from pyflink.table.types import DataTypes
from pyflink.table.table_descriptor import TableDescriptor
from pyflink.table.expressions import lit, col
    
def word_count(input_path):
    config = Configuration()
    # write all the data to one file
    config.set_string('parallelism.default', '1')
    env_settings = EnvironmentSettings \
        .new_instance() \
        .in_batch_mode() \
        .with_configuration(config) \
        .build()
    
    t_env = TableEnvironment.create(env_settings)

    # """create table source (
    #         word STRING
    #     ) with (
    #         'connector' = 'filesystem',
    #         'format' = 'csv',
    #         'path' = '{}'
    #     )
    # """

    # define the source schema
    source_schema = Schema.new_builder() \
        .column("word", DataTypes.STRING()) \
        .build()
        
    # Create a source descriptor
    source_descriptor = TableDescriptor.for_connector("filesystem") \
        .schema(source_schema) \
        .option('path', input_path) \
        .format("csv") \
        .build()
        
    t_env.create_table("source", source_descriptor)


    # """CREATE TABLE WordsCountTableSink (
    #         `word` STRING,
    #         `count` BIGINT,
    #         PRIMARY KEY (`word`) NOT ENFORCED
    #     ) WITH (
    #         'connector' = 'jdbc',
    #         'url' = 'jdbc:mysql://127.0.0.1:3306/words_count_db?useSSL=false',
    #         'table-name' = 'WordsCountTable',
    #         'driver'='com.mysql.jdbc.Driver',
    #         'username'='admin',
    #         'password'='pwd123'
    #     );
    # """

    # define the sink schema
    sink_schema = Schema.new_builder() \
        .column("word", DataTypes.STRING().not_null()) \
        .column("count", DataTypes.BIGINT()) \
        .primary_key("word") \
        .build()
        
    # Create a sink descriptor
    sink_descriptor = TableDescriptor.for_connector("jdbc") \
        .schema(sink_schema) \
        .option("url", "jdbc:mysql://127.0.0.1:3306/words_count_db?useSSL=false") \
        .option("table-name", "WordsCountTable") \
        .option("driver", "com.mysql.jdbc.Driver") \
        .option("username", "admin") \
        .option("password", "pwd123") \
        .build()
    
    t_env.create_temporary_table("WordsCountTableSink", sink_descriptor)
    
    
    # execute insert
    # """insert into WordsCountTableSink
    #     select word, count(1) as `count`
    #     from source
    #     group by word
    # """
    
    tab = t_env.from_path('source')
    tab.group_by(col('word')) \
        .select(col('word'), lit(1).count) \
        .execute_insert("WordsCountTableSink") \
        .wait()


if __name__ == '__main__':
    logging.basicConfig(stream=sys.stdout, level=logging.INFO, format="%(message)s")

    parser = argparse.ArgumentParser()
    parser.add_argument(
        '--input',
        dest='input',
        required=False,
        help='Input file to process.')

    argv = sys.argv[1:]
    known_args, _ = parser.parse_known_args(argv)

    word_count(known_args.input)

参考资料

相关推荐
大叔_爱编程1 天前
基于Python的历届奥运会数据可视化分析系统-django+spider
python·django·毕业设计·源码·课程设计·spider·奥运会数据可视化
Q_Q19632884751 天前
python+django/flask基于协同过滤算法的理财产品推荐系统
spring boot·python·django·flask·node.js·php
高洁011 天前
面向强化学习的状态空间建模:RSSM的介绍和PyTorch实现(3)
人工智能·python·深度学习·神经网络·transformer
aloha_7891 天前
测试开发工程师面经准备(sxf)
java·python·leetcode·压力测试
Jonathan Star1 天前
MediaPipe 在Python中实现人体运动识别,最常用且高效的方案是结合**姿态估计**(提取人体关键点)和**动作分类**(识别具体运动)
开发语言·python·分类
山顶听风1 天前
分页条初始化
python
ImproveJin1 天前
Flink Source源码解析
大数据·flink
PONY LEE1 天前
Flink Rebalance触发乱序的问题
大数据·flink
l1t1 天前
利用DeepSeek优化SQLite求解数独SQL用于DuckDB
开发语言·数据库·sql·sqlite·duckdb
NewsMash1 天前
PyTorch之父发离职长文,告别Meta
人工智能·pytorch·python