大数据Flink(一百一十四):PyFlink的作业开发入门案例

文章目录

PyFlink的作业开发入门案例

一、批处理的入门案例

1、示例

2、​​​​​​​​​​​​​​开发步骤

3、参考代码:基于DataStreamAPI编程

二、​​​​​​​​​​​​​​流处理的入门案例

1、​​​​​​​​​​​​​​示例

2、​​​​​​​​​​​​​​开发步骤

3、​​​​​​​​​​​​​​参考代码:基于DataStreamAPI编程


PyFlink的作业开发入门案例

一、 ​​​​​​​批处理的入门案例

1、 ​​​​​​​示例

编写Flink程序,读取表中的数据,并根据表中的字段信息进行统计每个单词出现的数量。

2、​​​​​​​​​​​​​​开发步骤

  1. 创建批式处理的运行环境
  2. 构建数据源
  3. 对数据进行处理
  4. 对处理后的结果输出打印
  5. 启动执行
  6. 准备测试数据

3、参考代码:基于DataStreamAPI编程

在pyflink_study项目下新建data文件夹,在data下新建input文件夹,在input下新建wordcount.txt文件,内容如下:

bash 复制代码
Total,time,BUILD,SUCCESS
Final,Memory,Finished,at
Total,time,BUILD,SUCCESS
Final,Memory,Finished,at
Total,time,BUILD,SUCCESS
Final,Memory,Finished,at
BUILD,SUCCESS
BUILD,SUCCESS
BUILD,SUCCESS
BUILD,SUCCESS
BUILD,SUCCESS
BUILD,SUCCESS

在pyflink_study项目下新建Easy_Case_Batch_DataStream.py文件,代码如下:

python 复制代码
from pyflink.common import Encoder, Types
from pyflink.datastream import StreamExecutionEnvironment, RuntimeExecutionMode
from pyflink.datastream.connectors import (FileSink, OutputFileConfig,RollingPolicy)

def word_count():
    # 1. 创建流式处理环境
    env = StreamExecutionEnvironment.get_execution_environment()
    env.set_runtime_mode(RuntimeExecutionMode.BATCH)
    # write all the data to one file
    env.set_parallelism(1)

    # 3. 将source添加到环境中,环境会生成一个datastream,也就是我们进行操作的数据类
    ds = env.read_text_file("D:\work_space\pyflink_study\data\input\wordcount.txt")

    # 4. transform
    def split(line):
        yield from line.split(",")

    # compute word count
    ds = ds.flat_map(split) \
        .map(lambda i: (i, 1), output_type=Types.TUPLE([Types.STRING(), Types.INT()])) \
        .key_by(lambda i: i[0]) \
        .reduce(lambda i, j: (i[0], i[1] + j[1]))

    # 5. sink
    ds.print()

    # 6. 真正执行代码
    env.execute("word_count")

if __name__ == '__main__':
    word_count()

注意read_text_file后的地址要与实际地址对应。

运行结果如下:

二、​​​​​​​​​​​​​​流处理的入门案例

1、​​​​​​​​​​​​​​示例

编写Flink程序,接收socket的单词数据,并以逗号进行单词拆分打印。

2、​​​​​​​​​​​​​​开发步骤

  1. 获取流处理运行环境
  2. 构建socket流数据源,并指定IP地址和端口号
  3. 对接收到的数据进行拆分
  4. 对拆分后的单词,每个单词记一次数
  5. 对拆分后的单词进行分组
  6. 根据单词的次数进行聚合
  7. 打印输出
  8. 在云服务器中,使用nc -lk 端口号 监听端口
  9. 启动执行
  10. 向监听端口发送单词

3、​​​​​​​​​​​​​​参考代码:基于DataStreamAPI编程

新建Easy_Case_Stream_DataStream.py文件,代码如下:

python 复制代码
from pyflink.common import Types
from pyflink.datastream import StreamExecutionEnvironment, DataStream, RuntimeExecutionMode

if __name__ == '__main__':
    # 1. 创建流式处理环境
    env = StreamExecutionEnvironment.get_execution_environment()
    env.set_runtime_mode(RuntimeExecutionMode.STREAMING)
    # write all the data to one file
    env.set_parallelism(1)

    # 3. 创建source
    ds = DataStream(env._j_stream_execution_environment.socketTextStream('8.140.192.198', 9999))

    # 4. transform
    def split(line):
        yield from line.split(",")

    # compute word count
    ds = ds.flat_map(split) \
        .map(lambda i: (i, 1), output_type=Types.TUPLE([Types.STRING(), Types.INT()])) \
        .key_by(lambda i: i[0]) \
        .reduce(lambda i, j: (i[0], i[1] + j[1]))

    # 5. sink
    ds.print()

    # 6. 真正执行代码
    env.execute("word_count")

注意:socketTextStream后的ip是云服务器ecs的公网ip。

先进入云服务器ECS,开启netcat,监听9999 端口号。(如果没有安装可以使用yum安装nc: yum install -y nc)

bash 复制代码
nc -lk 9999

然后运行本地程序

在ecs依次发送单词

bash 复制代码
flink,spark,hadoop
flink,flink,spark
flink,hadoop

查看结果


  • 📢博客主页:https://lansonli.blog.csdn.net
  • 📢欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!
  • 📢本文由 Lansonli 原创,首发于 CSDN博客🙉
  • 📢停下休息的时候不要忘了别人还在奔跑,希望大家抓紧时间学习,全力奔赴更美好的生活✨
相关推荐
武子康30 分钟前
大数据-124 - Flink State:Keyed State、Operator State KeyGroups 工作原理 案例解析
大数据·后端·flink
vxtkjzxt8881 小时前
手机群控软件在游戏运营中的行为模拟技术实践
大数据
铭毅天下2 小时前
Codebuddy 实现:云端 Elasticsearch 到 本地 Easysearch 跨集群迁移 Python 小工具
大数据·elasticsearch·搜索引擎·全文检索
青云交2 小时前
Java 大视界 -- Java 大数据在智慧交通自动驾驶仿真与测试数据处理中的应用
java·大数据·自动驾驶·数据存储·算法优化·智慧交通·测试数据处理
观远数据2 小时前
A Blueberry 签约观远数据,观远BI以一站式现代化驱动服饰企业新增长
大数据·数据库·人工智能·数据分析
缘华工业智维8 小时前
工业设备预测性维护:能源成本降低的“隐藏钥匙”?
大数据·网络·人工智能
NewsMash8 小时前
马来西亚代表团到访愿景娱乐 共探TikTok直播电商增长新路径
大数据·娱乐
凯禾瑞华养老实训室11 小时前
聚焦生活照护能力培育:老年生活照护实训室建设清单的模块设计与资源整合
大数据·人工智能·科技·ar·vr·智慧养老·智慧健康养老服务与管理
Q264336502312 小时前
【有源码】基于Hadoop生态的大数据共享单车数据分析与可视化平台-基于Python与大数据的共享单车多维度数据分析可视化系统
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计