pyspark之Structured Streaming file文件案例1

generate_file.py

生成数据 生成500个文件,每个文件1000条数据

生成数据格式:eventtime name province action ()时间 用户名 省份 动作)

import os

import time

import shutil

import time

FIRST_NAME = ['Zhao', 'Qian', 'Sun', 'Li', 'Zhou', 'Wu', 'Zheng', 'Wang']

SECOND_NAME = ['San', 'Si', 'Wu', 'Chen', 'Yang', 'Min', 'Jie', 'Qi']

PROVINCE = ['BeiJing', 'ShanDong', 'ShangHai', 'HeNan', 'HaErBin']

ACTION = ['login', 'logout', 'purchase']

PATH = "/opt/software/tmp/"

DATA_PATH = "/opt/software/tmp/data/"

初始化环境

def test_Setup():

if os.path.exists(DATA_PATH):

shutil.rmtree(DATA_PATH)

os.mkdir(DATA_PATH)

清理数据,恢复测试环境

def test_TearDown():

shutile.rmtree(DATA_PATH)

数据保存文件

def writeAndMove(filename,content):

with open(PATH+filename,'wt',encoding='utf-8') as f:

f.write(content)

shutil.move(PATH+filename,DATA_PATH+filename)

if name == 'main':

test_Setup()

for i in range(500):

filename = "user_action_{}.log".format(i)

"""

验证spark输出模式,complete和update,增加代码,第一个文件i=0时,设置PROVINCE = "TAIWAN"

"""

if i == 0:

province= ['TaiWan']

else:

province = PROVINCE

content = ""

for _ in range(1000):

content += "{} {} {} {}\n".format(str(int(time.time())),random.choice(FIRST_NAME)+random.choice(SECOND_NAME),random.choice(province),random.choice(ACTION))

writeAndMove(filename,content)

time.sleep(10)

spark_file_test.py

读取DATA文件夹下面文件,按照省份统计数据,主要考虑window情况,按照window情况测试,同时针对 outputMode和输出console和mysql进行考虑,其中保存到mysql时添加batch字段

from pyspark.sql import SparkSession,DataFrame

from pyspark.sql.functions import split,lit,from_unixtime

DATA_PATH = "/opt/software/tmp/data/"

if name == 'main':

spark = SparkSession.builder.getOrCreate()

lines = spark.readStream.format("text").option("seq","\n").load(DATA_PATH)

分隔符为空格

userinfo = lines.select(split(lines.value," ").alias("info"))

第一个为eventtime 第二个为name 第三个为province 第四个为action

userinfo['info'][0]等同于userinfo['info'].getIterm(0)

user = userinfo.select(from_unixtime(userinfo['info'][0]).alias('eventtime'),

userinfo['info'][1].alias('name'),userinfo['info'][2].alias('province'),

userinfo['info'][3].alias('action'))

"""

测试1:数据直接输出到控制台,由于没有采用聚合,输出模式选择update

user.writeStream.outputMode("update").format("console").trigger(processingTime="8 seconds").start().awaitTermination()

"""

"""

测试2:数据存储到数据库,新建数据库表,可以通过printSchema()查看数据类型情况

def insert_into_mysql_batch(df:DataFrame,batch):

if df.count()>0:

此处将batch添加到df中,采用lit函数

data = df.withColumn("batch",lit(batch))

data.write.format("jdbc"). \

option("driver","com.mysql.jdbc.Driver"). \

option("url","jdbc:mysql://localhost:3306/spark").option("user","root").\

option("password","root").option("dbtable","user_log").\

option("batchsize",1000).mode("append").save()

else:

pass

user.writeStream.outputMode("update").foreachBatch((insert_into_mysql_batch)).trigger(processingTime="20 seconds").start().awaitTermination()

"""

"""

测试3:数据按照省份统计后,输出到控制台,分析complete和update输出模式区别,针对该问题,调整输入,province="TaiWan"只会输入1次,即如果输出方式complete,则每batch都会输出,update的话,只会出现在一个batch

userProvinceCounts = user.groupBy("province").count()

userProvinceCounts = userProvinceCounts.select(userProvinceCounts['province'],userProvinceCounts["count"].alias('sl'))

测试输出模式complete:complete将总计算结果都进行输出

"""

batch 0

TaiWan 1000

batch 1

TaiWan 1000

其他省份 sl

batch 2

TaiWan 1000

其他省份 sl

""" userProvinceCounts.writeStream.outputMode("complete").format("console").trigger(processingTime="20 seconds").start().awaitTermination()

测试输出模式update:update只输出相比上个批次变动的内容(新增或修改)

batch 0

TaiWan 1000

batch 1 中没有TaiWan输出

userProvinceCounts.writeStream.outputMode("complete").format("console").trigger(processingTime="20 seconds").start().awaitTermination()

"""

相关推荐
Deng94520131443 分钟前
基于Python的职位画像系统设计与实现
开发语言·python·文本分析·自然语言处理nlp·scrapy框架·gensim应用
好奇的菜鸟3 小时前
Spring Boot 事务失效问题:同一个 Service 类中方法调用导致事务失效的原因及解决方案
数据库·spring boot·sql
不太可爱的叶某人4 小时前
【学习笔记】MySQL技术内幕InnoDB存储引擎——第5章 索引与算法
笔记·学习·mysql
岁岁岁平安4 小时前
Redis基础学习(五大值数据类型的常用操作命令)
数据库·redis·学习·redis list·redis hash·redis set·redis string
FreakStudio5 小时前
一文速通 Python 并行计算:13 Python 异步编程-基本概念与事件循环和回调机制
python·pycharm·协程·多进程·并行计算·异步编程
量子联盟5 小时前
原创-基于 PHP 和 MySQL 的证书管理系统,免费开源
开发语言·mysql·php
小光学长6 小时前
基于vue框架的防疫科普网站0838x(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
数据库
极限实验室6 小时前
使用 Docker Compose 简化 INFINI Console 与 Easysearch 环境搭建
数据库·docker·devops
飞翔的佩奇6 小时前
Java项目:基于SSM框架实现的旅游协会管理系统【ssm+B/S架构+源码+数据库+毕业论文】
java·数据库·mysql·毕业设计·ssm·旅游·jsp
豌豆花下猫7 小时前
让 Python 代码飙升330倍:从入门到精通的四种性能优化实践
后端·python·ai