AWS中国云中的ETL之从aurora搬数据到s3(Glue版)

问题

需要将数据定时每天从Aurora搬数据到S3中。

步骤

准备数据库只读账号

这里用的Aurora实际上是Mysql,所以,这里创建一个Mysql账号,然后,在Secrets Manager

设置好自动轮转即可。具体如下:

bash 复制代码
# 登录跳板机后,使用mysql cli登录数据库集群
mysql -h dev.cluster-xxxx.rds.cn-north-1.amazonaws.com.cn -u admin --ssl -p
# 输入密码登录成功后,开始创建mysql只读用户
CREATE USER '{用户名}'@'%' IDENTIFIED BY '{密码}';
# 设置只读权限
GRANT SELECT, SHOW VIEW ON {数据库名}.* TO '{用户名}'@'%';
# 强制刷新权限
FLUSH PRIVILEGES;

在数据库段创建好只读用户后,再到Secrets Manager设置用户自动轮转:

设置密钥名称:

设置自动轮转密钥,如下图:

创建自动轮转密钥:

创建Glue JDBC连接器

开始创建Glue的JDBC连接器,如下图:

选择Amazon Aurora数据库进行连接,如下图:

配置连接如下图:

设置连接器名称,如下图:

创建JDBC连接器,如下图:

创建完成后,手动编辑一下JDBC连接,添加如下JDBC参数:

bash 复制代码
jdbc:mysql://xxx-cn-north-1b.{数据库集群ID}.rds.cn-north-1.amazonaws.com.cn:3306/{数据库名}?sslMode=REQUIRED&characterEncoding=UTF-8&connectionTimeZone=GMT%2B8&forceConnectionTimeZoneToSession=true

这里强制启用SSL方式连接,并使用UTF-8编码,设置时区为东八区,并且强制设置使用这个时区设置。

创建Glue任务运行角色

创建一个角色名为AWSGlueServiceRole角色,注意这个角色名必须以AWSGlueServiceRoleDefault*开头,才能被AWS Glue任务选择到。这个角色配置如下3种权限策略:

  • AWSGlueServiceRole:为AWS托管策略,这个策略许可定时任务操作包含aws-glue-路径的s3桶或s3目录;
  • AWSQuickSightS3Policy:是自定义对s3桶的设置,可以不用配置作用不是很大,这里忽略了;
  • GetSecretValue:是许可定时任务对secretsmanager密钥只读访问权限。

GetSecretValue策略

json 复制代码
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Sid": "VisualEditor0",
            "Effect": "Allow",
            "Action": [
                "secretsmanager:GetSecretValue",
                "secretsmanager:DescribeSecret"
            ],
            "Resource": "arn:aws-cn:secretsmanager:*:{账号ID}:secret:*"
        }
    ]
}

创建Glue定时任务

找到Glue入口管理页面。开始创建Glue任务,如下图:

设置数据读取源------MySQL

设置数据源,因为我们使用的Aurora是Mysql,所以这里直接设置数据源为MySQL或者关系型数据也可以。如下图:

接下来,配置数据库连接,配置需要查询的表和任务执行的角色,如下图:

最后点击start session,看数据预查询效果,如果出现安全组错误,一定要找到之前配置JDBC连接时与数据库RDS共用的安全组,需要配置如下入站规则:

安全组入站规则
类型 协议 端口范围
All TCP TCP 0-65535 database-sg-id

注意这里的database-sg-id就是安全组自身的id。

安全组的出站规则保存默认即可,即放行所有流量出站。

设置SQL查询

完成上面数据源配置后,就可以下一步,查询需要的数据了。开始添加下一步,如下图:

下一步转化步骤,选择SQL查询,如下图:

配置SQL查询,如下图:

这里写好业务需要查询SQL即可,其他东西,根据情况,进行配置即可。这里有一个需要注意的地方,就是S3桶中的数据,需要按年月日进行分区保存,而且保存的数据格式是hadoop格式,这里需要根据某些字段来进行数据分区,一般是年月日。英文里面把这个过程叫------partition。数据分区后,在s3里面类似如下:
s3://my_bucket/logs/year=2018/month=01/day=23/

如果你的数据里面有年月日三个字段的话,可以直接在下一步里面设置分区key即可。如果没有,又需要按当前时间任务运行时间来推断的话,就需要在SELECT子句里面另外加字段即可。类似查询SQL如下:

sql 复制代码
select *,
    YEAR(CURDATE() - INTERVAL 1 DAY) AS year,
    MONTH(CURDATE() - INTERVAL 1 DAY) AS month,
    DAY(CURDATE() - INTERVAL 1 DAY) AS day
from xxxx;

注意,这里不要直接写SELECT *,实际情况是要写出现表所有字段的,这里推断出昨天的年月日数据,记住这里的3个字段,在下一步S3分区配置中还需要使用。

这里还需要,手动添加年月日字段,如下图

开始手动添加字段,如下图:

添加完成3个字段后,如下图:

最后点击Apply即可。

设置数据写入目标------S3

选中转化步骤,添加下一步目标S3桶步骤,如下图:

开始配置目标S3位置和分区key,如下图:

这里最关键的就是hadoop分区key设置。这里保存的就是hadoop的压缩格式Parquet,而且,按年月日进行数据分区。最后点击保存后。在Schedules标签也配置定时任务触发器即可。注意定时任务触发器是用零时区的。

测试效果

S3文件效果如下:

总结

这里的AWS Glue任务,其实就是Spark+Hadoop完成了从MySQL到HDFS的数据写入。Spark在大数据的生态是真的强。这里比较难以理解的就是在Hadoop中的partition设计,具体数据分区远离,我借用了AWS文档里面图了,如下图:

这种按年月日,在这个领域,还是比较常见的。到这里就是AWS ETL的简单搬运任务了。

参考

相关推荐
Lin_Aries_04213 小时前
通过配置 GitLab 自动触发项目自动化构建与部署
运维·docker·容器·自动化·云计算·gitlab
iconball4 小时前
个人用云计算学习笔记 --15. (Linux 系统启动原理、Linux 防火墙管理))
linux·运维·笔记·学习·云计算
NY65 小时前
腾讯云上TKE集群中通过clb-ingress公网访问到后端服务
云计算·腾讯云
XINVRY-FPGA6 小时前
XA7A75T-1FGG484Q 赛灵思 Xilinx AMD Artix-7 XA 系列 FPGA
嵌入式硬件·fpga开发·车载系统·云计算·硬件架构·硬件工程·fpga
Lin_Aries_04218 小时前
使用 Jenkins 的流水线项目实施 CI/CD
运维·ci/cd·docker·容器·云计算·jenkins
涤生大数据8 小时前
从MR迁移到Spark3:数据倾斜与膨胀问题的实战优化
数据库·数据仓库·spark·mapreduce·大数据开发·数据倾斜·spark3
IT毕设梦工厂9 小时前
大数据毕业设计选题推荐-基于大数据的全国饮品门店数据可视化分析系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·信息可视化·spark·毕业设计·源码·bigdata
遥感之家10 小时前
AWS下载sentinel-2原始影像
云计算·sentinel·aws
亚林瓜子10 小时前
AWS中的离线计算(大数据大屏项目)
大数据·hadoop·sql·spark·云计算·aws