AWS中国云中的ETL之从aurora搬数据到s3(Glue版)

问题

需要将数据定时每天从Aurora搬数据到S3中。

步骤

准备数据库只读账号

这里用的Aurora实际上是Mysql,所以,这里创建一个Mysql账号,然后,在Secrets Manager

设置好自动轮转即可。具体如下:

bash 复制代码
# 登录跳板机后,使用mysql cli登录数据库集群
mysql -h dev.cluster-xxxx.rds.cn-north-1.amazonaws.com.cn -u admin --ssl -p
# 输入密码登录成功后,开始创建mysql只读用户
CREATE USER '{用户名}'@'%' IDENTIFIED BY '{密码}';
# 设置只读权限
GRANT SELECT, SHOW VIEW ON {数据库名}.* TO '{用户名}'@'%';
# 强制刷新权限
FLUSH PRIVILEGES;

在数据库段创建好只读用户后,再到Secrets Manager设置用户自动轮转:

设置密钥名称:

设置自动轮转密钥,如下图:

创建自动轮转密钥:

创建Glue JDBC连接器

开始创建Glue的JDBC连接器,如下图:

选择Amazon Aurora数据库进行连接,如下图:

配置连接如下图:

设置连接器名称,如下图:

创建JDBC连接器,如下图:

创建完成后,手动编辑一下JDBC连接,添加如下JDBC参数:

bash 复制代码
jdbc:mysql://xxx-cn-north-1b.{数据库集群ID}.rds.cn-north-1.amazonaws.com.cn:3306/{数据库名}?sslMode=REQUIRED&characterEncoding=UTF-8&connectionTimeZone=GMT%2B8&forceConnectionTimeZoneToSession=true

这里强制启用SSL方式连接,并使用UTF-8编码,设置时区为东八区,并且强制设置使用这个时区设置。

创建Glue任务运行角色

创建一个角色名为AWSGlueServiceRole角色,注意这个角色名必须以AWSGlueServiceRoleDefault*开头,才能被AWS Glue任务选择到。这个角色配置如下3种权限策略:

  • AWSGlueServiceRole:为AWS托管策略,这个策略许可定时任务操作包含aws-glue-路径的s3桶或s3目录;
  • AWSQuickSightS3Policy:是自定义对s3桶的设置,可以不用配置作用不是很大,这里忽略了;
  • GetSecretValue:是许可定时任务对secretsmanager密钥只读访问权限。

GetSecretValue策略

json 复制代码
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Sid": "VisualEditor0",
            "Effect": "Allow",
            "Action": [
                "secretsmanager:GetSecretValue",
                "secretsmanager:DescribeSecret"
            ],
            "Resource": "arn:aws-cn:secretsmanager:*:{账号ID}:secret:*"
        }
    ]
}

创建Glue定时任务

找到Glue入口管理页面。开始创建Glue任务,如下图:

设置数据读取源------MySQL

设置数据源,因为我们使用的Aurora是Mysql,所以这里直接设置数据源为MySQL或者关系型数据也可以。如下图:

接下来,配置数据库连接,配置需要查询的表和任务执行的角色,如下图:

最后点击start session,看数据预查询效果,如果出现安全组错误,一定要找到之前配置JDBC连接时与数据库RDS共用的安全组,需要配置如下入站规则:

安全组入站规则
类型 协议 端口范围
All TCP TCP 0-65535 database-sg-id

注意这里的database-sg-id就是安全组自身的id。

安全组的出站规则保存默认即可,即放行所有流量出站。

设置SQL查询

完成上面数据源配置后,就可以下一步,查询需要的数据了。开始添加下一步,如下图:

下一步转化步骤,选择SQL查询,如下图:

配置SQL查询,如下图:

这里写好业务需要查询SQL即可,其他东西,根据情况,进行配置即可。这里有一个需要注意的地方,就是S3桶中的数据,需要按年月日进行分区保存,而且保存的数据格式是hadoop格式,这里需要根据某些字段来进行数据分区,一般是年月日。英文里面把这个过程叫------partition。数据分区后,在s3里面类似如下:
s3://my_bucket/logs/year=2018/month=01/day=23/

如果你的数据里面有年月日三个字段的话,可以直接在下一步里面设置分区key即可。如果没有,又需要按当前时间任务运行时间来推断的话,就需要在SELECT子句里面另外加字段即可。类似查询SQL如下:

sql 复制代码
select *,
    YEAR(CURDATE() - INTERVAL 1 DAY) AS year,
    MONTH(CURDATE() - INTERVAL 1 DAY) AS month,
    DAY(CURDATE() - INTERVAL 1 DAY) AS day
from xxxx;

注意,这里不要直接写SELECT *,实际情况是要写出现表所有字段的,这里推断出昨天的年月日数据,记住这里的3个字段,在下一步S3分区配置中还需要使用。

这里还需要,手动添加年月日字段,如下图

开始手动添加字段,如下图:

添加完成3个字段后,如下图:

最后点击Apply即可。

设置数据写入目标------S3

选中转化步骤,添加下一步目标S3桶步骤,如下图:

开始配置目标S3位置和分区key,如下图:

这里最关键的就是hadoop分区key设置。这里保存的就是hadoop的压缩格式Parquet,而且,按年月日进行数据分区。最后点击保存后。在Schedules标签也配置定时任务触发器即可。注意定时任务触发器是用零时区的。

测试效果

S3文件效果如下:

总结

这里的AWS Glue任务,其实就是Spark+Hadoop完成了从MySQL到HDFS的数据写入。Spark在大数据的生态是真的强。这里比较难以理解的就是在Hadoop中的partition设计,具体数据分区远离,我借用了AWS文档里面图了,如下图:

这种按年月日,在这个领域,还是比较常见的。到这里就是AWS ETL的简单搬运任务了。

参考

相关推荐
翼龙云_cloud几秒前
亚马逊云渠道商:如何3 步实现 AWS RDS 读写分离?
运维·服务器·云计算·php·aws
wei_shuo10 分钟前
openEuler 25.09 实操指南:飞腾 arm64 服务器的 C 程序开发与 Hadoop 伪集群部署及性能测试
hadoop·openeuler
翼龙云_cloud11 小时前
阿里云渠道商:新手怎么操作阿里云无影云电脑?
运维·服务器·阿里云·云计算·电脑
AKAMAI12 小时前
Akamai 宣布收购功能即服务公司 Fermyon
人工智能·云计算
跟着珅聪学java16 小时前
Logback日志配置教程
数据仓库·hive·hadoop
AI_567816 小时前
Finereport如何重塑数据驱动管理
信息可视化·数据分析·云计算
可爱又迷人的反派角色“yang”17 小时前
Mysql数据库(二)
运维·服务器·前端·数据库·mysql·nginx·云计算
AWS官方合作商19 小时前
AWS EC2配额限制提升指南:如何申请调整按需实例上限
云计算·aws
翼龙云_cloud20 小时前
阿里云渠道商:什么是无影云电脑?
运维·阿里云·云计算·电脑