基于AWS Serverless的Glue服务进行ETL(提取、转换和加载)数据分析(三)——serverless数据分析

3 serverless数据分析

大纲

  • [3 serverless数据分析](#3 serverless数据分析)
    • [3.1 创建Lambda](#3.1 创建Lambda)
    • [3.2 创建API Gateway](#3.2 创建API Gateway)
    • [3.3 结果](#3.3 结果)
    • [3.4 总结](#3.4 总结)

3.1 创建Lambda

在Lambda中,我们将使用python3作为代码语言。

步骤 图例
1、入口
2、创建(我们选择使用python3.7)
3、IAM权限(权限可信实体需要包括Lambda才能将角色绑定到Lambda上) 见下方"IAM可信实体描述"
4、指定处理函数(处理程序要为用户程序的入口)
5、添加层(层为我们的代码运行时的环境,并且,兼容运行时要包含上一步中的运行时环境)
6、代码(在此代码中使用了boto3来连接Athena,可自定义sql,使用方法请看官方文档) 见下方"Lambda代码"

IAM可信实体描述:

XML 复制代码
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "Service": "lambda.amazonaws.com"
            },
            "Action": "sts:AssumeRole"
        }
    ]
}

Lambda代码

python 复制代码
import boto3, os, json
import pandas as pd

from pyathena import connect
import time
REGION = "us-west-2"

# expected request: anomaly/{meter_id}?data_start={}&data_end={}&outlier_only={}
def lambda_handler(event, context):
    ATHENA_OUTPUT_BUCKET = "【待替换S3桶路径】/athena"
    DB_SCHEMA = "suzikuo_test_db"

    USE_WEATHER_DATA = 0
    pathParameter = event["pathParameters"]
    queryParameter = event["queryStringParameters"]
    METER_ID = pathParameter['meter_id']
    DATA_START = queryParameter['data_start']
    DATA_END = queryParameter['data_end']
    OUTLIER_ONLY = queryParameter['outlier_only']
    query = '''
    select * from "{}".reading_type_int
    where meter_id = '{}'
    and cast(reading_date_time as timestamp) >= timestamp '{}' and cast(reading_date_time as timestamp) < timestamp '{}'
    '''.format(DB_SCHEMA, METER_ID, DATA_START, DATA_END)

    athena = boto3.client('athena')
    response = athena.start_query_execution(
    QueryString=query,
    QueryExecutionContext={
        'Database': 'suzikuo_test_db'
    },
    ResultConfiguration={
        'OutputLocation': 's3://suzikuo-test-2022-8-4-s3/athena',
        'EncryptionConfiguration': {
            'EncryptionOption': 'SSE_S3'
        }
    }
    )
    while True:
        try:
            query_results = athena.get_query_results(
                QueryExecutionId=response['QueryExecutionId']
            )
            break
        except Exception as err:
            if 'Query has not yet finished' in str(err):
                time.sleep(3)
            else:
                raise(err)

    return query_results['ResultSet']['Rows']

3.2 创建API Gateway

使用API Gateway+Lambda 可轻松实现一个serverless架构。

步骤 图例
1、入口
2、API(我们使用的是Lambda,所以选HTTP API)
3、创建集成(指定要绑定的Lambda)
4、配置路由(指定路由要请求的集成(lambda))
5、一直下一步即可

3.3 结果

此案例只查询了某一ID的某个时间段内的数据

通过获取URI和参数,在Lambda中编写逻辑,可以实现我们对数据的任意操作。

3.4 总结

到此,我们已经完成了基于Glue ETL(提取、转换和加载)的serviceless 数据分析的全部过程了。在此案例中,我们使用到了AWS 服务中的Glue、S3、APIGateway、Lambda等服务实现了一个通过API访问的数据统计与分析接口。

相关推荐
qq_436962182 小时前
奥威BI金蝶数据分析可视化方案:200+开箱即用报表驱动智能决策
信息可视化·数据挖掘·数据分析
qq_339191148 小时前
aws ec2防ssh爆破, aws服务器加固, 亚马逊服务器ssh安全,防止ip扫描ssh。 aws安装fail2ban, ec2配置fail2ban
服务器·ssh·aws
Allen_LVyingbo19 小时前
2025.10月报 Cherry Stuido 1.6.4、Ollama 0.12.5、Dify 1.9.1升级使用摘要
信息可视化·数据分析·健康医疗
派可数据BI可视化19 小时前
商业智能BI与业务结构分析
大数据·数据仓库·信息可视化·数据分析·商业智能bi
闲人编程1 天前
从多个数据源(CSV, Excel, SQL)自动整合数据
python·mysql·数据分析·csv·存储·数据源·codecapsule
码界筑梦坊1 天前
267-基于Django的携程酒店数据分析推荐系统
python·数据分析·django·毕业设计·echarts
Bony-1 天前
奶茶销售数据分析
人工智能·数据挖掘·数据分析·lstm
B站_计算机毕业设计之家1 天前
大数据实战:Python+Flask 汽车数据分析可视化系统(爬虫+线性回归预测+推荐 源码+文档)✅
大数据·python·数据分析·flask·汽车·线性回归·预测
Q26433650232 天前
大数据实战项目-基于K-Means算法与Spark的豆瓣读书数据分析与可视化系统-基于python的豆瓣读书数据分析与可视化大屏
大数据·hadoop·机器学习·数据分析·spark·毕业设计·kmeans
大数据CLUB2 天前
基于spark的抖音短视频数据分析及可视化
大数据·hadoop·分布式·数据分析·spark