将AWS iot消息数据发送Kinesis Firehose Stream存向S3

观看此文章之前,请先学习AWS iot的数据收集:

使用Linux SDK客户端向AWS Iot发送数据-CSDN博客

1、工作原理:

1.1 规则

规则可让您的设备与 AWS 服务进行交互。分析规则并根据物品发送的消息执行操作。您可以使用规则来支持任务,例如补充或筛选从设备接收的数据。

1.2 目的地

目的地是定义规则引擎可将数据路由至何处的资源。目的地可以跨规则重复使用,并且可能需要经过确认或配置才能使用。目的地可让规则引擎将数据发送到未与 AWS IoT 原生集成的其他服务。

2、创建消息路由

2.1 点击消息路由,并创建规则

2.2 规则名称

2.3 选择SQL语句

使用以下值输入 SQL 语句:SELECT <Attribute> FROM <Topic Filter> WHERE <Condition>。例如:SELECT temperature FROM 'iot/topic' WHERE temperature > 50。 要了解更多信息,请参阅 AWS IoT SQL 参考

复制代码
SELECT * FROM 'sdk/test/python'

2.4 操作写入KFS

2.5 创建Firehose流

源选择 Direct PUT 目标选择Amazon S3

2.5 创建存储桶

2.6 设置目标

2.7 创建新角色

至此,完成消息路由的创建

3、测试

3.1 客户端操作

3.2 检查S3数据

相关推荐
Britz_Kevin1 小时前
从零开始的云计算——番外实战,iptables防火墙项目
云计算·#项目实战·#linux·#iptables
debug 小菜鸟11 小时前
浏览器访问 AWS ECS 上部署的 Docker 容器(监听 80 端口)
docker·云计算·aws
可观测性用观测云16 小时前
AWS EKS 集群日志上报观测云实践
aws
Johny_Zhao18 小时前
2025年6月Docker镜像加速失效终极解决方案
linux·网络·网络安全·docker·信息安全·kubernetes·云计算·containerd·yum源·系统运维
容器魔方20 小时前
KubeCon 抢鲜 | Kmesh与你共创高性能流量治理更优方案
云原生·容器·云计算
亚林瓜子1 天前
AWS Elastic Beanstalk + CodePipeline(Python Flask Web的国区CI/CD)
python·ci/cd·flask·web·aws·beanstalk·codepipeline
过河不拆乔1 天前
AWS 公开数据集下载与操作说明
学习·云计算·aws
阿山同学.1 天前
AWS 亚马逊 S3存储桶直传 前端demo 复制即可使用
前端·javascript·aws
AWS官方合作商1 天前
Amazon RDS on AWS Outposts:解锁本地化云数据库的混合云新体验
云原生·云计算·aws
kaede1 天前
Linux实现线程同步的方式有哪些?
linux·运维·云计算