携手AWS,零成本在EKS上体验AutoMQ企业版

01 前言

AutoMQ是一款贯彻云优先理念来设计的 Kafka 替代产品。AutoMQ 创新地对 Apache Kafka 的存储层进行了基于云的重新设计,在 100% 兼容 Kafka 的基础上通过将持久性分离至 EBS 和 S3 带来了 10x 的成本降低以及 100x 的弹性能力提升,并且相比 Apache Kafka 拥有更佳的性能。

为了让广大开发者以及对 AutoMQ 感兴趣的朋友可以更好的体验 AutoMQ 企业版内核的能力,AutoMQ 与 AWS 合作为大家提供了一个免费试用 AutoMQ 的机会。无需用户提供任何云资源,支付任何费用,真正意义的完全免费。本文将给大家介绍,如何在几分钟内全自动地在EKS上部署起一套 AutoMQ 集群。

02 获取零成本试用专用链接

在 AutoMQ 官网填写试用表单(见下方二维码),并且在业务场景和规模一栏额外标注【零成本试用】,我们在工作日时间一般会在30分钟以内与你取得联系,并且发送给你专用的免费试用访问链接以及 AutoMQ 企业版试用的 Helm Chart,然后即可按照如下方式操作登入免费试用的平台,获得免费3天的试用资格。

03 准备 AutoMQ 使用的的云资源

3.1 前置条件

  • Terraform v1.3+

  • AWS CLI v2.7.0/v1.24.0+, 参考installed[1] 和 configured[2]

  • kubectl v1.24.0+ [3]

  • AutoMQ 企业版 Helm Chart

3.2 部署说明

  • 会部署一个3个Controller(混合节点)、1个 Broker 节点的 AutoMQ 集群。每台 Broker 的配置为 2c16g。

  • 集群默认开启 SASL_PLAIN 身份认证

  • 集群默认使用的WAL引擎是S3WAL 。关于 AutoMQ 不同 WAL Storage 实现可以参考官方文档 [4]。

3.3 获取和配置 AWS 身份凭证信息

从 Workshop 登入后的控制台获取身份凭证:

根据不同的环境拷贝对应的执行命令,导出环境变量。本教程以 macOS 系统为例。

在本地导出环境变量后可以通过以下命令确认身份凭证是否生效:

sql 复制代码
 aws sts get-caller-identity

3.3 下载 Terraform 配置文件并执行

我们已经为你准备好了默认直接可以使用的Terraform配置文件。克隆 automq-eks-example 项目,并且在其中执行命令即可开始部署:

sql 复制代码
git clone https://github.com/AutoMQ/automq-eks-example
cd automq-eks-example
terraform init
terraform apply

Terraform apply 执行完毕后即可自动完成 EKS 集群、VPC网络、对象存储桶等资源的创建。

3.4 生成 kubeconfig

确保已经正确配置了 AWS 的身份凭证信息。在 Terraform 的执行目录,执行以下命令来同步 kubeconfig。同步完成后你可以使用 kubectl 命令来访问EKS集群。

shell 复制代码
aws eks --region $(terraform output -raw region) update-kubeconfig \
    --name $(terraform output -raw cluster_name)

04 安装 AutoMQ Helm Chart

使用 automq-eks-example 项目的 aws.yaml [5] 文件 作为 Helm Chart 的 Value Yaml。我们将使用该yaml文件的配置来安装 AutoMQ Helm Chart。

sql 复制代码
 helm install automq automq-enterprise-1.2.0-chart-rc0.tgz -f aws.yaml

安装 Chart 完毕后会打印接入点的信息:

sql 复制代码
Each Kafka broker can be accessed by producers via port 9092 on the following DNS name(s) from within your cluster:

    automq-automq-enterprise-controller-0.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-1.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-2.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-broker-0.automq-automq-enterprise-broker-headless.default.svc.cluster.local:9092

此时我们可以在 Kubernetes 上看到对应的Pod。

05 发送和消费消息

由于默认开启 SASL,需要提前在本地准备好 client.properties 用于身份认证(admin/admin为默认账号和密码)。

sql 复制代码
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \
    username="admin" \
    password="admin";

使用 AutoMQ 的镜像启动一个作为 Client 的 Pod,将 client.properties 文件拷贝到 client pod 的 /tmp 目录下。

sql 复制代码
kubectl run automq-automq-enterprise-client --restart='Never' --image registry.cn-shanghai.aliyuncs.com/automq/automq-enterprise:1.1.0 --namespace default --command -- sleep infinity
kubectl cp --namespace default client.properties automq-automq-enterprise-client:/tmp/client.properties
kubectl exec --tty -i automq-automq-enterprise-client --namespace default -- bash

进入 client pod 以后,到 /opt/automq/kafka 目录下执行如下命令来完成消息的收发:

sql 复制代码
cd /opt/automq/kafka

bin/kafka-console-producer.sh \
            --producer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test

bin/kafka-console-consumer.sh \
            --consumer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test \
            --from-beginning

参考资料

1\] AWS - Install or update to the latest version of the AWS CLI: \[2\] AWS - Configure the AWS CLI: \[3\] Kubernetes - Install Tools: \[4\] AutoMQ - WAL Storage: \[5\] automq-eks-example - aws.yaml:

相关推荐
Qdgr_3 分钟前
价值实证:数字化转型标杆案例深度解析
大数据·数据库·人工智能
选择不变11 分钟前
日线周线MACD指标使用图文教程,通达信指标
大数据·区块链·通达信指标公式·炒股技巧·短线指标·炒股指标
高山莫衣35 分钟前
git rebase多次触发冲突
大数据·git·elasticsearch
链上Sniper1 小时前
智能合约状态快照技术:实现 EVM 状态的快速同步与回滚
java·大数据·linux·运维·web3·区块链·智能合约
wx_ywyy67981 小时前
推客系统小程序终极指南:从0到1构建自动裂变增长引擎,实现业绩10倍增长!
大数据·人工智能·短剧·短剧系统·推客系统·推客小程序·推客系统开发
蚂蚁数据AntData2 小时前
从性能优化赛到社区Committer,走进赵宇捷在Apache Fory的成长之路
大数据·开源·apache·数据库架构
阿里云云原生3 小时前
阿里云可观测 2025 年 6 月产品动态
云原生
阿里云云原生3 小时前
30 秒锁定黑客攻击:SLS SQL 如何从海量乱序日志中“揪”出攻击源
云原生
谷新龙0013 小时前
大数据环境搭建指南:基于 Docker 构建 Hadoop、Hive、HBase 等服务
大数据·hadoop·docker
FF-Studio5 小时前
【硬核数学】3. AI如何应对不确定性?概率论为模型注入“灵魂”《从零构建机器学习、深度学习到LLM的数学认知》
大数据·人工智能·深度学习·机器学习·数学建模·自然语言处理·概率论