携手AWS,零成本在EKS上体验AutoMQ企业版

01 前言

AutoMQ是一款贯彻云优先理念来设计的 Kafka 替代产品。AutoMQ 创新地对 Apache Kafka 的存储层进行了基于云的重新设计,在 100% 兼容 Kafka 的基础上通过将持久性分离至 EBS 和 S3 带来了 10x 的成本降低以及 100x 的弹性能力提升,并且相比 Apache Kafka 拥有更佳的性能。

为了让广大开发者以及对 AutoMQ 感兴趣的朋友可以更好的体验 AutoMQ 企业版内核的能力,AutoMQ 与 AWS 合作为大家提供了一个免费试用 AutoMQ 的机会。无需用户提供任何云资源,支付任何费用,真正意义的完全免费。本文将给大家介绍,如何在几分钟内全自动地在EKS上部署起一套 AutoMQ 集群。

02 获取零成本试用专用链接

在 AutoMQ 官网填写试用表单(见下方二维码),并且在业务场景和规模一栏额外标注【零成本试用】,我们在工作日时间一般会在30分钟以内与你取得联系,并且发送给你专用的免费试用访问链接以及 AutoMQ 企业版试用的 Helm Chart,然后即可按照如下方式操作登入免费试用的平台,获得免费3天的试用资格。

03 准备 AutoMQ 使用的的云资源

3.1 前置条件

  • Terraform v1.3+

  • AWS CLI v2.7.0/v1.24.0+, 参考installed[1] 和 configured[2]

  • kubectl v1.24.0+ [3]

  • AutoMQ 企业版 Helm Chart

3.2 部署说明

  • 会部署一个3个Controller(混合节点)、1个 Broker 节点的 AutoMQ 集群。每台 Broker 的配置为 2c16g。

  • 集群默认开启 SASL_PLAIN 身份认证

  • 集群默认使用的WAL引擎是S3WAL 。关于 AutoMQ 不同 WAL Storage 实现可以参考官方文档 [4]。

3.3 获取和配置 AWS 身份凭证信息

从 Workshop 登入后的控制台获取身份凭证:

根据不同的环境拷贝对应的执行命令,导出环境变量。本教程以 macOS 系统为例。

在本地导出环境变量后可以通过以下命令确认身份凭证是否生效:

sql 复制代码
 aws sts get-caller-identity

3.3 下载 Terraform 配置文件并执行

我们已经为你准备好了默认直接可以使用的Terraform配置文件。克隆 automq-eks-example 项目,并且在其中执行命令即可开始部署:

sql 复制代码
git clone https://github.com/AutoMQ/automq-eks-example
cd automq-eks-example
terraform init
terraform apply

Terraform apply 执行完毕后即可自动完成 EKS 集群、VPC网络、对象存储桶等资源的创建。

3.4 生成 kubeconfig

确保已经正确配置了 AWS 的身份凭证信息。在 Terraform 的执行目录,执行以下命令来同步 kubeconfig。同步完成后你可以使用 kubectl 命令来访问EKS集群。

shell 复制代码
aws eks --region $(terraform output -raw region) update-kubeconfig \
    --name $(terraform output -raw cluster_name)

04 安装 AutoMQ Helm Chart

使用 automq-eks-example 项目的 aws.yaml [5] 文件 作为 Helm Chart 的 Value Yaml。我们将使用该yaml文件的配置来安装 AutoMQ Helm Chart。

sql 复制代码
 helm install automq automq-enterprise-1.2.0-chart-rc0.tgz -f aws.yaml

安装 Chart 完毕后会打印接入点的信息:

sql 复制代码
Each Kafka broker can be accessed by producers via port 9092 on the following DNS name(s) from within your cluster:

    automq-automq-enterprise-controller-0.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-1.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-2.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-broker-0.automq-automq-enterprise-broker-headless.default.svc.cluster.local:9092

此时我们可以在 Kubernetes 上看到对应的Pod。

05 发送和消费消息

由于默认开启 SASL,需要提前在本地准备好 client.properties 用于身份认证(admin/admin为默认账号和密码)。

sql 复制代码
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \
    username="admin" \
    password="admin";

使用 AutoMQ 的镜像启动一个作为 Client 的 Pod,将 client.properties 文件拷贝到 client pod 的 /tmp 目录下。

sql 复制代码
kubectl run automq-automq-enterprise-client --restart='Never' --image registry.cn-shanghai.aliyuncs.com/automq/automq-enterprise:1.1.0 --namespace default --command -- sleep infinity
kubectl cp --namespace default client.properties automq-automq-enterprise-client:/tmp/client.properties
kubectl exec --tty -i automq-automq-enterprise-client --namespace default -- bash

进入 client pod 以后,到 /opt/automq/kafka 目录下执行如下命令来完成消息的收发:

sql 复制代码
cd /opt/automq/kafka

bin/kafka-console-producer.sh \
            --producer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test

bin/kafka-console-consumer.sh \
            --consumer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test \
            --from-beginning

参考资料

1\] AWS - Install or update to the latest version of the AWS CLI: \[2\] AWS - Configure the AWS CLI: \[3\] Kubernetes - Install Tools: \[4\] AutoMQ - WAL Storage: \[5\] automq-eks-example - aws.yaml:

相关推荐
SirLancelot12 小时前
K8s-kubernetes(二)资源限制-详细介绍
微服务·云原生·容器·kubernetes·k8s·devops·kubelet
时序数据说2 小时前
国内时序数据库概览
大数据·数据库·物联网·时序数据库·iotdb
阿Paul果奶ooo5 小时前
Flink中基于时间的合流--双流联结(join)
大数据·flink
花酒锄作田5 小时前
Nginx反向代理Kafka集群
nginx·kafka
数据爬坡ing5 小时前
过程设计工具深度解析-软件工程之详细设计(补充篇)
大数据·数据结构·算法·apache·软件工程·软件构建·设计语言
运维行者_5 小时前
使用Applications Manager进行 Apache Solr 监控
运维·网络·数据库·网络安全·云计算·apache·solr
计算机源码社7 小时前
分享一个基于Hadoop的二手房销售签约数据分析与可视化系统,基于Python可视化的二手房销售数据分析平台
大数据·hadoop·python·数据分析·毕业设计项目·毕业设计源码·计算机毕设选题
Direction_Wind8 小时前
Flinksql bug: Heartbeat of TaskManager with id container_XXX timed out.
大数据·flink·bug
计算机毕设残哥8 小时前
完整技术栈分享:基于Hadoop+Spark的在线教育投融资大数据可视化分析系统
大数据·hadoop·python·信息可视化·spark·计算机毕设·计算机毕业设计
轻流AI10 小时前
线索转化率翻3倍?AI重构CRM
大数据·人工智能·低代码·重构