携手AWS,零成本在EKS上体验AutoMQ企业版

01 前言

AutoMQ是一款贯彻云优先理念来设计的 Kafka 替代产品。AutoMQ 创新地对 Apache Kafka 的存储层进行了基于云的重新设计,在 100% 兼容 Kafka 的基础上通过将持久性分离至 EBS 和 S3 带来了 10x 的成本降低以及 100x 的弹性能力提升,并且相比 Apache Kafka 拥有更佳的性能。

为了让广大开发者以及对 AutoMQ 感兴趣的朋友可以更好的体验 AutoMQ 企业版内核的能力,AutoMQ 与 AWS 合作为大家提供了一个免费试用 AutoMQ 的机会。无需用户提供任何云资源,支付任何费用,真正意义的完全免费。本文将给大家介绍,如何在几分钟内全自动地在EKS上部署起一套 AutoMQ 集群。

02 获取零成本试用专用链接

在 AutoMQ 官网填写试用表单(见下方二维码),并且在业务场景和规模一栏额外标注【零成本试用】,我们在工作日时间一般会在30分钟以内与你取得联系,并且发送给你专用的免费试用访问链接以及 AutoMQ 企业版试用的 Helm Chart,然后即可按照如下方式操作登入免费试用的平台,获得免费3天的试用资格。

03 准备 AutoMQ 使用的的云资源

3.1 前置条件

  • Terraform v1.3+

  • AWS CLI v2.7.0/v1.24.0+, 参考installed[1] 和 configured[2]

  • kubectl v1.24.0+ [3]

  • AutoMQ 企业版 Helm Chart

3.2 部署说明

  • 会部署一个3个Controller(混合节点)、1个 Broker 节点的 AutoMQ 集群。每台 Broker 的配置为 2c16g。

  • 集群默认开启 SASL_PLAIN 身份认证

  • 集群默认使用的WAL引擎是S3WAL 。关于 AutoMQ 不同 WAL Storage 实现可以参考官方文档 [4]。

3.3 获取和配置 AWS 身份凭证信息

从 Workshop 登入后的控制台获取身份凭证:

根据不同的环境拷贝对应的执行命令,导出环境变量。本教程以 macOS 系统为例。

在本地导出环境变量后可以通过以下命令确认身份凭证是否生效:

sql 复制代码
 aws sts get-caller-identity

3.3 下载 Terraform 配置文件并执行

我们已经为你准备好了默认直接可以使用的Terraform配置文件。克隆 automq-eks-example 项目,并且在其中执行命令即可开始部署:

sql 复制代码
git clone https://github.com/AutoMQ/automq-eks-example
cd automq-eks-example
terraform init
terraform apply

Terraform apply 执行完毕后即可自动完成 EKS 集群、VPC网络、对象存储桶等资源的创建。

3.4 生成 kubeconfig

确保已经正确配置了 AWS 的身份凭证信息。在 Terraform 的执行目录,执行以下命令来同步 kubeconfig。同步完成后你可以使用 kubectl 命令来访问EKS集群。

shell 复制代码
aws eks --region $(terraform output -raw region) update-kubeconfig \
    --name $(terraform output -raw cluster_name)

04 安装 AutoMQ Helm Chart

使用 automq-eks-example 项目的 aws.yaml [5] 文件 作为 Helm Chart 的 Value Yaml。我们将使用该yaml文件的配置来安装 AutoMQ Helm Chart。

sql 复制代码
 helm install automq automq-enterprise-1.2.0-chart-rc0.tgz -f aws.yaml

安装 Chart 完毕后会打印接入点的信息:

sql 复制代码
Each Kafka broker can be accessed by producers via port 9092 on the following DNS name(s) from within your cluster:

    automq-automq-enterprise-controller-0.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-1.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-controller-2.automq-automq-enterprise-controller-headless.default.svc.cluster.local:9092
    automq-automq-enterprise-broker-0.automq-automq-enterprise-broker-headless.default.svc.cluster.local:9092

此时我们可以在 Kubernetes 上看到对应的Pod。

05 发送和消费消息

由于默认开启 SASL,需要提前在本地准备好 client.properties 用于身份认证(admin/admin为默认账号和密码)。

sql 复制代码
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \
    username="admin" \
    password="admin";

使用 AutoMQ 的镜像启动一个作为 Client 的 Pod,将 client.properties 文件拷贝到 client pod 的 /tmp 目录下。

sql 复制代码
kubectl run automq-automq-enterprise-client --restart='Never' --image registry.cn-shanghai.aliyuncs.com/automq/automq-enterprise:1.1.0 --namespace default --command -- sleep infinity
kubectl cp --namespace default client.properties automq-automq-enterprise-client:/tmp/client.properties
kubectl exec --tty -i automq-automq-enterprise-client --namespace default -- bash

进入 client pod 以后,到 /opt/automq/kafka 目录下执行如下命令来完成消息的收发:

sql 复制代码
cd /opt/automq/kafka

bin/kafka-console-producer.sh \
            --producer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test

bin/kafka-console-consumer.sh \
            --consumer.config /tmp/client.properties \
            --bootstrap-server automq-automq-enterprise.default.svc.cluster.local:9092 \
            --topic test \
            --from-beginning

参考资料

1\] AWS - Install or update to the latest version of the AWS CLI: \[2\] AWS - Configure the AWS CLI: \[3\] Kubernetes - Install Tools: \[4\] AutoMQ - WAL Storage: \[5\] automq-eks-example - aws.yaml:

相关推荐
树莓集团5 小时前
树莓科技(成都)集团:如何铸就第五代产业园标杆
大数据·科技·物联网·百度
小王毕业啦6 小时前
2011-2020年 全国省市县-数字普惠金融指数&数字经济指数&绿色金融指数&县域数字乡村指数
大数据·人工智能·数据挖掘·数据分析·毕业论文·数据统计·社科数据
T06205146 小时前
【工具变量】中国地级市科技金融试点政策名单数据(2000-2024年)
大数据
Python数据分析与机器学习7 小时前
《基于大数据的营养果蔬推荐系统的设计与实现》开题报告
大数据·开发语言·人工智能·深度学习·神经网络·算法·计算机视觉
Dusk_橙子9 小时前
在K8S中,svc底层是如何实现的?
云原生·容器·kubernetes
Cherish~~9 小时前
Kafka消息队列
分布式·kafka
S181517004869 小时前
美发行业的数字化转型:从痛点出发,探索未来新机遇
大数据·人工智能·经验分享·笔记·科技
信徒_10 小时前
kafka 中的 rebalance
数据库·分布式·kafka
小白学大数据10 小时前
Python爬虫:从人民网提取视频链接的完整指南
大数据·开发语言·爬虫·python·音视频