Kafka 到数据仓库:使用 bend-ingest-kafka 将消息加载到 Databend

将消息从 Apache Kafka 导入到像 Databend 这样的云数据仓库可能是一项艰巨的任务。bend-ingest-kafka 工具简化了这一过程,使您能够轻松地将 Kafka 消息导入到 Databend 表中。

什么是 bend-ingest-kafka?

bend-ingest-kafka 工具是一个专门为从 Apache Kafka 到 Databend 进行消息加载的命令行工具,支持以下模式:

  • JSON 模式:此模式解析 JSON 消息并将每个字段加载到目标表的相应列中。它将 Kafka 消息转换为与表模式直接映射的结构化格式。

  • RAW 模式 :在此模式下,该工具会创建一个包含 uuidkoffsetkpartitionraw_datarecord_metadataadd_time 等列的表。Kafka 消息存储在 raw_data 列中,并将其他元数据注入到其他列中,从而保留原始消息格式并提供有用的上下文。

有关 bend-ingest-kafka 的更多详细信息,请查看 README。要安装 bend-ingest-kafka,请运行以下命令:

复制代码
go install github.com/databendcloud/bend-ingest-kafka@latest

如何使用 bend-ingest-kafka

在这里中,我们将安装一个本地 Kafka 实例,创建一个主题,并生成一些示例消息。然后,我们将分别以 JSON 和 RAW 模式将这些消息加载到 Databend Cloud 中。

安装 Kafka

在开始之前,请确保您已运行 Kafka 并创建了一个主题。以下是使用 Docker 的快速部署:

使用 Docker 运行 Kafka 容器:

复制代码
docker run -d \
 - name kafka \
 -p 9092:9092 \
 apache/kafka:latest

创建一个名为 "test-topic" 的主题并生成一些消息:

复制代码
docker exec - workdir /opt/kafka/bin/ -it kafka sh
/opt/kafka/bin $ ./kafka-topics.sh - bootstrap-server localhost:9092 - create - topic test-topic
Created topic test-topic.
/opt/kafka/bin $ ./kafka-console-producer.sh - bootstrap-server localhost:9092 - topic test-topic
>{"id": 1, "name": "Alice", "age": 30}
>{"id": 2, "name": "Bob", "age": 25}

在 Databend Cloud 创建目标表

在 Databend Cloud 中创建一个数据库和表。这张表将作为 JSON 模式加载的目标,因此请确保其模式与之前生成的消息匹配。

复制代码
CREATE DATABASE doc;

CREATE TABLE databend_topic (
 id INT NOT NULL,
 name VARCHAR NOT NULL,
 age INT NOT NULL
 ) ENGINE=FUSE;

使用 JSON 模式加载

使用以下命令开始将消息从 Kafka 加载到 Databend Cloud:

要获取您的 DSN,请登录到 Databend Cloud 并点击"连接"

复制代码
bend-ingest-kafka \
 - kafka-bootstrap-servers="localhost:9092" \
 - kafka-topic="test-topic" \
 - databend-dsn="<your-dsn>" \
 - databend-table="doc.databend_topic" \
 - data-format="json"

您将在终端中看到类似这样的消息:

复制代码
INFO[0000] Starting worker worker-0
2024/08/27 14:31:18 ingest 1 rows (0.900730 rows/s), 38 bytes (34.227748 bytes/s)
WARN[0095] Failed to read message from Kafka: context deadline exceeded kafka_batch_reader=ReadBatch
2024/08/27 14:32:19 ingest 1 rows (1.206118 rows/s), 36 bytes (43.420260 bytes/s)

验证 Kafka 消息是否已成功加载到 Databend Cloud 中的目标表,并且每个字段都正确映射到其指定的列中:

使用 RAW 模式加载

使用以下命令开始将消息从 Kafka 加载到 Databend Cloud:

复制代码
bend-ingest-kafka \
 - kafka-bootstrap-servers="localhost:9092" \
 - kafka-topic="test-topic" \
 - databend-dsn="<your-dsn>" \
 - is-json-transform=false

您将在终端中看到类似这样的消息:

复制代码
INFO[0000] Starting worker worker-0
WARN[0077] Failed to read message from Kafka: context deadline exceeded kafka_batch_reader=ReadBatch
2024/08/27 15:12:56 ingest 2 rows (1.978622 rows/s), 579 bytes (572.811134 bytes/s)

验证 Kafka 消息已成功加载到 Databend Cloud 中,并自动创建了一张表:

相关推荐
前端世界7 小时前
鸿蒙任务调度机制深度解析:优先级、时间片、多核与分布式的流畅秘密
分布式·华为·harmonyos
A尘埃7 小时前
金融项目高可用分布式TCC-Transaction(开源框架)
分布式·金融·开源
夜影风8 小时前
RabbitMQ核心架构与应用
分布式·架构·rabbitmq
花酒锄作田9 小时前
Nginx反向代理Kafka集群
nginx·kafka
电商API_1800790524713 小时前
大规模调用淘宝商品详情 API 的分布式请求调度实践
服务器·数据库·分布式·爬虫
武子康16 小时前
大数据-69 Kafka 存储结构解析:日志文件与索引文件的内部机制
大数据·后端·kafka
Light6020 小时前
模型驱动与分布式建模:技术深度与实战落地指南
分布式·生成式ai·元模型·crdt·模型驱动架构·分布式建模
斯普信专业组1 天前
Rabbitmq+STS+discovery_k8s +localpv部署排坑详解
分布式·kubernetes·rabbitmq
自由自在的小Bird1 天前
kafka初步介绍
spring boot·后端·kafka
愚昧之山绝望之谷开悟之坡1 天前
Kafka 的消费
分布式·kafka