Kafka生产者消息异步发送并返回发送信息api编写教程

1.引入依赖(pox.xml文件)

<dependencies>

<dependency>

<groupId>org.apache.kafka</groupId>

<artifactId>kafka-clients</artifactId>

<version>3.6.2</version>

</dependency>

</dependencies>

2.创建java类

3.配置运行属性

//连接的服务器

properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"node1:9092,node2:9092");

//指定对应的key和value的序列化类型

properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName()); properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());

//关联自定义分区器

//properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.ljr.kafka.producer.MyPartitioner");

4.创建生产者对象

键入new KafkaProducer<>(),光标置于括号内CTRL+P可以显示需要对象为properties;

键入new Properties().var 回车,键入new KafkaProducer<>(properties).var 回车,选择变量名

5.发送消息并返回发送结果

键入KafkaProducer.send(),提示需要对象ProducerRecord;键入topic名(order)和要发送的信息("0000"+i),new Callback()回车会弹出需要重写的抽象类,补全返回条件、需要返回的信息即可实现抽象类;

e == null 表示消息全部发送完毕;

6.关闭资源

KafkaProducer.close();

7.运行查看结果

运行:

可以看到有返回信息;

另开窗口查看发送结果

kafka-console-consumer.sh --bootstrap-server node1:9092,node2:9092 --topic order

信息发送成功;

8.完整代码

java 复制代码
package com.ljr.kafka.producer;

import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;

public class CustomProducerCallback {
    public static void main(String[] args) {

        Properties properties = new Properties();

        properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"node1:9092,node2:9092");
        properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
/关联自定义分区器
//		properties.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.ljr.kafka.producer.MyPartitioner");

        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(properties);

        for(int i =0; i < 3; i++){
            kafkaProducer.send(new ProducerRecord<>("customers", "LiSi" + i), new Callback() {
                @Override
                public void onCompletion(RecordMetadata recordMetadata, Exception e) {
                    if (e == null) {
                        System.out.println("topic:" + recordMetadata.topic() + " partition:" + recordMetadata.partition());
                    }
                }
            });
        }
        kafkaProducer.close();
    }
}
相关推荐
可观测性用观测云7 小时前
观测云日志转发至 Kafka 最佳实践
kafka
QEasyCloud20229 小时前
领星、聚水潭与金蝶云星空三方系统对接技术方案
大数据
江瀚视野9 小时前
DeepWay深向盈利拐点趋近意味着什么?
大数据·人工智能
Bechamz9 小时前
大数据开发学习Day31
大数据·学习·ajax
闵孚龙10 小时前
Claude Code Plan Mode 计划模式全解析:先规划后执行、审批流、计划文件、Auto Mode、多 Agent 协同
大数据·人工智能
财迅通Ai11 小时前
利欧股份科技股权投资成效显著 构建硬科技布局新生态
大数据·人工智能·科技·利欧股份
API快乐传递者11 小时前
深度解析得物详情接口 dewu.item_get_app:技术实现、实操落地与风控规避
大数据
黎阳之光11 小时前
黎阳之光:视频孪生硬核赋能,共启数字孪生水利监测新征程
大数据·人工智能·算法·安全·数字孪生
工业机器人销售服务11 小时前
告别漫长停机:伯朗特机器人如何用“自动换模”重塑生产效率
大数据·人工智能·算法
oort12311 小时前
OortCloud Super AI Agent 平台——企业级AI生产力与管理平台汇报
大数据·人工智能·用户运营