Kafka应用Demo:生产者自定义消息分区方法

背景

没有设置消息键时Kafka默认的分区算法是轮循,设置了消息键将按消息键的hashcode计算分区值。这种方法可以保证未设置消息键时各分区负载均衡。也可以保证设置消息键后的消息放到同一个分区发送,以保证消息按顺序消费。

但在某些业务场景下,我们可能也想要自定义分区算法。Producer端的配置支持做这样的自定义。

实现Partitioner接口,定义自己的算法

下面以一个简单的例子举例,要求key为Tom的消息放1号分区,key为Alice的消息放2号分区。实际项目使用什么样的分区算法需要根据业务场景来决定。

java 复制代码
/**
 * 自定义分区算法
 *
 * @author neo
 * @since 2024-05-10
 */
public class NeoPartitioner implements Partitioner {
    // 分区数量
    private static final int PARTITION_NUM = 5;

    private RoundRobinPartitioner roundRobinPartitioner = new RoundRobinPartitioner();

    @Override
    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
        if (key == null || "".equals(key)) {
            // 未指定分区键,使用轮循分区(指定了key的消息不参与轮循)
            return roundRobinPartitioner.partition(topic, key, keyBytes, value, valueBytes, cluster);
        }

        // 基于业务的约定. 某些消息放到固定的分区
        if ("Tom".equals(key)) {
            return 1;
        }

        if ("Alice".equals(key)) {
            return 2;
        }

        // 其它情况按key的哈希值分区
        int keyCode = key.hashCode();
        return keyCode % PARTITION_NUM;
    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> map) {

    }
}

Producer参数配置

相关推荐
Devin~Y3 小时前
大厂Java面试实战:Spring Boot + Redis + Kafka + Kubernetes + RAG 的三轮追问(附答案解析)
java·spring boot·redis·spring cloud·kafka·kubernetes·resilience4j
想你依然心痛3 小时前
HarmonyOS 6(API 23)分布式实战:基于悬浮导航与沉浸光感的“光影协创“跨设备白板系统
分布式·wpf·harmonyos·悬浮导航·沉浸光感
立莹Sir5 小时前
商品中台架构设计与技术落地实践——基于Spring Cloud微服务体系的完整解决方案
分布式·后端·spring cloud·docker·容器·架构·kubernetes
人道领域5 小时前
【Redis实战篇】初步基于Redis实现的分布式锁---基于黑马点评
java·数据库·redis·分布式·缓存
buhuimaren_12 小时前
FastDFS分布式存储
分布式
Devin~Y1 天前
大厂Java面试实战:Spring Boot/Cloud + Redis/Kafka + K8s + RAG/Agent 追问全流程(小Y翻车记)
java·spring boot·redis·spring cloud·kafka·kubernetes·micrometer
独隅1 天前
ZooKeeper 基础原理深度解析
分布式·zookeeper·云原生
MY_TEUCK1 天前
【Redis 高级实战】分布式缓存、 多级缓存与最佳实践一篇打通
redis·分布式·缓存
老毛肚1 天前
Redis分布式篇
数据库·redis·分布式
juniperhan1 天前
Flink 系列第16篇:Flink 核心数据类型类详解(POJO、Row、Tuple)
java·大数据·数据仓库·分布式·flink