kafka 发送文件二进制流及使用header发送附属信息

文章目录

背景

需要使用kafka发送文件二进制以及附属信息

案例

发送方

java 复制代码
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;

import java.io.InputStream;
import java.nio.charset.StandardCharsets;
import java.util.Properties;

public class SendFileToKafka {

    public static void main(String[] args) {

        String filePath = "com/example/kafka/file/ConsumerFileByteArrayFromKafka.java";

        Properties kafkaProps = new Properties();
        kafkaProps.put("bootstrap.servers", "192.168.56.112:9092");
        kafkaProps.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        kafkaProps.put("value.serializer", "org.apache.kafka.common.serialization.ByteArraySerializer");
        KafkaProducer<String, byte[]> producer = new KafkaProducer<>(kafkaProps);
        InputStream in = SendFileToKafka.class.getResourceAsStream("/com/example/kafka/file/ConsumerFileByteArrayFromKafka.java");
        try {
            byte[] buffer = new byte[in.available()];
            // 读到buffer字节数组中
            in.read(buffer);
            ProducerRecord<String, byte[]> record = new ProducerRecord<>("dataTopic", buffer);
            String header = "aaa";
            record.headers().add("test_header", header.getBytes(StandardCharsets.UTF_8));
            producer.send(record);
            in.close();
            producer.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

接收方

java 复制代码
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.common.header.Header;
import org.apache.kafka.common.header.Headers;

import java.util.Arrays;
import java.util.Properties;

public class ConsumerFileByteArrayFromKafka {
    public static void main(String[] args) {
        Properties props = new Properties();
        props.put("bootstrap.servers", "192.168.56.112:9092");
        props.put("group.id", "group1");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.ByteArrayDeserializer");

        KafkaConsumer<String, byte[]> consumer = new KafkaConsumer<>(props);
        consumer.subscribe(Arrays.asList("dataTopic"));
        try {
            while (true) {
                ConsumerRecords<String, byte[]> records = consumer.poll(100);
                for (ConsumerRecord<String, byte[]> record : records) {
                    Headers headers = record.headers();
                    Iterable<Header> testHeader = headers.headers("test_header");
                    for (Header header : testHeader) {
                        String recordHeader = new String(header.value(), "UTF-8");
                        System.out.println("recordHeader => " + recordHeader);
                    }
                    byte[] message = record.value();
                    System.out.println(new String(message));
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            consumer.close();
        }
    }
}
相关推荐
掘金-我是哪吒23 分钟前
分布式微服务系统架构第134集:笔记1运维服务器经验,高并发,大数据量系统
运维·笔记·分布式·微服务·系统架构
onkel in blog2 小时前
【Docker】Docker Compose方式搭建分布式协调服务(Zookeeper)集群
分布式·docker·zookeeper
渣渣盟2 小时前
Flink流处理:多源传感器数据实时处理,基于Scala使用Flink从不同数据源(集合、文件、Kafka、自定义 Source)读取传感器数据
flink·kafka·scala
小小工匠3 小时前
架构思维:构建高并发扣减服务_分布式无主架构
分布式·架构·分布式无主架构
菠萝崽.5 小时前
Elasticsearch进阶篇-DSL
大数据·分布式·elasticsearch·搜索引擎·全文检索·jenkins·springboot
Uranus^5 小时前
深入解析Spring Boot与Kafka集成:构建高性能消息驱动应用
spring boot·kafka·消息队列·分布式系统
{⌐■_■}5 小时前
【kafka】kafka概念,使用技巧go示例
golang·kafka·linq
hong_zc6 小时前
服务端高并发分布式结构演进之路
分布式
461K.7 小时前
写spark程序数据计算( 数据库的计算,求和,汇总之类的)连接mysql数据库,写入计算结果
大数据·分布式·spark
却道天凉_好个秋15 小时前
系统架构设计(九):分布式架构与微服务
分布式·架构·系统架构