kafka 将log4j的项目升级到log4j2

kafka版本是kafka_2.11-2.0.0,由于引用的log4j有漏洞,而升级kafka可能影响比较大,所以更新log4j包的版本。

参考的是将log4j的项目升级到log4j2

主要步骤如下:

bash 复制代码
cd kafka的目录
cd libs
rm -f slf4j-log4j12-1.7.25.jar 
rm -f slf4j-api-1.7.25.jar 
rm -f log4j-1.2.17.jar
wget https://repo1.maven.org/maven2/org/apache/logging/log4j/log4j-1.2-api/2.13.2/log4j-1.2-api-2.13.2.jar
wget https://repo1.maven.org/maven2/org/apache/logging/log4j/log4j-api/2.13.2/log4j-api-2.13.2.jar
wget https://repo1.maven.org/maven2/org/apache/logging/log4j/log4j-core/2.13.2/log4j-core-2.13.2.jar
wget https://repo1.maven.org/maven2/org/apache/logging/log4j/log4j-slf4j-impl/2.13.2/log4j-slf4j-impl-2.13.2.jar
wget https://repo1.maven.org/maven2/org/slf4j/slf4j-api/1.7.30/slf4j-api-1.7.30.jar



将bin/zookeeper-server-start.sh文件中
export KAFKA_LOG4J_OPTS="-Dlog4j.configuration=file:$base_dir/../config/log4j.properties" 修改成:
export KAFKA_LOG4J_OPTS="-Dlog4j.configuration=file:$base_dir/../config/log4j.properties -Dzookeeper.jmx.log4j.disable=true"

针对参考文章的补充:

  1. config/log4j.properties文件中引用的{kafka.logs.dir}变量没有效果,从而会导致在启动kafka的目录生成了以"{kafka.logs.dir}"为名称的目录,其目录下存放的是日志文件。网上找了一些方法去设置变量,但是没有效果,所以最后是直接写死了路径,比如:

    bash 复制代码
    log4j.appender.kafkaAppender.File=${kafka.logs.dir}/server.log
    改成了
    log4j.appender.kafkaAppender.File=kafka的目录/logs/server.log
  2. 文章最后将log4j的配置文件改了,但是实际用下来的话,日志确实是在开始会有被截断,但后续有新日志产生后会将之前被截断的日志补全,应该是当时被截断的日志还在缓存中尚未写入日志文件中。为了防止因为修改该配置文件造成的其他问题,所以暂时还是维持原样。

相关推荐
南客先生9 小时前
互联网大厂Java面试:RocketMQ、RabbitMQ与Kafka的深度解析
java·面试·kafka·rabbitmq·rocketmq·消息中间件
知其_所以然11 小时前
如何使用@KafkaListener实现从nacos中动态获取监听的topic
kafka
淋一遍下雨天11 小时前
Spark-Streaming核心编程
大数据·kafka
樟小叶_公众号同名14 小时前
Kafka运维经验
后端·kafka
小名叫咸菜16 小时前
flume整合Kafka和spark-streaming核心编程
kafka·flume
什么芮.17 小时前
spark-streaming
pytorch·sql·spark·kafka·scala
桑榆080618 小时前
Kafka简介
spark·kafka
xmyLydia20 小时前
🚀 封装通用线程池 + Prometheus 可视化任务耗时与成功率(实战记录)
kafka·数据可视化
K8sCat20 小时前
Golang与Kafka的五大核心设计模式
后端·kafka·go
企鹅不耐热.21 小时前
KafkaSpark-Streaming
kafka