flink operator 1.7 更换日志框架log4j 到logback

更换日志框架 flink 1.18

1 消除基础flink框架log4j 添加logback jar

bash 复制代码
1-1 log4j
log4j-1.2-api-2.17.1.jar
log4j-api-2.17.1.jar
log4j-core-2.17.1.jar
log4j-slf4j-impl-2.17.1.jar
1-2  logback
logback-core-1.2.3.jar
logback-classic-1.2.3.jar
slf4j-api-1.7.25.jar

2 在镜像制作的时候消除:

bash 复制代码
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-core-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-slf4j-impl-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
COPY logback-core-1.2.3.jar $FLINK_HOME/lib
COPY logback-classic-1.2.3.jar $FLINK_HOME/lib
COPY slf4j-api-1.7.25.jar $FLINK_HOME/lib      

3-2 制作flink yaml的时候添加参数

yaml 复制代码
logConfiguration:
    logback-console.xml: '<configuration>    <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>${log.file}</file>        <Prudent>false</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <appender name="localfile" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>/opt/flink/log/${log.file}</file>        <append>false</append>        <Prudent>true</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>/opt/flink/log/${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <root level="DEBUG">        <appender-ref ref="file"/>    </root>    <logger name="akka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.kafka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.hadoop" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.zookeeper" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.flink.shaded.akka.org.jboss.netty.channel.DefaultChannelPipeline" level="ERROR">        <appender-ref ref="file"/>    </logger></configuration>'
相关推荐
nangonghen3 小时前
flink operator v1.10部署flink v1.19.2
大数据·flink·flink operator
33三 三like19 小时前
软件测试:1、单元测试
数据库·sqlserver·log4j
warrah19 小时前
flink-cdc同步数据到doris中
flink·doris
坚定信念,勇往无前19 小时前
Spring Boot中整合Flink CDC 数据库变更监听器来实现对MySQL数据库
数据库·spring boot·flink
undo_try21 小时前
大数据组件(四)快速入门实时数据湖存储系统Apache Paimon(2)
flink·bigdata·paimon
m0_748247551 天前
springboot中配置logback-spring.xml
spring boot·spring·logback
m0_748250031 天前
springboot使用logback自定义日志
java·spring boot·logback
程序猿熊跃晖1 天前
多环境日志管理:使用Logback与Logstash集成实现高效日志处理
spring boot·elk·logback
风与沙的较量丶2 天前
单元测试方法的使用
单元测试·log4j
roman_日积跬步-终至千里2 天前
【Flink 实战】Flink 中 Akka 通信与内存占用分析
大数据·flink