flink operator 1.7 更换日志框架log4j 到logback

更换日志框架 flink 1.18

1 消除基础flink框架log4j 添加logback jar

bash 复制代码
1-1 log4j
log4j-1.2-api-2.17.1.jar
log4j-api-2.17.1.jar
log4j-core-2.17.1.jar
log4j-slf4j-impl-2.17.1.jar
1-2  logback
logback-core-1.2.3.jar
logback-classic-1.2.3.jar
slf4j-api-1.7.25.jar

2 在镜像制作的时候消除:

bash 复制代码
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-core-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-slf4j-impl-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
COPY logback-core-1.2.3.jar $FLINK_HOME/lib
COPY logback-classic-1.2.3.jar $FLINK_HOME/lib
COPY slf4j-api-1.7.25.jar $FLINK_HOME/lib      

3-2 制作flink yaml的时候添加参数

yaml 复制代码
logConfiguration:
    logback-console.xml: '<configuration>    <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>${log.file}</file>        <Prudent>false</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <appender name="localfile" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>/opt/flink/log/${log.file}</file>        <append>false</append>        <Prudent>true</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>/opt/flink/log/${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <root level="DEBUG">        <appender-ref ref="file"/>    </root>    <logger name="akka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.kafka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.hadoop" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.zookeeper" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.flink.shaded.akka.org.jboss.netty.channel.DefaultChannelPipeline" level="ERROR">        <appender-ref ref="file"/>    </logger></configuration>'
相关推荐
Hello.Reader4 小时前
Flink 状态后端(State Backends)实战原理、选型、配置与调优
大数据·flink
还是大剑师兰特10 小时前
Flink面试题及详细答案100道(61-80)- 时间与窗口
flink·大剑师·flink面试题
武子康15 小时前
大数据-121 - Flink 时间语义详解:EventTime、ProcessingTime、IngestionTime 与 Watermark机制全解析
大数据·后端·flink
戚砚笙17 小时前
Flink进阶:从“会用”到“用明白”的踩坑与实战总结
flink
为java加瓦20 小时前
优化 Service 层架构:从高耦合到清晰分层的实战重构指南
log4j
Y1_again_0_again1 天前
Java中第三方日志库-Log4J
java·开发语言·log4j
武子康1 天前
大数据-120 - Flink滑动窗口(Sliding Window)详解:原理、应用场景与实现示例 基于时间驱动&基于事件驱动
大数据·后端·flink
Hello.Reader1 天前
Flink 广播状态(Broadcast State)实战从原理到落地
java·大数据·flink
Hello.Reader2 天前
Flink State V2 实战从同步到异步的跃迁
网络·windows·flink
Hello.Reader2 天前
Apache StreamPark 快速上手从一键安装到跑起第一个 Flink SQL 任务
sql·flink·apache