flink operator 1.7 更换日志框架log4j 到logback

更换日志框架 flink 1.18

1 消除基础flink框架log4j 添加logback jar

bash 复制代码
1-1 log4j
log4j-1.2-api-2.17.1.jar
log4j-api-2.17.1.jar
log4j-core-2.17.1.jar
log4j-slf4j-impl-2.17.1.jar
1-2  logback
logback-core-1.2.3.jar
logback-classic-1.2.3.jar
slf4j-api-1.7.25.jar

2 在镜像制作的时候消除:

bash 复制代码
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-api-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-core-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-slf4j-impl-2.17.1.jar
RUN rm -rf $FLINK_HOME/lib/log4j-1.2-api-2.17.1.jar
COPY logback-core-1.2.3.jar $FLINK_HOME/lib
COPY logback-classic-1.2.3.jar $FLINK_HOME/lib
COPY slf4j-api-1.7.25.jar $FLINK_HOME/lib      

3-2 制作flink yaml的时候添加参数

yaml 复制代码
logConfiguration:
    logback-console.xml: '<configuration>    <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>${log.file}</file>        <Prudent>false</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <appender name="localfile" class="ch.qos.logback.core.rolling.RollingFileAppender">        <file>/opt/flink/log/${log.file}</file>        <append>false</append>        <Prudent>true</Prudent>        <encoder>            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{60} %X{sourceThread} - %msg%n</pattern>        </encoder>        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">            <fileNamePattern>/opt/flink/log/${log.file}.%d{yyyy-MM-dd.HH.mm}</fileNamePattern>            <MaxHistory>15</MaxHistory>        </rollingPolicy>    </appender>    <root level="DEBUG">        <appender-ref ref="file"/>    </root>    <logger name="akka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.kafka" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.hadoop" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.zookeeper" level="INFO">        <appender-ref ref="file"/>    </logger>    <logger name="org.apache.flink.shaded.akka.org.jboss.netty.channel.DefaultChannelPipeline" level="ERROR">        <appender-ref ref="file"/>    </logger></configuration>'
相关推荐
IT果果日记几秒前
没有Kafka怎么办?Flink SQL 创建 mysql-cdc 作业
大数据·后端·flink
Flink_China1 天前
Apache Flink错误处理实战手册:2年生产环境调试经验总结
大数据·flink
君不见,青丝成雪2 天前
Flink的CheckPoint与SavePoint
大数据·flink
mask哥2 天前
详解flink SQL基础(四)
java·大数据·数据库·sql·微服务·flink
BD_Marathon3 天前
【Flink】部署模式
java·数据库·flink
jiedaodezhuti3 天前
Flink直接缓冲存储器异常解析与解决方案
大数据·flink
Flink_China3 天前
Lazada 如何用实时计算 Flink + Hologres 构建实时商品选品平台
大数据·flink
杨杨杨大侠3 天前
第3篇:配置管理的艺术 - 让框架更灵活
java·spring·log4j
好奇的菜鸟3 天前
使用 Apache Flink CDC 3.0 实现 MySQL 到 Elasticsearch 的数据同步
mysql·flink·apache