当前位置: 首页 > news >正文

java透传参数至logback,自定义日志文件名。过期日志文件自动删除

LogFilter

filter日志拦截,把不需要打印的日志信息拦截在外,只录入有key参数的(filterReply = FilterReply.ACCEPT;)。

package com.***.***.filter;import ch.qos.logback.classic.Level;
import ch.qos.logback.classic.spi.ILoggingEvent;
import ch.qos.logback.core.filter.Filter;
import ch.qos.logback.core.spi.FilterReply;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;/*** task log filter*/
public class LogFilter extends Filter<ILoggingEvent> {private static Logger logger = LoggerFactory.getLogger(LogFilter.class);/*** Task Logger Thread's name*/public static final String LOG_FORMAT = "customLogId";/*** level*/private Level level;/*** Accept or reject based on thread name** @param event event* @return FilterReply*/@Overridepublic FilterReply decide(ILoggingEvent event) {FilterReply filterReply = FilterReply.DENY;if (event.getMDCPropertyMap().containsKey(LOG_FORMAT)) {filterReply = FilterReply.ACCEPT;}logger.debug("task log filter, thread name:{}, loggerName:{}, filterReply:{}, level:{}", event.getThreadName(),event.getLoggerName(), filterReply.name(), level);return filterReply;}
}

java打印日志

public void TestLog() {String customLogId = "123456789";MDC.put("customLogId", customLogId);log.info("customLogId={}, logTest start success!", customLogId);log.info("111111111111111111111111111111111111111111111111");log.info("customLogId={}, logTest end success!", customLogId);MDC.clear();
}

logback的XML配置:

filter class配置为filter的包路径.类名。如果不需要拦截日志的话,可以不用配置filter,java中也不用写。因为我的参数透传使用在了日志文件命名当中,没有key的数据会替换为unknown,日志就录入到unknown文件当中了,所以加了filter过滤。

appender SiftingAppender 可以使用discriminator自定义参数

discriminator 的key 是在java代码录日志之前通过MDC录入

<appender name="CUSTOMLOGFILE" class="ch.qos.logback.classic.sift.SiftingAppender"><filter class="com.***.***.filter.LogFilter"/><discriminator><key>customLogId</key><defaultValue>unknown</defaultValue></discriminator><sift><appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender"><file>${log_dir}/custom/${customLogId}.log</file><rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"><!--日志文件输出的文件名--><fileNamePattern>${log_dir}/custom/%d{yyyy-MM-dd}/${customLogId}.%i.log</fileNamePattern><!--日志保留时长--><maxHistory>2</maxHistory><!--日志大小--><maxFileSize>2KB</maxFileSize><totalSizeCap>5KB</totalSizeCap><cleanHistoryOnStart>true</cleanHistoryOnStart></rollingPolicy><encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"><providers><pattern><pattern>{"time": "%d{yyyy-MM-dd HH:mm:ss.SSS}","level": "%level","thread": "%thread","class": "%logger{40}","message": "%msg","stack_trace": "%exception{10}"}</pattern><charset>utf8</charset></pattern></providers></encoder></appender></sift></appender>

参数解析

RollingFileAppender可以用于滚动日志。期望根据日期、文件大小删除日志时,可使用。

file 生成的日志名称

rollingPolicy 滚动策略,这里采用的SizeAndTimeBasedRollingPolicy,基于日志文件大小和时间滚动。

fileNamePattern 定义翻转(归档)日志文件的名称。

它的值应该包括文件的名称以及适当放置的% d 转换说明符。% d 转换说明符可能包含日期和时间模式。如果省略了日期和时间模式,则假定使用默认模式 yyyy-MM-dd。翻转周期是从 fileNamePattern 的值推断出来的。这里的滚动周期需要和maxHistory配合使用。

maxFileSize 单个日志文件的最大体积,到达最大体积后就会触发日志滚动操作,生成新的日志文件

maxHistory 要保存的归档文件的最大数量,以异步方式删除旧文件。例如,如果通过fileNamePattern中的%d{yyyy-MM}指定滚动周期为月度滚动,并将 maxHistory 设置为6,那么存档文件中超过6个月的文件将被删除。

totalSizeCap 控制所有归档日志文件的总大小。当超出总大小上限时,将异步删除最早的归档日志文件。设置totalSizeCap 属性还要求设置 maxHistory 属性。优先“最大历史”限制,其次是“总大小上限”的限制。

按照实际业务情况配置 totalSizeCap ,可以有效避免占用过大的磁盘空间。

比如你希望 maxHistory 保留7天日志文件,但是可能这7个文件总大小超出磁盘容量,所以可以通过 totalSizeCap 来控制总大小,这样系统会判断大于此值时进行自动覆盖。

注意⚠️:单独配置totalSizeCap是没有意义的,一定要同时配置maxHistory属性,且大于0,才能实现超过总大小上限异步删除。

cleanHistoryOnStart 是否在应用启动的时候删除历史日志。

如果设置为真,将在启动应用程序时执行档案删除。默认情况下,此属性设置为 false。归档日志移除通常在滚动期间执行。但是,有些应用程序的存活时间可能不够长,无法触发滚动。因此,对于如此短命的应用程序,删除存档可能永远没有机会执行。通过将 cleanHistoryOnStart 设置为 true,将在启动 appender 时执行档案删除。

encoder 控制输出日志的格式和编码。

patten里的内容可以看到我改成了json格式。有利于后续在ELK中使用。

当然你也可以写成常规的打印的日志格式

<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-4relative [%thread] %-5level %logger{35} - %msg%n</pattern>

 <fileNamePattern>${log_dir}/custom/%d{yyyy-MM-dd}/${customLogId}.%i.log</fileNamePattern>

这段话要注意一下:

日志是根据%d来进行日期滚动的,如果有多个%d就无法识别了。

在fileNamePattern配置中添加多个%d的日期符号,但是只能有一个是主要的,其它的只能做为辅助(auxiliary)。在RollingCalendar类中,日志的文件滚动方式就是根据主%d那个日期判断的.

比如:/var/log/%d{yyyy/MM, aux}/myapplication.%d{yyyy-MM-dd}.log

%i是自然数,当生成多个的时候会按照0123...生成尾号不同的文件。

图中配的时长大小比较小是为了测试。正常可以按周/月清理日志,大小在100MB,总大小20GB左右。根据情况调整

http://www.lryc.cn/news/150987.html

相关文章:

  • HFSS 3维曲线导入
  • 【消息中心】kafka消费失败重试10次的问题
  • 无涯教程-Python机器学习 - Semi-supervised Learning函数
  • 7 | 计算每个键对应的平均值,并按降序排序
  • kafka详解二
  • SAP_ABAP_接口技术_RFC远程函数实践总结
  • 计算机 --> 磁盘 --> 分区
  • 3D视觉测量:形位公差 平面度测量(附源码)
  • vmware虚拟机远程开发
  • Web安全——穷举爆破上篇(仅供学习)
  • POJ 3045 Cow Acrobats 二分+优先队列
  • 手写实现call() apply() bind()函数,附有详细注释,包含this指向、arguments讲解
  • MySQL中日期、时间直接相减的坑
  • 漏洞发现-web应用发现探针类型利用(43)
  • 专门针对开发人员,攻击者利用Rust获取操作系统信息
  • PHP8的箭头函数-PHP8知识详解
  • 初识PHP编程:探索Web开发的起点
  • Git——Windows平台创建gitee私有仓库详解
  • Git基础教程-常用命令整理:学会Git使用方法和错误解决
  • Ops实践 | 国产化KylinOS系统中快速部署企业内部高性能DNS服务器、时间同步服务器 (精选)...
  • stm32之IIC协议
  • 范式 事务 多表查询
  • 基于白鲸算法优化的BP神经网络(预测应用) - 附代码
  • java并发编程 ReentrantLock详解
  • Java获取文件内容IO流
  • Java后端开发面试题——集合篇
  • 如何允许远程访问MySQL
  • 001图机器学习与图神经网络简介
  • 万级数据优化EasyExcel+mybatis流式查询导出封装
  • Unity——脚本序列化