LEVEL
级别将日志分类保存到不一样文件IO
提升性能SpringBoot
工程自带logback
和slf4j
的依赖,因此重点放在编写配置文件上,须要引入什么依赖,日志依赖冲突通通都不须要咱们管了。logback
框架会默认加载classpath
下命名为logback-spring
或logback
的配置文件。将全部日志都存储在一个文件中文件大小也随着应用的运行愈来愈大而且很差排查问题,正确的作法应该是将error
日志和其余日志分开,而且不一样级别的日志根据时间段进行记录存储。java
<?xml version="1.0" encoding="utf-8"?> <configuration> <property resource="logback.properties"/> <appender name="CONSOLE-LOG" class="ch.qos.logback.core.ConsoleAppender"> <layout class="ch.qos.logback.classic.PatternLayout"> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </layout> </appender> <!--获取比info级别高(包括info级别)但除error级别的日志--> <appender name="INFO-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>DENY</onMatch> <onMismatch>ACCEPT</onMismatch> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滚动策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路径--> <fileNamePattern>${LOG_INFO_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <appender name="ERROR-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>ERROR</level> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滚动策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路径--> <fileNamePattern>${LOG_ERROR_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <root level="info"> <appender-ref ref="CONSOLE-LOG" /> <appender-ref ref="INFO-LOG" /> <appender-ref ref="ERROR-LOG" /> </root> </configuration>
部分标签说明git
<root>
标签,必填标签,用来指定最基础的日志输出级别github
<appender-ref>
标签,添加append
<append>
标签,经过使用该标签指定日志的收集策略spring
name
属性指定appender
命名class
属性指定输出策略,一般有两种,控制台输出和文件输出,文件输出就是将日志进行一个持久化。ConsoleAppender
将日志输出到控制台<filter>
标签,经过使用该标签指定过滤策略springboot
<level>
标签指定过滤的类型<encoder>
标签,使用该标签下的<pattern>
标签指定日志输出格式<rollingPolicy>
标签指定收集策略,好比基于时间进行收集bash
<fileNamePattern>
标签指定生成日志保存地址 经过这样配置已经实现了分类分天手机日志的目标了以前的日志配置方式是基于同步的,每第二天志输出到文件都会进行一次磁盘IO。采用异步写日志的方式而不让这次写日志发生磁盘IO,阻塞线程从而形成没必要要的性能损耗。异步输出日志的方式很简单,添加一个基于异步写日志的appender
,并指向原先配置的appender
便可服务器
<!-- 异步输出 --> <appender name="ASYNC-INFO" class="ch.qos.logback.classic.AsyncAppender"> <!-- 不丢失日志.默认的,若是队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 --> <discardingThreshold>0</discardingThreshold> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 添加附加的appender,最多只能添加一个 --> <appender-ref ref="INFO-LOG"/> </appender> <appender name="ASYNC-ERROR" class="ch.qos.logback.classic.AsyncAppender"> <!-- 不丢失日志.默认的,若是队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 --> <discardingThreshold>0</discardingThreshold> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 添加附加的appender,最多只能添加一个 --> <appender-ref ref="ERROR-LOG"/> </appender>
既然能提升性能的话,必须进行一次测试比对,同步和异步输出日志性能到底能提高多少倍?app
CPU
六核Apache Jmeter
Ramp-Up Loop
(能够理解为启动线程所用时间) :0 能够理解为100个线程同时启用测试结果框架
重点关注指标异步
Throughput【TPS】
吞吐量:系统在单位时间内处理请求的数量,在同步输出日志中
TPS
为
44.2/sec
Ramp-Up Loop
:0测试结果
TPS
为
497.5/sec
,
性能提高了10多倍!!!
从logback
框架下的Logger.info
方法开始追踪。一路的方法调用路径以下图所示:
异步输出日志中最关键的就是配置文件中ch.qos.logback.classic
`AsyncAppenderBase`append
protected void append(E eventObject) { if(!this.isQueueBelowDiscardingThreshold() || !this.isDiscardable(eventObject)) { this.preprocess(eventObject); this.put(eventObject); } }
经过队列状况判断是否须要丢弃日志,不丢弃的话将它放到阻塞队列中,经过查看代码,这个阻塞队列为ArrayBlockingQueueu
,默认大小为256,能够经过配置文件进行修改。Logger.info(...)
到append(...)
就结束了,只作了将日志塞入到阻塞队列的事,而后继续执行Logger.info(...)
下面的语句了。 在AsyncAppenderBase
类中定义了一个Worker
线程,run
方法中的关键部分代码以下:
E e = parent.blockingQueue.take(); aai.appendLoopOnAppenders(e);
从阻塞队列中取出一个日志,并调用AppenderAttachableImpl
类中的appendLoopOnAppenders
方法维护一个Append
列表。Worker
线程中调用方法过程主要以下图:
最主要的两个方法就是encode
`write`encode
做者:何甜甜在吗连接:https://juejin.im/post/5d4d61...
最后附:项目完整代码
<?xml version="1.0" encoding="utf-8"?> <configuration> <property resource="logback.properties"/> <appender name="CONSOLE-LOG" class="ch.qos.logback.core.ConsoleAppender"> <layout class="ch.qos.logback.classic.PatternLayout"> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </layout> </appender> <!--获取比info级别高(包括info级别)但除error级别的日志--> <appender name="INFO-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.LevelFilter"> <level>ERROR</level> <onMatch>DENY</onMatch> <onMismatch>ACCEPT</onMismatch> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滚动策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路径--> <fileNamePattern>${LOG_INFO_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <appender name="ERROR-LOG" class="ch.qos.logback.core.rolling.RollingFileAppender"> <filter class="ch.qos.logback.classic.filter.ThresholdFilter"> <level>ERROR</level> </filter> <encoder> <pattern>[%d{yyyy-MM-dd' 'HH:mm:ss.sss}] [%C] [%t] [%L] [%-5p] %m%n</pattern> </encoder> <!--滚动策略--> <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"> <!--路径--> <fileNamePattern>${LOG_ERROR_HOME}//%d.log</fileNamePattern> <maxHistory>30</maxHistory> </rollingPolicy> </appender> <!-- 异步输出 --> <appender name="ASYNC-INFO" class="ch.qos.logback.classic.AsyncAppender"> <!-- 不丢失日志.默认的,若是队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 --> <discardingThreshold>0</discardingThreshold> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 添加附加的appender,最多只能添加一个 --> <appender-ref ref="INFO-LOG"/> </appender> <appender name="ASYNC-ERROR" class="ch.qos.logback.classic.AsyncAppender"> <!-- 不丢失日志.默认的,若是队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 --> <discardingThreshold>0</discardingThreshold> <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 --> <queueSize>256</queueSize> <!-- 添加附加的appender,最多只能添加一个 --> <appender-ref ref="ERROR-LOG"/> </appender> <root level="info"> <appender-ref ref="CONSOLE-LOG" /> <appender-ref ref="INFO-LOG" /> <appender-ref ref="ERROR-LOG" /> </root> </configuration>
LOG_ERROR_HOME=C://Users//hetiantian//Desktop//log//error LOG_INFO_HOME=C://Users//hetiantian//Desktop//log//info