【运维实战】一次linux日志分割之路——将日志按照每小时进行分割,并按照“日期-小时”格式保存

是这样的,如今须要对nginx的access.log进行按照每小时进行分割,而且最好还要可以以 “日期+时间”的形式,命名保存。nginx

两点,一个是按照每小时进行分割,一个是将日志以“日期+时间”的形式进行保存。bash

1.将日志按照每小时进行分割:3d

利用crontab日志

输入crontab -e,手动添加一个定时任务blog

0 */1 * * * /bin/bash /root/tools/log_per_hour.shcrontab

那么这种是我最终须要的,是在每一个整点都执行写好的log_per_hour脚本。定时任务

确定有一些大兄弟须要的是“从如今开始每隔一个小时进行执行”,这个时候的crontab定时任务应该这么写:im

*/60 * * * * /bin/bash /root/tools/log_per_hour.sh命名

是“每隔60分钟执行一次”,这样会从任务生效时开始计算间隔。脚本

2.将日志以“日期+时间”的形式进行保存:

 

其中,为了保证可以及时发现若是文件或者目录异常,中间作了条件断定。

而且为了让最后的access.log文件可以自动从新生成(等因而以前每一个小时的都已经分割好了,nginx重载以后日志文件会从新生成并记录,这样就避免到时候把文件mv了以后,原先运行的nginx日志没地方写入尴尬的境地)

 

 

运行了两天,看一下成果~

小百万的访问量,每一个日志仍是很大~

下一步得要作威胁分析,进一步挖掘日志中的内容,祝我好运~

相关文章
相关标签/搜索