是这样的,如今须要对nginx的access.log进行按照每小时进行分割,而且最好还要可以以 “日期+时间”的形式,命名保存。nginx
两点,一个是按照每小时进行分割,一个是将日志以“日期+时间”的形式进行保存。bash
1.将日志按照每小时进行分割:3d
利用crontab日志
输入crontab -e,手动添加一个定时任务blog
0 */1 * * * /bin/bash /root/tools/log_per_hour.shcrontab
那么这种是我最终须要的,是在每一个整点都执行写好的log_per_hour脚本。定时任务
确定有一些大兄弟须要的是“从如今开始每隔一个小时进行执行”,这个时候的crontab定时任务应该这么写:im
*/60 * * * * /bin/bash /root/tools/log_per_hour.sh命名
是“每隔60分钟执行一次”,这样会从任务生效时开始计算间隔。脚本
2.将日志以“日期+时间”的形式进行保存:
其中,为了保证可以及时发现若是文件或者目录异常,中间作了条件断定。
而且为了让最后的access.log文件可以自动从新生成(等因而以前每一个小时的都已经分割好了,nginx重载以后日志文件会从新生成并记录,这样就避免到时候把文件mv了以后,原先运行的nginx日志没地方写入尴尬的境地)
运行了两天,看一下成果~
小百万的访问量,每一个日志仍是很大~
下一步得要作威胁分析,进一步挖掘日志中的内容,祝我好运~