当网站访问量大后,日志数据就会不少,若是所有写到一个日志文件中去,文件会变得愈来愈大。文件大速度就会慢下来,好比一个文件几百兆。写入日志的时候,会影响操做速度。另外,若是我想看看访问日志,一个几百兆的文件,下载下来打开也很慢。nginx
为了方便对日志进行分析计算,须要对日志进行定时切割。定时切割的方式有按照月切割、按天切割,按小时切割等。最经常使用的是按天切割。web
#!/bin/bash
# 必须天天00:00运行shell
#日志保留天数
DAY=7bash
LOGS_PATH="/usr/local/webserver/nginx/logs" #nginx日志存放目录网站
mkdir -p ${LOGS_PATH}/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m") #创建以日期的日志文件夹
mv -f ${LOGS_PATH}/access.log ${LOGS_PATH}/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")/access_$(date -d "yesterday" +"%Y%m%d").log #备份access.log到以日期的日志文件夹中
mv -f ${LOGS_PATH}/error.log ${LOGS_PATH}/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")/error_$(date -d "yesterday" +"%Y%m%d").log #备份error.log到以日期的日志文件夹中spa
/etc/init.d/nginx reload #重载告诉nginx从新打开日志。
for ACCESS_LOG in `find ${LOGS_PATH}/ -type f -name "access_[0-9]*.log" -mtime +${DAY}`;do
rm -f ${ACCESS_LOG}
done #删除7天之前的日志。
for ERROR_LOG in `find ${LOGS_PATH}/ -type f -name "error_[0-9]*.log" -mtime +${DAY}`;do
rm -f ${ERROR_LOG}
done 日志
######## -mtime -n +n #按文件更改时间来查找文件,-n指n天之内,+n指n天之前server
写入到计划任务中:ip
00 00 * * * /bin/sh /usr/local/webserver/nginx/script/cut_nginx_log.shit