解决nginx下载大文件出现文件损坏,文件大小不一致

小伙伴今天反馈了一个问题,说,网页上传了一个2MB的文件,在网页下载时,只有64KB,而且打开失败。确认该BUG确实存在且必现后,我,踏上了调试解决此BUG之路。php

一、系统是nginx+php+MySQL,凭经验判断与mysql无关,能够无视TA。 
二、从PHP网页上传2MB文件后,直接在服务器打开该文件,能够正常查阅,而且与原文件二进制同样。 
三、用不一样浏览器,不一样电脑反复从PHP网页下载该文件,发现下载的文件均只有64KB。 
四、换一个体积只有90KB的文件,从PHP网页上传下载,均无异常。 
经过以上4点,基本能够断定,问题出在nginx上。这时候,打开nginx的日志文件,发现以下错误log, 
[crit] 21636#0: *843968 open() “/home/www/local/nginx/fastcgi_temp/0/11/0000000110” failed (13: Permission denied) while reading upstream,….. 
能够大胆猜想,因为没有足够权限操做fastcgi_temp文件夹,因此没法获得正常的文件,因而,为该文件夹赋上权限后,问题解决。mysql

回头看,这究竟是什么缘由呢?nginx

查看nginx配置文件,能够找到下面这一段: 
fastcgi_connect_timeout 300; 
fastcgi_send_timeout 300; 
fastcgi_read_timeout 300; 
**fastcgi_buffer_size 64k; 
fastcgi_buffers 4 64k;** 
fastcgi_busy_buffers_size 128k; 
fastcgi_temp_file_write_size 128k; 
每次下载失败时文件的大小老是64KB,应该跟这里有关。原来,nginx会使用fastcgi_buffer_size指定的大小的缓冲区用于缓存fastcgi流的内容。当大小超出此大小时会继续用fastcgi_buffers指定的数量和大小申请缓冲区。若是依然超出此大小,会将多出的内容写入临时文件。也就是说,在本状况下,nginx首先会使用一个64K的缓冲区缓冲fastcgi流的第一部分,超出后最多申请4*64K=256K的缓冲区用于缓冲。若是继续超出,则写入临时文件。因此,在下载大于256K文件的时候,须要用到临时文件夹进行缓冲,而这里没有权限操做,就致使了该问题。sql

相关文章
相关标签/搜索