在apache,nginx,lighttpd等web服务器当中,都有一项sendfile相关的配置,在一些网上的资料都有谈到sendfile会提高文件传输性能,那sendfile究竟是什么呢?它的原理又是如何呢?
在传统的文件传输里面(read/write方式),在实现上实际上是比较复杂的,须要通过屡次上下文的切换,咱们看一下以下两行代码:nginx
read(file, tmp_buf, len); write(socket, tmp_buf, len);
以上两行代码是传统的read/write方式进行文件到socket的传输。web
当须要对一个文件进行传输的时候,其具体流程细节以下:apache
一、调用read函数,文件数据被copy到内核缓冲区缓存
二、read函数返回,文件数据从内核缓冲区copy到用户缓冲区服务器
三、write函数调用,将文件数据从用户缓冲区copy到内核与socket相关的缓冲区。网络
四、数据从socket缓冲区copy到相关协议引擎。socket
以上细节是传统read/write方式进行网络文件传输的方式,咱们能够看到,在这个过程中,文件数据其实是通过了四次copy操做:ide
硬盘—>内核buf—>用户buf—>socket相关缓冲区—>协议引擎函数
而sendfile系统调用则提供了一种减小以上屡次copy,提高文件传输性能的方法。Sendfile系统调用是在2.1版本内核时引进的:性能
sendfile(socket, file, len);
运行流程以下:
一、sendfile系统调用,文件数据被copy至内核缓冲区
二、再从内核缓冲区copy至内核中socket相关的缓冲区
三、最后再socket相关的缓冲区copy到协议引擎
相较传统read/write方式,2.1版本内核引进的sendfile已经减小了内核缓冲区到user缓冲区,再由user缓冲区到socket相关 缓冲区的文件copy,而在内核版本2.4以后,文件描述符结果被改变,sendfile实现了更简单的方式,系统调用方式仍然同样,细节与2.1版本的 不一样之处在于,当文件数据被复制到内核缓冲区时,再也不将全部数据copy到socket相关的缓冲区,而是仅仅将记录数据位置和长度相关的数据保存到 socket相关的缓存,而实际数据将由DMA模块直接发送到协议引擎,再次减小了一次copy操做。