linux内核系统调用--sendfile函数

在apache,nginx,lighttpd等webserver其中,都有一项sendfile相关的配置,在一些网上的资料都有谈到sendfile会提升文件传输性能,那sendfile究竟是什么呢?它的原理又是怎样呢?

在传统的文件传输里面(read/write方式),在实现上事实上是比較复杂的,须要经过多次上下文的切换,我们看一下例如以下两行代码:
Java代码  收藏代码
  1. read(file, tmp_buf, len);      
  2.        write(socket, tmp_buf, len);      
    
        以上两行代码是传统的read/write方式进行文件到socket的传输。

当须要对一个文件进行传输的时候,其详细流程细节例如以下:
1、调用read函数,文件数据被copy到内核缓冲区
2、read函数返回,文件数据从内核缓冲区copy到用户缓冲区
3、write函数调用,将文件数据从用户缓冲区copy到内核与socket相关的缓冲区。
4、数据从socket缓冲区copy到相关协议引擎。

一般来说一个网络应用是通过读硬盘数据,然后写数据到 socket 来完毕网络传输的。上面2行用代码解释了这一点,只是上面2行简单的代码掩盖了底层的非常多操作。来看看底层是怎么运行上面2行代码的:

1、系统调用 read() 产生一个上下文切换:从 user mode 切换到 kernel mode,然后 DMA 运行拷贝,把文件数据从硬盘读到一个 kernel buffer 里。
2、数据从 kernel buffer 复制到 user buffer,然后系统调用 read() 返回,这时又产生一个上下文切换:从kernel mode 切换到 user mode。
3、系统调用 write() 产生一个上下文切换:从 user mode 切换到 kernel mode,然后把步骤2读到 user buffer 的数据复制到 kernel buffer(数据第2次复制到 kernel buffer),只是这次是个不同的 kernel buffer,这个 buffer 和 socket 相关联。
4、系统调用 write() 返回,产生一个上下文切换:从 kernel mode 切换到 user mode(第4次切换了),然后 DMA 从 kernel buffer 拷贝数据到协议栈(第4次拷贝了)。

上面4个步骤有4次上下文切换,有4次拷贝,我们发现假设能降低切换次数和拷贝次数将会有效提升性能。在kernel 2.0+ 版本号中,系统调用 sendfile() 就是用来简化上面步骤提升性能的。sendfile() 不但能降低切换次数并且还能降低拷贝次数。


以上细节是传统read/write方式进行网络文件传输的方式,我们能够看到,在这个过程其中,文件数据实际上是经过了四次copy操作:


硬盘—>内核buf—>用户buf—>socket相关缓冲区—>协议引擎

而sendfile系统调用则提供了一种降低以上多次copy,提升文件传输性能的方法。Sendfile系统调用是在2.1版本号内核时引进的:
Java代码  收藏代码
  1. sendfile(socket, file, len);  

执行流程例如以下:
1、sendfile系统调用,文件数据被copy至内核缓冲区
2、再从内核缓冲区copy至内核中socket相关的缓冲区
3、最后再socket相关的缓冲区copy到协议引擎

相较传统read/write方式,2.1版本号内核引进的sendfile已经降低了内核缓冲区到user缓冲区,再由user缓冲区到socket相关缓冲区的文件copy,而在内核版本号2.4之后,文件描写叙述符结果被改变,sendfile实现了更简单的方式,系统调用方式仍然一样,细节与2.1版本号的不同之处在于,当文件数据被拷贝到内核缓冲区时,不再将全部数据copy到socket相关的缓冲区,而是只将记录数据位置和长度相关的数据保存到socket相关的缓存,而实际数据将由DMA模块直接发送到协议引擎,再次降低了一次copy操作。
原文地址:https://www.cnblogs.com/zfyouxi/p/4196170.html