Linux VFS中write系统调用实现原理【转】

转自:http://blog.chinaunix.net/uid-28362602-id-3425881.html

目录

用户空间的write函数在内核里面的服务例程为sys_write

Vfs_write函数实现原理

 

WORD里面的目录复制过来似乎不能直接用。。还是放在这里当主线看吧..

用户空间的write函数在内核里面的服务例程为sys_write

root@syslab ~]# grep write /usr/include/asm/unistd_64.h

#define __NR_write                              1

__SYSCALL(__NR_write, sys_write)

#define __NR_pwrite64                           18

__SYSCALL(__NR_pwrite64, sys_pwrite64)

#define __NR_writev                             20

__SYSCALL(__NR_writev, sys_writev)

#define __NR_pwritev                            296

__SYSCALL(__NR_pwritev, sys_pwritev)

#define __NR_process_vm_writev                  311

__SYSCALL(__NR_process_vm_writev, sys_process_vm_writev)

 

这里根据经验判断,通常write调用应该是sys_write,这里我们讨论sys_write函数的内核实现

SYSCALL_DEFINE3(write, unsigned int, fd, const char __user *, buf,size_t, count)

{

         {//这里SYSCALL_DEFINE3 writesys_write的转换请参看前面的文章Linux 编程中的API函数和系统调用的关系

       //这里unsigned int fd表示用户空间的文件描述符

       //char __user *buf是存放从文件读取内容的一个用户空间内存区

         struct file *file;

         ssize_t ret = -EBADF;

         int fput_needed;

         file = fget_light(fd, &fput_needed);

         if (file) {

                   loff_t pos = file_pos_read(file);

                   ret = vfs_write(file, buf, count, &pos);

                   file_pos_write(file, pos);

                   fput_light(file, fput_needed);

         }

         return ret;

}

可以看到,和sys_read系统调用不同的地方就是这里调用了vfs_write函数来完成写操作,所以这里我们只看vfs_write都做了什么,其余部分请参看Linux read系统调用实现原理

Vfs_write函数实现原理

ssize_t  vfs_write(struct file *file, const char __user *buf, size_t count, loff_t *pos)

即把用户空间的char __user* buf指向的内存地址里面的内容写入相应的设备文件

       基本同vfs_read,不过这里变成了

    如果文件系统没有实现file_operation或者既没有实现file_operation->write,也没有实现file_operation->aio_write,则报错。(即文件系统即没有实现同步写,也没有实现异步写,那就报错返回错误了)

如果文件系统实现了file->file_operation->write(还记得我吗在open系统调用中讲到的吗,在open系统调用中file->file_operation设置为了inode->file_operation)函数,则调用它来完成。

否则(说明文件系统没有实现write,但是实现了file_operation->aio_write)调用内核的默认函数do_sync_write(file, buf, count, pos);来做同步读写操作;而内核的do_sync_write函数内部实现是

ssize_t do_sync_write(struct file *filp, const char __user *buf, size_t len, loff_t *ppos){

struct iovec iov = { .iov_base = (void __user *)buf, .iov_len = len };

for (;;) {

                   ret = filp->f_op->aio_write(&kiocb, &iov, 1, kiocb.ki_pos);

                   if (ret != -EIOCBRETRY)

                            break;

                   wait_on_retry_sync_kiocb(&kiocb);

         }

}

这里和do_sync_read不同在于基本也就aio_read换成了aio_write了,do_sync_write最后调用的是file_operation->aio_write方法,但是iov数组长度为1,并且写入过程中如果写入操作没有完成则显式调用进程调度函数,本进程可能被挂起来且进程状态为TASK_UNINTERRUPTIBLE。直到最终写入完成,读取成功后进程状态会变为TASK_RUNNING,且存放在用户空间的buf内存区的内容已经写入硬件上为止

具体请参看Linux read系统调用实现原理

原文地址:https://www.cnblogs.com/sky-heaven/p/6066515.html