本文阐述 Linux 中的文件系统部分,源代码来自基于 IA32 的 2.4.20 内核。整体上说 Linux 下的文件系统主要可分为三大块:一是上层的文件系统的系统调用,二是虚拟文件系统 VFS(Virtual Filesystem Switch),三是挂载到 VFS 中的各实际文件系统,例如 ext2,jffs 等。本文侧重于经过具体的代码分析来解释 Linux 内核中 VFS 的内在机制,在这过程当中会涉及到上层文件系统调用和下层实际文件系统的如何挂载。文章试图从一个比较高的角度来解释 Linux 下的 VFS 文件系统机制。node
3 评论: linux
Ricard Chen (ricard_chen@yahoo.com)
安全
XML error: Please enter a value for the author element's jobtitle attribute, or the company-name element, or both. |
关闭 [x]数据结构
Ricard Chen,男,感兴趣的领域:Linux 系统内核,BIOS,文件系统,XScale 等。读者能够经过email: ricard_chen@yahoo.com 和他联系。函数
2005 年 4 月 01 日oop
本文阐述 Linux 中的文件系统部分,源代码来自基于 IA32 的 2.4.20 内核。整体上说 Linux 下的文件系统主要可分为三大块:一是上层的文件系统的系统调用,二是虚拟文件系统 VFS(Virtual Filesystem Switch),三是挂载到 VFS 中的各实际文件系统,例如 ext2,jffs 等。本文侧重于经过具体的代码分析来解释 Linux 内核中 VFS 的内在机制,在这过程当中会涉及到上层文件系统调用和下层实际文件系统的如何挂载。文章试图从一个比较高的角度来解释 Linux 下的 VFS 文件系统机制,因此在叙述中更侧重于整个模块的主脉络,而不拘泥于细节,同时配有若干张插图,以帮助读者理解。
相对来讲,VFS 部分的代码比较繁琐复杂,但愿读者在阅读完本文以后,能对 Linux 下的 VFS 总体运做机制有个清楚的理解。建议读者在阅读本文前,先尝试着本身阅读一下文件系统的源代码,以便创建起 Linux 下文件系统最基本的概念,好比至少应熟悉 super block, dentry, inode,vfsmount 等数据结构所表示的意义,这样再来阅读本文以便加深理解。
VFS 是一种软件机制,也许称它为 Linux 的文件系统管理者更确切点,与它相关的数据结构只存在于物理内存当中。因此在每次系统初始化期间,Linux 都首先要在内存当中构造一棵 VFS 的目录树(在 Linux 的源代码里称之为 namespace),实际上即是在内存中创建相应的数据结构。VFS 目录树在 Linux 的文件系统模块中是个很重要的概念,但愿读者不要将其与实际文件系统目录树混淆,在笔者看来,VFS 中的各目录其主要用途是用来提供实际文件系统的挂载点,固然在 VFS 中也会涉及到文件级的操做,本文不阐述这种状况。下文提到目录树或目录,若是不特别说明,均指 VFS 的目录树或目录。图 1 是一种可能的目录树在内存中的影像:
这里的文件系统是指可能会被挂载到目录树中的各个实际文件系统,所谓实际文件系统,便是指VFS 中的实际操做最终要经过它们来完成而已,并不意味着它们必定要存在于某种特定的存储设备上。好比在笔者的 Linux 机器下就注册有 "rootfs"、"proc"、"ext2"、"sockfs" 等十几种文件系统。
在 Linux 源代码中,每种实际的文件系统用如下的数据结构表示:
struct file_system_type { const char *name; int fs_flags; struct super_block *(*read_super) (struct super_block *, void *, int); struct module *owner; struct file_system_type * next; struct list_head fs_supers; };
注册过程实际上将表示各实际文件系统的 struct file_system_type 数据结构的实例化,而后造成一个链表,内核中用一个名为 file_systems 的全局变量来指向该链表的表头。
在众多的实际文件系统中,之因此单独介绍 rootfs 文件系统的注册过程,实在是由于该文件系统 VFS 的关系太过密切,若是说 ext2/ext3 是 Linux 的本土文件系统,那么 rootfs 文件系统则是 VFS 存在的基础。通常文件系统的注册都是经过 module_init 宏以及 do_initcalls() 函数来完成(读者可经过阅读module_init 宏的声明及 arch\i386\vmlinux.lds 文件来理解这一过程),可是 rootfs 的注册倒是经过 init_rootfs() 这一初始化函数来完成,这意味着 rootfs 的注册过程是 Linux 内核初始化阶段不可分割的一部分。
init_rootfs() 经过调用 register_filesystem(&rootfs_fs_type) 函数来完成 rootfs 文件系统注册的,其中rootfs_fs_type 定义以下:
struct file_system_type rootfs_fs_type = { \ name: "rootfs", \ read_super: ramfs_read_super, \ fs_flags: FS_NOMOUNT|FS_LITTER, \ owner: THIS_MODULE, \ }
注册以后的 file_systems 链表结构以下图2所示:
既然是树,因此根是其赖以存在的基础,本节阐述 Linux 在初始化阶段是如何创建根结点的,即 "/"目录。这其中会包括挂载 rootfs 文件系统到根目录 "/" 的具体过程。构造根目录的代码是在 init_mount_tree() 函数 (fs\namespace.c) 中。
首先,init_mount_tree() 函数会调用 do_kern_mount("rootfs", 0, "rootfs", NULL) 来挂载前面已经注册了的 rootfs 文件系统。这看起来彷佛有点奇怪,由于根据前面的说法,彷佛是应该先有挂载目录,而后再在其上挂载相应的文件系统,然而此时 VFS 彷佛并无创建其根目录。不要紧,这是由于这里咱们调用的是 do_kern_mount(),这个函数内部天然会建立咱们最关心也是最关键的根目录(在 Linux 中,目录对应的数据结构是 struct dentry)。
在这个场景里,do_kern_mount() 作的工做主要是:
1)调用 alloc_vfsmnt() 函数在内存里申请了一块该类型的内存空间(struct vfsmount *mnt),并初始化其部分红员变量。
2) 调用 get_sb_nodev() 函数在内存中分配一个超级块结构 (struct super_block) sb,并初始化其部分红员变量,将成员 s_instances 插入到 rootfs 文件系统类型结构中的 fs_supers 指向的双向链表中。
3) 经过 rootfs 文件系统中的 read_super 函数指针调用 ramfs_read_super() 函数。还记得当初注册rootfs 文件系统时,其成员 read_super 指针指向了 ramfs_read_super() 函数,参见图2.
4) ramfs_read_super() 函数调用 ramfs_get_inode() 在内存中分配了一个 inode 结构 (struct inode) inode,并初始化其部分红员变量,其中比较重要的有 i_op、i_fop 和 i_sb:
inode->i_op = &ramfs_dir_inode_operations; inode->i_fop = &dcache_dir_ops; inode->i_sb = sb;
这使得未来经过文件系统调用对 VFS 发起的文件操做等指令将被 rootfs 文件系统中相应的函数接口所接管。
5) ramfs_read_super() 函数在分配和初始化了 inode 结构以后,会调用 d_alloc_root() 函数来为 VFS的目录树创建起关键的根目录 (struct dentry)dentry,并将 dentry 中的 d_sb 指针指向 sb,d_inode 指针指向 inode。
6) 将 mnt 中的 mnt_sb 指针指向 sb,mnt_root 和 mnt_mountpoint 指针指向 dentry,而 mnt_parent指针则指向自身。
这样,当 do_kern_mount() 函数返回时,以上分配出来的各数据结构和 rootfs 文件系统的关系将如上图 3 所示。图中 mnt、sb、inode、dentry 结构块下方的数字表示它们在内存里被分配的前后顺序。限于篇幅的缘由,各结构中只给出了部分红员变量,读者能够对照源代码根据图中所示按图索骥,以加深理解。
最后,init_mount_tree() 函数会为系统最开始的进程(即 init_task 进程)准备它的进程数据块中的namespace 域,主要目的是将 do_kern_mount() 函数中创建的 mnt 和 dentry 信息记录在了 init_task 进程的进程数据块中,这样全部之后从 init_task 进程 fork 出来的进程也都先天地继承了这一信息,在后面用sys_mkdir 在 VFS 中建立一个目录的过程当中,咱们能够看到这里为何要这样作。为进程创建 namespace 的主要代码以下:
namespace = kmalloc(sizeof(*namespace), GFP_KERNEL); list_add(&mnt->mnt_list, &namespace->list); //mnt is returned by do_kern_mount() namespace->root = mnt; init_task.namespace = namespace; for_each_task(p) { get_namespace(namespace); p->namespace = namespace; } set_fs_pwd(current->fs, namespace->root, namespace->root->mnt_root); set_fs_root(current->fs, namespace->root, namespace->root->mnt_root);
该段代码的最后两行即是将 do_kern_mount() 函数中创建的 mnt 和 dentry 信息记录在了当前进程的 fs结构中。
以上讲了一大堆数据结构的来历,其实最终目的不过是要在内存中创建一颗 VFS 目录树而已,更确切地说, init_mount_tree() 这个函数为 VFS 创建了根目录 "/",而一旦有了根,那么这棵数就能够发展壮大,好比能够经过系统调用 sys_mkdir 在这棵树上创建新的叶子节点等,因此系统设计者又将 rootfs 文件系统挂载到了这棵树的根目录上。关于 rootfs 这个文件系统,读者若是看一下前面图 2 中它的file_system_type 结构,会发现它的一个成员函数指针 read_super 指向的是 ramfs_read_super,单从这个函数名称中的 ramfs,读者大概能猜想出这个文件所涉及的文件操做都是针对内存中的数据对象,事实上也的确如此。从另外一个角度而言,由于 VFS 自己就是内存中的一个数据对象,因此在其上的操做仅限于内存,那也是很是合乎逻辑的事。在接下来的章节中,咱们会用一个具体的例子来讨论如何利用 rootfs所提供的函树为 VFS 增长一个新的目录节点。
VFS 中各目录的主要用途是为之后挂载文件系统提供挂载点。因此真正的文件操做仍是要经过挂载后的文件系统提供的功能接口来进行。
为了更好地理解 VFS,下面咱们用一个实际例子来看看 Linux 是如何在 VFS 的根目录下创建一个新的目录 "/dev" 的。
要在 VFS 中创建一个新的目录,首先咱们得对该目录进行搜索,搜索的目的是找到将要创建的目录其父目录的相关信息,由于"皮之不存,毛将焉附"。好比要创建目录 /home/ricard,那么首先必须沿目录路径进行逐层搜索,本例中先从根目录找起,而后在根目录下找到目录 home,而后再往下,即是要新建的目录名 ricard,那么前面讲得要先对目录搜索,在该例中即是要找到 ricard 这个新目录的父目录,也就是 home 目录所对应的信息。
固然,若是搜索的过程当中发现错误,好比要建目录的父目录并不存在,或者当前进程并没有相应的权限等等,这种状况系统必然会调用相关过程进行处理,对于此种状况,本文略过不提。
Linux 下用系统调用 sys_mkdir 来在 VFS 目录树中增长新的节点。同时为配合路径搜索,引入了下面一个数据结构:
struct nameidata { struct dentry *dentry; struct vfsmount *mnt; struct qstr last; unsigned int flags; int last_type; };
这个数据结构在路径搜索的过程当中用来记录相关信息,起着相似"路标"的做用。其中前两项中的 dentry记录的是要建目录的父目录的信息,mnt 成员接下来会解释到。后三项记录的是所查找路径的最后一个节点(即待建目录或文件)的信息。 如今为创建目录 "/dev" 而调用 sys_mkdir("/dev", 0700),其中参数 0700 咱们不去管它,它只是限定将要创建的目录的某种模式。sys_mkdir 函数首先调用 path_lookup("/dev", LOOKUP_PARENT, &nd);来对路径进行查找,其中 nd 为 struct nameidata nd 声明的变量。在接下来的叙述中,由于函数调用关系的繁琐,为了突出过程主线,将再也不严格按照函数的调用关系来进行描述。
path_lookup 发现 "/dev" 是以 "/" 开头,因此它从当前进程的根目录开始往下查找,具体代码以下:
nd->mnt = mntget(current->fs->rootmnt); nd->dentry = dget(current->fs->root);
记得在 init_mount_tree() 函数的后半段曾经将新创建的 VFS 根目录相关信息记录在了 init_task 进程的进程数据块中,那么在这个场景里,nd->mnt 便指向了图 3 中 mnt 变量,nd->dentry 便指向了图 3 中的 dentry 变量。
而后调用函数 path_walk 接着往下查找,找到最后经过变量 nd 返回的信息是 nd.last.name="dev",nd.last.len=3,nd.last_type=LAST_NORM,至于 nd 中 mnt 和 dentry 成员,在这个场景里仍是前面设置的值,并没有变化。这样一圈下来,只是用 nd 记录下相关信息,实际的目录创建工做并无真正展开,可是前面所作的工做却为接下来创建新的节点收集了必要的信息。
好,到此为止真正创建新目录节点的工做将会展开,这是由函数 lookup_create 来完成的,调用这个函数时会传入两个参数:lookup_create(&nd, 1);其中参数 nd 即是前面提到的变量,参数1代表要创建一个新目录。
这里的大致过程是:新分配了一个 struct dentry 结构的内存空间,用于记录 dev 目录所对应的信息,该dentry 结构将会挂接到其父目录中,也就是图 3 中 "/" 目录对应的 dentry 结构中,由链表实现这一关系。接下来会再分配一个 struct inode 结构。Inode 中的 i_sb 和 dentry 中的 d_sb 分别都指向图 3 中的 sb,这样看来,在同一文件系统下创建新的目录时并不须要从新分配一个超级块结构,由于毕竟它们都属于同一文件系统,所以一个文件系统只对应一个超级块。
这样,当调用 sys_mkdir 成功地在 VFS 的目录树中新创建一个目录 "/dev" 以后,在图 3 的基础上,新的数据结构之间的关系便如图 4 所示。图 4 中颜色较深的两个矩形块 new_inode 和 new_entry 即是在sys_mkdir() 函数中新分配的内存结构,至于图中的 mnt,sb,dentry,inode 等结构,仍为图 3 中相应的数据结构,其相互之间的连接关系不变(图中为避免过多的连接曲线,忽略了一些连接关系,如 mnt 和 sb,dentry之间的连接,读者可在图 3 的基础上参看图 4)。
须要强调一点的是,既然 rootfs 文件系统被 mount 到了 VFS 树上,那么它在 sys_mkdir 的过程当中必然会参与进来,事实上在整个过程当中,rootfs 文件系统中的 ramfs_mkdir、ramfs_lookup 等函数都曾被调用过。
在本节中,将描述在 VFS 的目录树中向其中某个目录(安装点 mount point)上挂载(mount)一个文件系统的过程。
这一过程可简单描述为:将某一设备(dev_name)上某一文件系统(file_system_type)安装到VFS目录树上的某一安装点(dir_name)。它要解决的问题是:将对 VFS 目录树中某一目录的操做转化为具体安装到其上的实际文件系统的对应操做。好比说,若是将 hda2 上的根文件系统(假设文件系统类型为 ext2)安装到了前一节中新创建的 "/dev" 目录上(此时,"/dev" 目录就成为了安装点),那么安装成功以后应达到这样的目的,即:对 VFS 文件系统的 "/dev" 目录执行 "ls" 指令,该条指令应能列出 hda2 上 ext2 文件系统的根目录下全部的目录和文件。很显然,这里的关键是如何将对 VFS 树中 "/dev" 的目录操做指令转化为安装在其上的 ext2 这一实际文件系统中的相应指令。因此,接下来的叙述将抓住如何转化这一核心问题。在叙述以前,读者不妨本身设想一下 Linux 系统会如何解决这一问题。记住:对目录或文件的操做将最终由目录或文件所对应的 inode 结构中的 i_op 和 i_fop 所指向的函数表中对应的函数来执行。因此,无论最终解决方案如何,均可以设想必然要经过将对 "/dev" 目录所对应的 inode 中 i_op 和 i_fop 的调用转换到 hda2 上根文件系统 ext2 中根目录所对应的 inode 中 i_op 和 i_fop 的操做。
初始过程由 sys_mount() 系统调用函数发起,该函数原型声明以下:
asmlinkage long sys_mount(char * dev_name, char * dir_name, char * type, unsigned long flags, void * data);
其中,参数 char *type 为标识将要安装的文件系统类型字符串,对于 ext2 文件系统而言,就是"ext2"。参数 flags 为安装时的模式标识数,和接下来的 data 参数同样,本文不将其作为重点。
为了帮助读者更好地理解这一过程,笔者用一个具体的例子来讲明:咱们准备未来自主硬盘第 2 分区(hda2)上的 ext2 文件系统安装到前面建立的 "/dev" 目录中。那么对于 sys_mount() 函数的调用便具体为:
sys_mount("hda2","/dev ","ext2",…);
该函数在将这些来自用户内存空间(user space)的参数拷贝到内核空间后,便调用 do_mount() 函数开始真正的安装文件系统的工做。一样,为了便于叙述和讲清楚主流程,接下来的说明将不严格按照具体的函数调用细节来进行。
do_mount() 函数会首先调用 path_lookup() 函数来获得安装点的相关信息,如同建立目录过程当中叙述的那样,该安装点的信息最终记录在 struct nameidata 类型的一个变量当中,为叙述方便,记该变量为nd。在本例中当 path_lookup() 函数返回时,nd 中记录的信息以下:nd.entry = new_entry; nd.mnt = mnt; 这里的变量如图 3 和 4 中所示。
而后,do_mount() 函数会根据调用参数 flags 来决定调用如下四个函数之一:do_remount()、 do_loopback()、do_move_mount()、do_add_mount()。
在咱们当前的例子中,系统会调用 do_add_mount() 函数来向 VFS 树中安装点 "/dev " 安装一个实际的文件系统。在 do_add_mount() 中,主要完成了两件重要事情:一是得到一个新的安装区域块,二是将该新的安装区域块加入了安装系统链表。它们分别是调用 do_kern_mount() 函数和 graft_tree() 函数来完成的。这里的描述可能有点抽象,诸如安装区域块、安装系统链表等,不过不用着急,由于它们都是笔者本身定义出来的概念,等一下到后面会有专门的图表解释,到时便会清楚。
do_kern_mount() 函数要作的事情,即是创建一新的安装区域块,具体的内容在前面的章节 VFS 目录树的创建中已经叙述过,这里再也不赘述。
graft_tree() 函数要作的事情即是将 do_kern_mount() 函数返回的一 struct vfsmount 类型的变量加入到安装系统链表中,同时 graft_tree() 还要将新分配的 struct vfsmount 类型的变量加入到一个hash表中,其目的咱们将会在之后看到。
这样,当 do_kern_mount() 函数返回时,在图 4 的基础上,新的数据结构间的关系将如图 5 所示。其中,红圈区域里面的数据结构即是被称作安装区域块的东西,其中不妨称 e2_mnt 为安装区域块的指针,蓝色箭头曲线即构成了所谓的安装系统链表。
在把这些函数调用后造成的数据结构关系理清楚以后,让咱们回到本章节开始提到的问题,即将 ext2 文件系统安装到了 "/dev " 上以后,对该目录上的操做如何转化为对 ext2 文件系统相应的操做。从图 5上看到,对 sys_mount() 函数的调用并无直接改变 "/dev " 目录所对应的 inode (即图中的 new_inode变量)结构中的 i_op 和 i_fop 指针,并且 "/dev " 所对应的 dentry(即图中的 new_dentry 变量)结构仍然在 VFS 的目录树中,并无被从其中隐藏起来,相应地,来自 hda2 上的 ext2 文件系统的根目录所对应的 e2_entry 也不是如当初笔者所想象地那样将 VFS 目录树中的 new_dentry 取而代之,那么这之间的转化究竟是如何实现的呢?
请读者注意下面的这段代码:
while (d_mountpoint(dentry) && __follow_down(&nd->mnt, &dentry));
这段代码在 link_path_walk() 函数中被调用,而 link_path_walk() 最终又会被 path_lookup() 函数调用,若是读者阅读过 Linux 关于文件系统部分的代码,应该知道 path_lookup() 函数在整个 Linux 繁琐的文件系统代码中属于一个重要的基础性的函数。简单说来,这个函数用于解析文件路径名,这里的文件路径名和咱们平时在应用程序中所涉及到的概念相同,好比在 Linux 的应用程序中 open 或 read 一个文件 /home/windfly.cs 时,这里的 /home/windfly.cs 就是文件路径名,path_lookup() 函数的责任就是对文件路径名中进行搜索,直到找到目标文件所属目录所对应的 dentry 或者目标直接就是一个目录,笔者不想在有限的篇幅里详细解释这个函数,读者只要记住 path_lookup() 会返回一个目标目录便可。
上面的代码很是地不起眼,以致于初次阅读文件系统的代码时常常会忽略掉它,可是前文所提到从 VFS 的操做到实际文件系统操做的转化倒是由它完成的,对 VFS 中实现的文件系统的安装可谓功不可没。如今让咱们仔细剖析一下该段代码: d_mountpoint(dentry) 的做用很简单,它只是返回 dentry 中 d_mounted 成员变量的值。这里的dentry 仍然仍是 VFS 目录树上的东西。若是 VFS 目录树上某个目录被安装过一次,那么该值为 1。对VFS 中的一个目录可进行屡次安装,后面会有例子说明这种状况。在咱们的例子中,"/dev" 所对应的new_dentry 中 d_mounted=1,因此 while 循环中第一个条件知足。下面再来看__follow_down(&nd->mnt, &dentry)代
码作了什么?到此咱们应该记住,这里 nd 中的 dentry 成员就是图 5 中的 new_dentry,nd 中的 mnt成员就是图 5 中的 mnt,因此咱们如今能够把 __follow_down(&nd->mnt, &dentry) 改写成__follow_down(&mnt, &new_dentry),接下来咱们将 __follow_down() 函数的代码改写(只是去处掉一些不太相关的代码,而且为了便于说明,在部分代码行前加上了序号)以下:
static inline int __follow_down(struct vfsmount **mnt, struct dentry **dentry) { struct vfsmount *mounted; [1] mounted = lookup_mnt(*mnt, *dentry); if (mounted) { [2] *mnt = mounted; [3] *dentry = mounted->mnt_root; return 1; } return 0; }
代码行[1]中的 lookup_mnt() 函数用于查找一个 VFS 目录树下某一目录最近一次被 mount 时的安装区域块的指针,在本例中最终会返回图 5 中的 e2_mnt。至于查找的原理,这里粗略地描述一下。记得当咱们在安装 ext2 文件系统到 "/dev" 时,在后期会调用 graft_tree() 函数,在这个函数里会把图 5 中的安装区域块指针 e2_mnt 挂到一 hash 表(Linux 2.4.20源代码中称之为 mount_hashtable)中的某一项,而该项的键值就是由被安装点所对应的 dentry(本例中为 new_dentry)和 mount(本例中为 mnt)所共同产生,因此天然地,当咱们知道 VFS 树中某一 dentry 被安装过(该 dentry 变成为一安装点),而要去查找其最近一次被安装的安装区域块指针时,一样由该安装点所对应的 dentry 和 mount 来产生一键值,以此值去索引 mount_hashtable,天然可找到该安装点对应的安装区域块指针造成的链表的头指针,而后遍历该链表,当发现某一安装区域块指针,记为 p,知足如下条件时:
(p->mnt_parent == mnt && p->mnt_mountpoint == dentry)
P 便为该安装点所对应的安装区域块指针。当找到该指针后,便将 nd 中的 mnt 成员换成该安装区域块指针,同时将 nd 中的 dentry 成员换成安装区域块中的 dentry 指针。在咱们的例子中,e2_mnt->mnt_root成员指向 e2_dentry,也就是 ext2 文件系统的 "/" 目录。这样,当 path_lookup() 函数搜索到 "/dev"时,nd 中的 dentry 成员为 e2_dentry,而再也不是原来的 new_dentry,同时 mnt 成员被换成 e2_mnt,转化便在不知不觉中完成了。
如今考虑一下对某一安装点屡次安装的状况,一样做为例子,咱们假设在 "/dev" 上安装完一个 ext2文件系统后,再在其上安装一个 ntfs 文件系统。在安装以前,一样会对安装点所在的路径调用path_lookup() 函数进行搜索,可是此次因为在 "/dev" 目录上已经安装过了 ext2 文件系统,因此搜索到最后,由 nd 返回的信息是:nd.dentry = e2_dentry, nd.mnt = e2_mnt。因而可知,在第二次安装时,安装点已经由 dentry 变成了 e2_dentry。接下来,一样地,系统会再分配一个安装区域块,假设该安装区域块的指针为 ntfs_mnt,区域块中的 dentry 为 ntfs_dentry。ntfs_mnt 的父指针指向了e2_mnt,mnfs_mnt 中的 mnt_root 指向了表明 ntfs 文件系统根目录的 ntfs_dentry。而后,系统经过 e2_dentry和 e2_mnt 来生成一个新的 hash 键值,利用该值做为索引,将 ntfs_mnt 加入到 mount_hashtable 中,同时将 e2_dentry 中的成员 d_mounted 值设定为 1。这样,安装过程便告结束。
读者可能已经知道,对同一安装点上的最近一次安装会隐藏起前面的若干次安装,下面咱们经过上述的例子解释一下该过程:
在前后将 ext2 和 ntfs 文件系统安装到 "/dev" 目录以后,咱们再调用 path_lookup() 函数来对"/dev" 进行搜索,函数首先找到 VFS 目录树下的安装点 "/dev" 所对应的 dentry 和 mnt,此时它发现dentry 成员中的 d_mounted 为 1,因而它知道已经有文件系统安装到了该 dentry 上,因而它经过 dentry 和 mnt 来生成一个 hash 值,经过该值来对 mount_hashtable 进行搜索,根据安装过程,它应该能找到 e2_mnt 指针并返回之,同时原先的 dentry 也已经被替换成 e2_dentry。回头再看一下前面已经提到的下列代码: while (d_mountpoint(dentry) && __follow_down(&nd->mnt, &dentry)); 当第一次循环结束后, nd->mnt 已是 e2_mnt,而 dentry 则变成 e2_dentry。此时因为 e2_dentry 中的成员 d_mounted 值为 1,因此 while 循环的第一个条件知足,要继续调用 __follow_down() 函数,这个函数前面已经剖析过,当它返回后 nd->mnt 变成了 ntfs_mnt,dentry 则变成了 ntfs_dentry。因为此时 ntfs_dentry 没有被安装过其余文件,因此它的成员 d_mounted 应该为 0,循环结束。对 "/dev" 发起的 path_lookup() 函数最终返回了 ntfs 文件系统根目录所对应的 dentry。这就是为何 "/dev" 自己和安装在其上的 ext2 都被隐藏的缘由。若是此时对 "/dev" 目录进行一个 ls 命令,将返回安装上去的 ntfs 文件系统根目录下全部的文件和目录。
有了前面章节 5 的基础,理解 Linux 下根文件系统的安装并不困难,由于无论怎么样,安装一个文件系统到 VFS 中某一安装点的过程原理毕竟都是同样的。
这个过程大体是:首先要肯定待安装的 ext2 文件系统的来源,其次是肯定 ext2 文件系统在 VFS中的安装点,而后即是具体的安装过程。
关于第一问题,Linux 2.4.20 的内核另有一大堆的代码去解决,限于篇幅,笔者不想在这里去具体说明这个过程,大概记住它是要解决到哪里去找要安装的文件系统的就能够了,这里咱们不妨就认为要安装的根文件系统就来自于主硬盘的第一分区 hda1.
关于第二个问题,Linux 2.4.20 的内核把来自于 hda1 上 ext2 文件系统安装到了 VFS 目录树中的"/root" 目录上。其实,把 ext2 文件系统安装到 VFS 目录树下的哪一个安装点并不重要(VFS 的根目录除外),只要是这个安装点在 VFS 树中是存在的,而且内核对它没有另外的用途。若是读者喜欢,尽能够本身在 VFS 中建立一个 "/Windows" 目录,而后将 ext2 文件系统安装上去做为未来用户进程的根目录,没有什么不能够的。问题的关键是要将进程的根目录和当前工做目录设定好,由于毕竟只用用户进程才去关心现实的文件系统,要知道笔者的这篇稿子但是要存到硬盘上去的。
在 Linux 下,设定一个进程的当前工做目录是经过系统调用 sys_chdir() 进行的。初始化期间,Linux 在将 hda1 上的 ext2 文件系统安装到了 "/root" 上后,经过调用 sys_chdir("/root") 将当前进程,也就是 init_task 进程的当前工做目录(pwd)设定为 ext2 文件系统的根目录。记住此时 init_task进程的根目录仍然是图 3 中的 dentry,也就是 VFS 树的根目录,这显然是不行的,由于之后 Linux 世界中的全部进程都由这个 init_task 进程派生出来,无一例外地要继承该进程的根目录,若是是这样,意味着用户进程从根目录搜索某一目录时,其实是从 VFS 的根目录开始的,而事实上倒是从 ext2 的根文件开始搜索的。这个矛盾的解决是靠了在调用完 mount_root() 函数后,系统调用的下面两个函数:
sys_mount(".", "/", NULL, MS_MOVE, NULL); sys_chroot(".");
其主要做用即是将 init_task 进程的根目录转化成安装上去的 ext2 文件系统的根目录。有兴趣的读者能够自行去研究这一过程。
因此在用户空间下,更多地状况是只能见到 VFS 这棵大树的一叶,并且仍是被安装过文件系统了的,实际上对用户空间来讲仍是不可见。我想,VFS 更多地被内核用来实现本身的功能,并以系统调用的方式提供过用户进程使用,至于在其上实现的不一样文件系统的安装,也只是其中的一个功能罢了。
文件系统在整个 Linux 的内核中具备举足轻重的地位,代码量也很复杂繁琐。可是由于其重要的地位,要想对 Linux 的内核有比较深刻的理解,必需要能越过文件系统这一关。固然阅读其源代码即是其中最好的方法,本文试图给那些已经尝试着去阅读,可是目前尚有困惑的读者画一张 VFS 文件系统的草图,但愿能对读者有些许启发。可是想在如此有限的篇幅里去阐述清楚 Linux 中整个文件系统的前因后果,是根本不现实的。并且本文也只是侧重于剖析 VFS 的机制,对于象具体的文件读写,为提升效率而引入的各类 buffer,hash 等内容以及文件系统的安全性方面,都没有提到。毕竟,本文只想帮助读者理清一个大致的脉络,最终的理解与领悟,还得靠读者本身去潜心研究源代码。最后,对本文相关的任何问题或建议,都欢迎用 email 和笔者联系。