SYSCALL_DEFINE0(fork) { #ifdef CONFIG_MMU return do_fork(SIGCHLD, 0, 0, NULL, NULL); #else return -EINVAL; #endif }
SYSCALL_DEFINE0(vfork) { return do_fork(CLONE_VFORK | CLONE_VM | SIGCHLD, 0, 0, NULL, NULL); }
#ifdef __ARCH_WANT_SYS_CLONE #ifdef CONFIG_CLONE_BACKWARDS SYSCALL_DEFINE5(clone, unsigned long, clone_flags, unsigned long, newsp, int __user *, parent_tidptr, int, tls_val, int __user *, child_tidptr) #elif defined(CONFIG_CLONE_BACKWARDS2) SYSCALL_DEFINE5(clone, unsigned long, newsp, unsigned long, clone_flags, int __user *, parent_tidptr, int __user *, child_tidptr, int, tls_val) #elif defined(CONFIG_CLONE_BACKWARDS3) SYSCALL_DEFINE6(clone, unsigned long, clone_flags, unsigned long, newsp, int, stack_size, int __user *, parent_tidptr, int __user *, child_tidptr, int, tls_val) #else SYSCALL_DEFINE5(clone, unsigned long, clone_flags, unsigned long, newsp, int __user *, parent_tidptr, int __user *, child_tidptr, int, tls_val) #endif { return do_fork(clone_flags, newsp, 0, parent_tidptr, child_tidptr); } #endif
经过上面的代码能够看出 fork、vfork 和 clone 三个系统调用均可以建立一个新进程,并且都是经过 do_fork 来建立进程,只不过传递的参数不一样。html
(1)do_forknode
long do_fork(unsigned long clone_flags, unsigned long stack_start, unsigned long stack_size, int __user *parent_tidptr, int __user *child_tidptr)
首先了解一下 do_fork () 的参数:linux
stack_start:子进程用户态堆栈的地址。数组
regs:指向 pt_regs 结构体(当系统发生系统调用时,pt_regs 结构体保存寄存器中的值并按顺序压入内核栈)的指针。缓存
stack_size:用户态栈的大小,一般是没必要要的,总被设置为0。安全
parent_tidptr 和 child_tidptr:父进程、子进程用户态下 pid 地址。数据结构
为方便理解,下述为精简关键代码:dom
struct task_struct *p; //建立进程描述符指针 int trace = 0; long nr; //子进程pid ... p = copy_process(clone_flags, stack_start, stack_size, child_tidptr, NULL, trace); //建立子进程的描述符和执行时所需的其余数据结构 if (!IS_ERR(p)) //若是 copy_process 执行成功 struct completion vfork; //定义完成量(一个执行单元等待另外一个执行单元完成某事) struct pid *pid; ... pid = get_task_pid(p, PIDTYPE_PID); //得到task结构体中的pid nr = pid_vnr(pid); //根据pid结构体中得到进程pid ... // 若是 clone_flags 包含 CLONE_VFORK 标志,就将完成量 vfork 赋值给进程描述符中的vfork_done字段,此处只是对完成量进行初始化 if (clone_flags & CLONE_VFORK) { p->vfork_done = &vfork; init_completion(&vfork); get_task_struct(p); } wake_up_new_task(p); //将子进程添加到调度器的队列,使之有机会得到CPU /* forking complete and child started to run, tell ptracer */ ... // 若是 clone_flags 包含 CLONE_VFORK 标志,就将父进程插入等待队列直至程直到子进程释调用exec函数或退出,此处是具体的阻塞 if (clone_flags & CLONE_VFORK) { if (!wait_for_vfork_done(p, &vfork)) ptrace_event_pid(PTRACE_EVENT_VFORK_DONE, pid); } put_pid(pid); } else { nr = PTR_ERR(p); //错误处理 } return nr; //返回子进程pid(父进程的fork函数返回的值为子进程pid的缘由) }
do_fork()主要完成了调用 copy_process() 复制父进程信息、得到pid、调用 wake_up_new_task 将子进程加入调度器队列,为之分配 CPU、经过 clone_flags 标志作一些辅助工做。其中 copy_process()是建立一个进程内容的主要的代码。函数
(2)copy_processui
static struct task_struct *copy_process(unsigned long clone_flags, unsigned long stack_start, unsigned long stack_size, int __user *child_tidptr, struct pid *pid, int trace) { int retval; struct task_struct *p; ... retval = security_task_create(clone_flags);//安全性检查 ... p = dup_task_struct(current); //复制PCB,为子进程建立内核栈、进程描述符 ftrace_graph_init_task(p); ··· retval = -EAGAIN; // 检查该用户的进程数是否超过限制 if (atomic_read(&p->real_cred->user->processes) >= task_rlimit(p, RLIMIT_NPROC)) { // 检查该用户是否具备相关权限,不必定是root if (p->real_cred->user != INIT_USER && !capable(CAP_SYS_RESOURCE) && !capable(CAP_SYS_ADMIN)) goto bad_fork_free; } ... // 检查进程数量是否超过 max_threads,后者取决于内存的大小 if (nr_threads >= max_threads) goto bad_fork_cleanup_count; if (!try_module_get(task_thread_info(p)->exec_domain->module)) goto bad_fork_cleanup_count; ... spin_lock_init(&p->alloc_lock); //初始化自旋锁 init_sigpending(&p->pending); //初始化挂起信号 posix_cpu_timers_init(p); //初始化CPU定时器 ··· retval = sched_fork(clone_flags, p); //初始化新进程调度程序数据结构,把新进程的状态设置为TASK_RUNNING,并禁止内核抢占 ... // 复制全部的进程信息 shm_init_task(p); retval = copy_semundo(clone_flags, p); ... retval = copy_files(clone_flags, p); ... retval = copy_fs(clone_flags, p); ... retval = copy_sighand(clone_flags, p); ... retval = copy_signal(clone_flags, p); ... retval = copy_mm(clone_flags, p); ... retval = copy_namespaces(clone_flags, p); ... retval = copy_io(clone_flags, p); ... retval = copy_thread(clone_flags, stack_start, stack_size, p);// 初始化子进程内核栈 ... //若传进来的pid指针和全局结构体变量init_struct_pid的地址不相同,就要为子进程分配新的pid if (pid != &init_struct_pid) { retval = -ENOMEM; pid = alloc_pid(p->nsproxy->pid_ns_for_children); if (!pid) goto bad_fork_cleanup_io; } ... p->pid = pid_nr(pid); //根据pid结构体中得到进程pid //若 clone_flags 包含 CLONE_THREAD标志,说明子进程和父进程在同一个线程组 if (clone_flags & CLONE_THREAD) { p->exit_signal = -1; p->group_leader = current->group_leader; //线程组的leader设为子进程的组leader p->tgid = current->tgid; //子进程继承父进程的tgid } else { if (clone_flags & CLONE_PARENT) p->exit_signal = current->group_leader->exit_signal; else p->exit_signal = (clone_flags & CSIGNAL); p->group_leader = p; //子进程的组leader就是它本身 p->tgid = p->pid; //组号tgid是它本身的pid } ... if (likely(p->pid)) { ptrace_init_task(p, (clone_flags & CLONE_PTRACE) || trace); init_task_pid(p, PIDTYPE_PID, pid); if (thread_group_leader(p)) { ... // 将子进程加入它所在组的哈希链表中 attach_pid(p, PIDTYPE_PGID); attach_pid(p, PIDTYPE_SID); __this_cpu_inc(process_counts); } else { ... } attach_pid(p, PIDTYPE_PID); nr_threads++; //增长系统中的进程数目 } ... return p; //返回被建立的子进程描述符指针P ... }
copy_process 主要完成了调用 dup_task_struct 复制当前的 task_struct、信息检查、初始化、把进程状态设置为 TASK_RUNNING、复制全部进程信息、调用 copy_thread 初始化子进程内核栈、设置子进程pid。
(3)dup_task_struct
static struct task_struct *dup_task_struct(struct task_struct *orig) { struct task_struct *tsk; struct thread_info *ti; int node = tsk_fork_get_node(orig); int err; tsk = alloc_task_struct_node(node); //为子进程建立进程描述符 ... ti = alloc_thread_info_node(tsk, node); //其实是建立了两个页,一部分用来存放 thread_info,一部分就是内核堆栈 ... err = arch_dup_task_struct(tsk, orig); //复制父进程的task_struct信息 ... tsk->stack = ti; // 将栈底的值赋给新结点的stack setup_thread_stack(tsk, orig);//对子进程的thread_info结构进行初始化(复制父进程的thread_info 结构,而后将 task 指针指向子进程的进程描述符) ... return tsk; // 返回新建立的进程描述符指针 ... }
(4)copy_thread
dup_task_struct 只是为子进程建立一个内核栈,copy_thread 才真正完成赋值。
int copy_thread(unsigned long clone_flags, unsigned long sp, unsigned long arg, struct task_struct *p) { struct pt_regs *childregs = task_pt_regs(p); struct task_struct *tsk; int err; p->thread.sp = (unsigned long) childregs; p->thread.sp0 = (unsigned long) (childregs+1); memset(p->thread.ptrace_bps, 0, sizeof(p->thread.ptrace_bps)); if (unlikely(p->flags & PF_KTHREAD)) { /* kernel thread */ memset(childregs, 0, sizeof(struct pt_regs)); p->thread.ip = (unsigned long) ret_from_kernel_thread; //若是建立的是内核线程,则从ret_from_kernel_thread开始执行 task_user_gs(p) = __KERNEL_STACK_CANARY; childregs->ds = __USER_DS; childregs->es = __USER_DS; childregs->fs = __KERNEL_PERCPU; childregs->bx = sp; /* function */ childregs->bp = arg; childregs->orig_ax = -1; childregs->cs = __KERNEL_CS | get_kernel_rpl(); childregs->flags = X86_EFLAGS_IF | X86_EFLAGS_FIXED; p->thread.io_bitmap_ptr = NULL; return 0; } *childregs = *current_pt_regs();//复制内核堆栈(复制父进程的寄存器信息,即系统调用SAVE_ALL压栈的那一部份内容) childregs->ax = 0; //子进程的eax置为0,因此fork的子进程返回值为0 ... p->thread.ip = (unsigned long) ret_from_fork;//ip指向 ret_from_fork,子进程今后处开始执行 task_user_gs(p) = get_user_gs(current_pt_regs()); ... return err;
在刚才分析的关键点处分别设置断点:
如今 sys_clone 停下,再在 do_fork 停下,继续单步执行:
继续在 copy_process 停下,在 copy_thread 处停下,在这个地方能够查看 p 的值:
最后 ret_from_fork 跟踪到 syscall_exit 后没法继续。
(1) thread_info 是什么?
经过搜索得知,它被称为小型的进程描述符,内存区域大小是8KB,占据连续的两个页框。该结构经过 task 指针指向进程描述符。内核栈是由高地址到低地址增加,thread_info 结构由低地址到高地址增加。内核经过屏蔽 esp 的低13位有效位得到 thread_info 结构的基地址。内核栈、thread_info结构、进程描述符之间的关系以下图所示(在较新的内核代码中,task_struct 结构中没有直接指向 thread_info 结构的指针,而是用一个 void 指针类型的成员表示,而后经过类型转换来访问 thread_info 结构)。
内核栈和 thread_info 结构是被定义在一个联合体当中,alloc_thread_info_node 分配的实则是一个联合体,即既分配了 thread_info 结构又分配了内核栈。
union thread_union { struct thread_info thread_info; unsigned long stack[THREAD_SIZE/sizeof(long)]; };
咱们想要得到的通常是进程描述符而不是 thread_info,能够用 current 宏获取进程描述符(用task指针找到进程描述符)
static inline struct task_struct * get_current(void) { return current_thread_info()->task; }
(2)do_fork 中,pid = get_task_pid(p, PIDTYPE_PID)
不是就获取了 pid值吗?怎么后面还有一句 nr = pid_vnr(pid)
?
参考Linux 内核进程管理之进程ID,了解到PID命名空间相关知识。
pid结构体:
struct pid { struct hlist_head tasks; //指回 pid_link 的 node int nr; //PID struct hlist_node pid_chain; //pid hash 散列表结点 };
pid_vnr:
pid_t pid_vnr(struct pid*pid) { return pid_nr_ns(pid,current->nsproxy->pid_ns); //current->nsproxy->pid_ns是当前pid_namespace }
得到 pid 实例以后,再根据 pid 中的numbers 数组中 uid 信息,得到局部PID。
pid_t pid_nr_ns(struct pid *pid, struct pid_namespace *ns) { struct upid *upid; pid_t nr = 0; if (pid && ns->level <= pid->level) { upid = &pid->numbers[ns->level]; if (upid->ns == ns) nr = upid->nr; } return nr; }
因为PID命名空间的层次性,父命名空间能看到子命名空间的内容,反之则不能。所以函数中须要确保当前命名空间的level 小于等于产生局部PID的命名空间的level(全局ID:在内核自己和初始命名空间中惟一的ID,在系统启动期间开始的 init 进程即属于该初始命名空间。系统中每一个进程都对应了该命名空间的一个PID,叫全局ID,保证在整个系统中惟一;局部ID:对于属于某个特定的命名空间,它在其命名空间内分配的ID为局部ID,该ID也能够出如今其余的命名空间中)。
time_after(unknown, known) //unknown after known ? true : false; time_before(unknown, known) //unknown before known ? true : false; time_after_eq(unknown, known) //unknown after or eq known ? true : false; time_before_eq(unknown, known) //unknown before or eq known ? true : false;
struct timer_list { struct list_head entry;//定时器链表的入口 unsigned long expires;//基于jiffies的定时值 struct tvec_base *base;//定时器内部值 void (*function)(unsigned long);//定时器处理函数 ... };
定时器处理函数的函数原型:
void my_timer_function(unsigned long data); add_timer(&my_timer); //激活定时器 mod_timer(&my_timer, jiffies + new_dalay); //改变指定定时器的超时时间 //若是定时器未被激活,mod_timer会激活该定时器 //若是调用时定时器未被激活,该函数返回0;不然返回1. del_timer(&my_timer); //在定时器超时前中止定时器 //被激活或未被激活的定时器均可以使用该函数 //若是调用时定时器未被激活,该函数返回0;不然返回1. //不须要为已经超时的定时器调用该函数,由于他们会自动删除
set_current_state(state); //将任务设置为可中断睡眠状态或不可中断睡眠状态 schedule_timeout(s*HZ); //S秒后唤醒,被延迟的任务并将其从新放回运行队列。
ZONE_DMA 3G以后起始的16MB ZONE_NORMAL 16MB~896MB ZONE_HIGHMEM 896MB ~1G
struct page * alloc_pages(unsigned int gfp_mask, unsigned int order)
void * page_address(struct page * page)
unsigned long get_zeroed_page(unsigned int gfp_mask)
void _free_pages(struct page * page, unsigned int order) //释放page结构体指向的连续2的order次方个页面 void free_pages(unsigned long addr, unsigned int order) //释放从地址addr开始的,连续2的order次方个页面 void free_page(unsigned long addr) //释放地址addr的一个页
struct kmem_list3 { struct list_head slabs_partial; //包含空闲对象和已经分配对象的slab描述符 struct list_head slabs_full;//只包含非空闲的slab描述符 struct list_head slabs_free;//只包含空闲的slab描述符 unsigned long free_objects; /*高速缓存中空闲对象的个数*/ unsigned int free_limit; //空闲对象的上限 unsigned int colour_next; /* Per-node cache coloring *//*即将要着色的下一个*/ spinlock_t list_lock; struct array_cache *shared; /* shared per node */ struct array_cache **alien; /* on other nodes */ unsigned long next_reap; /* updated without locking *//**/ int free_touched; /* updated without locking */ };