Read the fucking source code!
--By 鲁迅A picture is worth a thousand words.
--By 高尔基说明:linux
RCU, Read-Copy-Update
,是Linux内核中的一种同步机制。
RCU
常被描述为读写锁的替代品,它的特色是读者并不须要直接与写者进行同步,读者与写者也能并发的执行。RCU
的目标就是最大程度来减小读者侧的开销,所以也经常使用于对读者性能要求高的场景。api
优势:架构
缺点:并发
来一张图片来描述下大致的操做吧:less
rcu_read_lock/rcu_read_unlock
来标定临界区;updater
)在更新临界资源的时候,拷贝一份副本做为基础进行修改,当全部读者离开临界区后,把指向旧临界资源的指针指向更新后的副本,并对旧资源进行回收处理;上述的描述比较简单,RCU的实现很复杂。本文先对RCU来一个初印象,并结合接口进行实例分析,后续文章再逐层深刻到背后的实现原理。开始吧!异步
RCU
的基本思想是将更新Update
操做分为两个部分:1)Removal
移除;2)Reclamation
回收。
直白点来理解就是,临界资源被多个读者读取,写者在拷贝副本修改后进行更新时,第一步须要先把旧的临界资源数据移除(修改指针指向),第二步须要把旧的数据进行回收(好比kfree
)。工具
所以,从功能上分为如下三个基本的要素:Reader/Updater/Reclaimer
,三者之间的交互以下图:性能
Reader测试
rcu_read_lock
和rcu_read_unlock
来界定读者的临界区,访问受RCU
保护的数据时,须要始终在该临界区域内访问;rcu_dereference
来获取RCU-protected
指针;RCU
时,rcu_read_lock/rcu_read_unlock
之间不能使用能够睡眠的代码;Updater.net
rcu_assign_pointer
来移除旧的指针指向,指向更新后的临界资源;synchronize_rcu
或call_rcu
来启动Reclaimer
,对旧的临界资源进行回收,其中synchronize_rcu
表示同步等待回收,call_rcu
表示异步回收;Reclaimer
Grace Period
);用来提供上述描述的功能,RCU
基于三种机制来实现。
Publish-Subscribe Mechanism
订阅机制是个什么概念,来张图:
Updater
与Reader
相似于Publisher
和Subsriber
的关系;Updater
更新内容后调用接口进行发布,Reader
调用接口读取发布内容;那么这种订阅机制,须要作点什么来保证呢?来看一段伪代码:
/* Definiton of global structure */ 1 struct foo { 2 int a; 3 int b; 4 int c; 5 }; 6 struct foo *gp = NULL; 7 8 /* . . . */ 9 /* =========Updater======== */ 10 p = kmalloc(sizeof(*p), GFP_KERNEL); 11 p->a = 1; 12 p->b = 2; 13 p->c = 3; 14 gp = p; 15 16 /* =========Reader======== */ 17 p = gp; 18 if (p != NULL) { 19 do_something_with(p->a, p->b, p->c); 20 }
乍一看彷佛问题不大,Updater进行赋值更新,Reader进行读取和其余处理。然而,因为存在编译乱序和执行乱序的问题,上述代码的执行顺序不见得就是代码的顺序,好比在某些架构(DEC Alpha
)中,读者的操做部分,可能在p赋值以前就操做了do_something_with()
。
为了解决这个问题,Linux提供了rcu_assign_pointer/rcu_dereference
宏来确保执行顺序,Linux内核也基于rcu_assign_pointer/rcu_dereference
宏进行了更高层的封装,好比list
, hlist
,所以,在内核中有三种被RCU保护的场景:1)指针;2)list链表;3)hlist哈希链表。
针对这三种场景,Publish-Subscribe
接口以下表:
Wait For Pre-Existing RCU Readers to Complete
Reclaimer须要对旧的临界资源进行回收,那么问题来了,何时进行呢?所以RCU
须要提供一种机制来确保以前的RCU读者所有都已经完成,也就是退出了rcu_read_lock/rcu_read_unlock
标定的临界区后,才能进行回收处理。
Removal
操做后,调用synchronize_rcu
,标志着更新结束并开始进入回收阶段;synchronize_rcu
调用后,此时可能还有新的读者来读取临界资源(更新后的内容),可是,Grace Period
只等待Pre-Existing
的读者,也就是在图中的Reader-4, Reader-5
。只要这些以前就存在的RCU读者退出临界区后,意味着宽限期的结束,所以就进行回收处理工做了;synchronize_rcu
并非在最后一个Pre-Existing
RCU读者离开临界区后立马就返回,它可能存在一个调度延迟;Maintain Multiple Versions of Recently Updated Objects
从2.2.2节
能够看出,在Updater进行更新后,在Reclaimer进行回收以前,是会存在新旧两个版本的临界资源的,只有在synchronize_rcu
返回后,Reclaimer对旧的临界资源进行回收,最后剩下一个版本。显然,在有多个Updater时,临界资源的版本会更多。
仍是来张图吧,分别以指针和链表为例:
synchronize_rcu
开始为临界点,分别维护不一样版本的临界资源;是时候来一波fucking sample code
了。
synchronize_rcu
同步回收和call_rcu
异步回收两种机制;#include <linux/module.h> #include <linux/init.h> #include <linux/slab.h> #include <linux/kthread.h> #include <linux/rcupdate.h> #include <linux/delay.h> struct foo { int a; int b; int c; struct rcu_head rcu; struct list_head list; }; static struct foo *g_pfoo = NULL; LIST_HEAD(g_rcu_list); struct task_struct *rcu_reader_t; struct task_struct *rcu_updater_t; struct task_struct *rcu_reader_list_t; struct task_struct *rcu_updater_list_t; /* 指针的Reader操做 */ static int rcu_reader(void *data) { struct foo *p = NULL; int cnt = 100; while (cnt--) { msleep(100); rcu_read_lock(); p = rcu_dereference(g_pfoo); pr_info("%s: a = %d, b = %d, c = %d\n", __func__, p->a, p->b, p->c); rcu_read_unlock(); } return 0; } /* 回收处理操做 */ static void rcu_reclaimer(struct rcu_head *rh) { struct foo *p = container_of(rh, struct foo, rcu); pr_info("%s: a = %d, b = %d, c = %d\n", __func__, p->a, p->b, p->c); kfree(p); } /* 指针的Updater操做 */ static int rcu_updater(void *data) { int value = 1; int cnt = 100; while (cnt--) { struct foo *old; struct foo *new = (struct foo *)kzalloc(sizeof(struct foo), GFP_KERNEL); msleep(200); old = g_pfoo; *new = *g_pfoo; new->a = value; new->b = value + 1; new->c = value + 2; rcu_assign_pointer(g_pfoo, new); pr_info("%s: a = %d, b = %d, c = %d\n", __func__, new->a, new->b, new->c); call_rcu(&old->rcu, rcu_reclaimer); value++; } return 0; } /* 链表的Reader操做 */ static int rcu_reader_list(void *data) { struct foo *p = NULL; int cnt = 100; while (cnt--) { msleep(100); rcu_read_lock(); list_for_each_entry_rcu(p, &g_rcu_list, list) { pr_info("%s: a = %d, b = %d, c = %d\n", __func__, p->a, p->b, p->c); } rcu_read_unlock(); } return 0; } /* 链表的Updater操做 */ static int rcu_updater_list(void *data) { int cnt = 100; int value = 1000; while (cnt--) { msleep(100); struct foo *p = list_first_or_null_rcu(&g_rcu_list, struct foo, list); struct foo *q = (struct foo *)kzalloc(sizeof(struct foo), GFP_KERNEL); *q = *p; q->a = value; q->b = value + 1; q->c = value + 2; list_replace_rcu(&p->list, &q->list); pr_info("%s: a = %d, b = %d, c = %d\n", __func__, q->a, q->b, q->c); synchronize_rcu(); kfree(p); value++; } return 0; } /* module初始化 */ static int rcu_test_init(void) { struct foo *p; rcu_reader_t = kthread_run(rcu_reader, NULL, "rcu_reader"); rcu_updater_t = kthread_run(rcu_updater, NULL, "rcu_updater"); rcu_reader_list_t = kthread_run(rcu_reader_list, NULL, "rcu_reader_list"); rcu_updater_list_t = kthread_run(rcu_updater_list, NULL, "rcu_updater_list"); g_pfoo = (struct foo *)kzalloc(sizeof(struct foo), GFP_KERNEL); p = (struct foo *)kzalloc(sizeof(struct foo), GFP_KERNEL); list_add_rcu(&p->list, &g_rcu_list); return 0; } /* module清理工做 */ static void rcu_test_exit(void) { kfree(g_pfoo); kfree(list_first_or_null_rcu(&g_rcu_list, struct foo, list)); kthread_stop(rcu_reader_t); kthread_stop(rcu_updater_t); kthread_stop(rcu_reader_list_t); kthread_stop(rcu_updater_list_t); } module_init(rcu_test_init); module_exit(rcu_test_exit); MODULE_AUTHOR("Loyen"); MODULE_LICENSE("GPL");
为了证实没有骗人,贴出在开发板上运行的输出log,以下图:
下边的这些接口,不能更核心了。
a. rcu_read_lock() //标记读者临界区的开始 b. rcu_read_unlock() //标记读者临界区的结束 c. synchronize_rcu() / call_rcu() //等待Grace period结束后进行资源回收 d. rcu_assign_pointer() //Updater使用这个宏对受RCU保护的指针进行赋值 e. rcu_dereference() //Reader使用这个宏来获取受RCU保护的指针
基于核心的API,扩展了其余相关的API,以下,再也不详述:
RCU list traversal:: list_entry_rcu list_entry_lockless list_first_entry_rcu list_next_rcu list_for_each_entry_rcu list_for_each_entry_continue_rcu list_for_each_entry_from_rcu list_first_or_null_rcu list_next_or_null_rcu hlist_first_rcu hlist_next_rcu hlist_pprev_rcu hlist_for_each_entry_rcu hlist_for_each_entry_rcu_bh hlist_for_each_entry_from_rcu hlist_for_each_entry_continue_rcu hlist_for_each_entry_continue_rcu_bh hlist_nulls_first_rcu hlist_nulls_for_each_entry_rcu hlist_bl_first_rcu hlist_bl_for_each_entry_rcu RCU pointer/list update:: rcu_assign_pointer list_add_rcu list_add_tail_rcu list_del_rcu list_replace_rcu hlist_add_behind_rcu hlist_add_before_rcu hlist_add_head_rcu hlist_add_tail_rcu hlist_del_rcu hlist_del_init_rcu hlist_replace_rcu list_splice_init_rcu list_splice_tail_init_rcu hlist_nulls_del_init_rcu hlist_nulls_del_rcu hlist_nulls_add_head_rcu hlist_bl_add_head_rcu hlist_bl_del_init_rcu hlist_bl_del_rcu hlist_bl_set_first_rcu RCU:: Critical sections Grace period Barrier rcu_read_lock synchronize_net rcu_barrier rcu_read_unlock synchronize_rcu rcu_dereference synchronize_rcu_expedited rcu_read_lock_held call_rcu rcu_dereference_check kfree_rcu rcu_dereference_protected bh:: Critical sections Grace period Barrier rcu_read_lock_bh call_rcu rcu_barrier rcu_read_unlock_bh synchronize_rcu [local_bh_disable] synchronize_rcu_expedited [and friends] rcu_dereference_bh rcu_dereference_bh_check rcu_dereference_bh_protected rcu_read_lock_bh_held sched:: Critical sections Grace period Barrier rcu_read_lock_sched call_rcu rcu_barrier rcu_read_unlock_sched synchronize_rcu [preempt_disable] synchronize_rcu_expedited [and friends] rcu_read_lock_sched_notrace rcu_read_unlock_sched_notrace rcu_dereference_sched rcu_dereference_sched_check rcu_dereference_sched_protected rcu_read_lock_sched_held SRCU:: Critical sections Grace period Barrier srcu_read_lock call_srcu srcu_barrier srcu_read_unlock synchronize_srcu srcu_dereference synchronize_srcu_expedited srcu_dereference_check srcu_read_lock_held SRCU: Initialization/cleanup:: DEFINE_SRCU DEFINE_STATIC_SRCU init_srcu_struct cleanup_srcu_struct All: lockdep-checked RCU-protected pointer access:: rcu_access_pointer rcu_dereference_raw RCU_LOCKDEP_WARN rcu_sleep_check RCU_NONIDLE
好吧,罗列这些API有点然并卵。
RCU这个神秘的面纱算是初步揭开了,再往里边扒衣服的话,就会显得有些难了,毕竟RCU背后的实现机制确实挺困难的。那么,问题来了,要不要作一个扒衣见君者呢,敬请关注吧。
Documentation/RCU
What is RCU, Fundamentally?
What is RCU? Part 2: Usage
RCU part 3: the RCU API
Introduction to RCU
欢迎关注公众号,持续以图文形式分享内核机制文章