因为工做的关系,须要定位一个 bug 是否和 Thrift 有关, 因此用了一下午的时间研读了 Thrift-0.9.0 代码,虽然发现这个 bug 和 thrift 无关。 可是读源码仍是有所收获,因此整理成这篇文章,不过不太适合 Thrift 刚入门的人。html
如下内容基于 thrift-0.9.0 。c++
Thrift 几乎支持全部的语言。在此针对 Thrift 的 C++ lib 来说。
也就是基于根目录 thrift-0.9.0/lib/cpp/src/thrift
apache
Thrift 最核心的几个模块目录以下(按自底向上排序):编程
Transport服务器
实际上是网络通讯,如今都是基于 TCP/IP
, 而 TCP/IP
协议栈由 socket
来实现,也就是如今的网络通讯服务器, 最底层都是经过 socket
的, Thrift 也不例外, 而在 Thrift 源码中,则是经过将 socket
包装成各类 Transport
来使用。 对应的源码目录就是 thrift-0.9.0/lib/cpp/src/thrift/transport 。 大部分和网络数据通讯相关的代码都是放在这个目录之下。网络
Protocol数据结构
Thrift 支持各类语言 ,是经过一个 x.thrift
的描述文件来通讯。 thrift 描述文件是各类语言通用的, 可是须要经过 thrift 的代码生成器(好比 c++
对应的是 thrift --gen cpp x.thrift
)来生成对应的源代码。多线程
那为何不一样的代码能够直接互相调用接口函数呢, 其实就是由于制定了同一套协议, 就像 HTTP
协议, 你根本不须要知道实现 HTTP
服务器的是什么语言编写的, 只须要遵照 HTTP
标注来调用便可。并发
因此其实 protocol
就是 transport
的上一层。 transport
负责数据传输, 可是要使得程序知道传输的数据具体是什么, 还得靠 protocol
这个组件来对数据进行解析, 解析成对应的结构代码,供程序直接调用。框架
Processor
经过 transport
和 protocol
这两层以后, 程序已经能够得到对应的数据结构,可是数据结构须要被使用才有价值。 在 Thrift 里面,就是被 processor
,好比咱们定义了一个描述文件叫 foo.thrift
内容以下:
service Foo { string GetName() }
经过 thrift --gen cpp foo.thrift
以后就会生成 gen-cpp
目录下面一堆代码。 里面最关键的两个文件就是 Foo.h
和 Foo.cpp
。 里面和 processor 相关的类是 :
class FooProcessor : public ::apache::thrift::TDispatchProcessor { protected: boost::shared_ptr<FooIf> iface_; virtual bool dispatchCall(::apache::thrift::protocol::TProtocol* iprot, ::apache::thrift::protocol::TProtocol* oprot, const std::string& fname, int32_t seqid, void* callContext); private: typedef void (FooProcessor::*ProcessFunction)(int32_t, ::apache::thrift::protocol::TProtocol*, ::apache::thrift::protocol::TProtocol*, void*); typedef std::map<std::string, ProcessFunction> ProcessMap; ProcessMap processMap_; void process_GetName(int32_t seqid, ::apache::thrift::protocol::TProtocol* iprot, ::apache::thrift::protocol::TProtocol* oprot, void* callContext); public: FooProcessor(boost::shared_ptr<FooIf> iface) : iface_(iface) { processMap_["GetName"] = &FooProcessor::process_GetName; } virtual ~FooProcessor() {} };
能够看出该 processor 继承自 TDispatchProcessor
。
注意到如下几点:
1. dispatchCall
这个函数是个虚函数,而看 TDispatchProcessor
源码就能够明白, 这个函数是被供 TDispatchProcessor
类中的虚函数 process
来调用的。 这里是用了多态是进行动态调用的。 这样的用法其实很常见,由于所需用到的场景很是多, 你在父类,也就是 TDispatchProcessor
这个类中暴漏给外界的接口是 process
, 而具体的实现须要在不一样子类里面进行不一样的实现, 因此定义出 dispatchCall
这个纯虚函数 强制子类实现之。 而父类在 process
函数中适当的调用 dispatchCall
便可。
2.
typedef std::map<std::string, ProcessFunction> ProcessMap; ProcessMap processMap_; ... processMap_["GetName"] = &FooProcessor::process_GetName;
注意到以上三行代码是颇有意思的点发, 由于咱们在 foo.thrift
文件里面定义了一个函数叫 GetName
, 而在FooProcessor
里面的函数定义是process_GetName
, 其中使用了一个 map<string, ProcessFunction>
将他们对应起来。
其实这就是反射
,可让外界经过字符串类型的函数名来指明调用的函数。 从而实现函数的动态调用。 可是这样的反射其实很是低效,由于每次 map.find
须要对比字符串的大小。 能够说这也注定 Thrift
不打算成为一个高性能的 RPC 服务器框架。
到此为止能够大概猜出来每次 RPC 调用的过程是:
不过接下来才是重头戏: server 模块。
Server
众所周知,当前最流程的两种高性能服务器编程范式是 多线程
和 异步调用
。 这里展开讲又是很大的一个话题。这里简单的说一下: 根据高并发编程闻名已久的那篇文章 c10k
所倡导的来讲, 多线程当并发数高的时候,内存会成为并发数的瓶颈, 而异步编程而没有相关的困扰,是是解决高并发服务的最佳实践。 (注意这里说的是解决高并发的最佳实践) 我我的的观点是异步编程是把双刃剑。 它确实对高并发服务很友好,特别是对于IO密集型的服务。 可是对于业务逻辑的开发并不友好。 好比 Nginx
是将 异步IO 使用得登峰造极的做品, 而 Node.js
则由于异步常常把业务逻辑弄得支离破碎。
这二者 Thrift 都有对应的 server 类供开发人员使用。
在 Thrift 中,有如下四种 server :
TSimpleServer.cpp
TThreadedServer.cpp
TThreadPoolServer.cpp
TNonblockingServer.cpp
第一种 TSimpleServer
最简单,就是单线程服务器,没什么可说的。
多线程服务器
第二种和第三种都是 多线程
模型。 这二者的不一样点只是在于前者是每一个链接进来会新建一个线程去接受该链接。 直到对应的链接被关闭,该线程才会被销毁。 服务的线程数和链接数相等,有多少个链接就有多少个线程。 然后者是链接池的形式,在系统启动的时候就设定好线程数的大小,好比线程数设置为32 。 每次新的链接过来的时候,就向线程池 申请 一个线程来处理该链接。 直到该链接被释放,该线程才会被回收到线程池。 若是线程池被申请到空时,下一次申请则会阻塞, 阻塞直到线程池非空(也就是有线程被回收时)。
这二者各有利弊,前者的缺点主要是当链接数过大的时候, 会把内存撑爆,这就是以前 C10K
说的并发数太大内存不够用的状况。 后者的缺点则是当线程池的线程被用完时,下一次的链接请求则会失败(阻塞住)。 因此当使用 TThreadPoolServer
的时候,若是发现客户端链接失败了, 十有八九都是由于线程池的线程供不该求了。 总之,开发者能够针对不一样的场景选用不一样的服务模型。
TThreadedServer
说说源码细节:
TThreadedServer
有一个成员变量叫 serverTransport_
,做为服务器的主 transport (其实就是主 socket) 。 监听端口【listen】,和接受请求【accept】 。 这里须要注意的是,这里的 serverTransport_
实际上是个非阻塞 socket 。 非阻塞的过程是借助了 poll
(不是 epoll
),来实现,将 serverTransport_
在 poll
里面注册,不过呢,注册的时候设置了 timeout
时间。 在 thrift-0.9.0 里面的超时时间是 3 seconds 。 也就是能够理解为其实每次 serverTransport_->accept()
函数退出时不必定是接受到请求了。 也有多是超时时间到了。 具体能够看 thrift-0.9.0/lib/cpp/src/thrift/transport/TServerSocket.cpp 文件里 360行的函数 TServerSocket::acceptImpl()
的实现过程。 因此在 TThreadedServer
的实现里面, 须要用 while(_stop)
轮询进行 serverTransport_->accept()
的调用。 这个轮询在没有任何链接请求的时候,每次循环一次的间隔是 3s, 也就是以前设置的 超时时间。
而当链接进来的时候,serverTransport_->accept()
就会当即返回接受到的新 client 。
而后接下来的过程就是 Task 上场了。 Task 就是将 transport
, protocol
, processor
包装起来而已。 就像上文说的,整个调用的过程从底层往高层就是以此调用 transport
, protocol
, processor
来处理请求的。 因此直接使用包装它们的 Task,将 Task 绑定到一个线程并启动该线程, 再把 Task 插入任务集合中便可。 注意到,以前的 while(_stop)
轮询退出时,会检测该任务集合, 若是任务集合不为空,则会阻塞直到任务集合为空,TThreadedServer
的 server
函数才会退出。 细节请看 thrift-0.9.0/lib/cpp/src/thrift/server/TThreadedServer.cpp 第40行的 class TThreadedServer::Task: public Runnable 函数实现。
当链接进来的时候,会新建一个 Task 扔进任务队列。 当链接断开的时候,该 Task 对应的线程会执行完毕,在退出以前会从任务队列中删除该任务。 可是当客户端迟迟不主动断开链接呢? 答案是线程就会迟迟不退出,任务队列就会一直保持非空状态。 缘由在 Task 的 run 函数里面,会循环调用 thrift-0.9.0/lib/cpp/src/thrift/server/TThreadedServer.cpp 71行 里面的 peek() 函数,这个 peek() 函数是阻塞型函数。 功能是窥探客户端是否有新的函数调用请求,若是没有, 则阻塞等待直到客户端发送函数调用请求。
TThreadPoolServer
按照上文理解了 ThreadedServer 以后,ThreadPoolServer 就没什么好说的了。 基本上就是【同理可得】。
非阻塞型服务器
第四种 TNonblockingServer
就是传说中的 异步服务器模型(非阻塞服务器模型)。 在 Thrift 中使用该模型须要依赖 libevent
。 这个比较复杂,之后有时间再单独写一篇解析吧。(补充:Thrift异步IO服务器源码分析)