Netty 是一个异步事件驱动的网络应用程序框架,用于快速开发可维护的高性能协议服务器和客户端。react
给你们推荐一个程序员学习扣群:854818273。群里有分享的视频,还有思惟导图
群公告有视频,都是干货的,你能够下载来看。主要分享分布式架构、高可扩展、高性能、高并发、性能优化、Spring boot、Redis、ActiveMQ、Nginx、Mycat、Netty、Jvm大型分布式项目实战学习架构师视频。程序员
JDK 原生 NIO 程序的问题编程
JDK 原生也有一套网络应用程序 API,可是存在一系列问题,主要以下:设计模式
Netty 的特色缓存
Netty 对 JDK 自带的 NIO 的 API 进行封装,解决上述问题,主要特色有:安全
Netty 常见使用场景性能优化
Netty 常见的使用场景以下:服务器
有兴趣的读者能够了解一下目前有哪些开源项目使用了 Netty:Related Projects。微信
Netty 高性能设计网络
Netty 做为异步事件驱动的网络,高性能之处主要来自于其 I/O 模型和线程处理模型,前者决定如何收发数据,后者决定如何处理数据。
I/O 模型
用什么样的通道将数据发送给对方,BIO、NIO 或者 AIO,I/O 模型在很大程度上决定了框架的性能。
阻塞 I/O
传统阻塞型 I/O(BIO)能够用下图表示:
特色以下:
I/O 复用模型
在 I/O 复用模型中,会用到 Select,这个函数也会使进程阻塞,可是和阻塞 I/O 所不一样的是这两个函数能够同时阻塞多个 I/O 操做。
并且能够同时对多个读操做,多个写操做的 I/O 函数进行检测,直到有数据可读或可写时,才真正调用 I/O 操做函数。
Netty 的非阻塞 I/O 的实现关键是基于 I/O 复用模型,这里用 Selector 对象表示:
Netty 的 IO 线程 NioEventLoop 因为聚合了多路复用器 Selector,能够同时并发处理成百上千个客户端链接。
当线程从某客户端 Socket 通道进行读写数据时,若没有数据可用时,该线程能够进行其余任务。
线程一般将非阻塞 IO 的空闲时间用于在其余通道上执行 IO 操做,因此单独的线程能够管理多个输入和输出通道。
因为读写操做都是非阻塞的,这就能够充分提高 IO 线程的运行效率,避免因为频繁 I/O 阻塞致使的线程挂起。
一个 I/O 线程能够并发处理 N 个客户端链接和读写操做,这从根本上解决了传统同步阻塞 I/O 一链接一线程模型,架构的性能、弹性伸缩能力和可靠性都获得了极大的提高。
基于 Buffer
传统的 I/O 是面向字节流或字符流的,以流式的方式顺序地从一个 Stream 中读取一个或多个字节, 所以也就不能随意改变读取指针的位置。
在 NIO 中,抛弃了传统的 I/O 流,而是引入了 Channel 和 Buffer 的概念。在 NIO 中,只能从 Channel 中读取数据到 Buffer 中或将数据从 Buffer 中写入到 Channel。
基于 Buffer 操做不像传统 IO 的顺序操做,NIO 中能够随意地读取任意位置的数据。
线程模型
数据报如何读取?读取以后的编解码在哪一个线程进行,编解码后的消息如何派发,线程模型的不一样,对性能的影响也很是大。
事件驱动模型
一般,咱们设计一个事件处理模型的程序有两种思路:
以 GUI 的逻辑处理为例,说明两种逻辑的不一样:
这里借用 O'Reilly 大神关于事件驱动模型解释图:
主要包括 4 个基本组件:
能够看出,相对传统轮询模式,事件驱动有以下优势:
Reactor 线程模型
Reactor 是反应堆的意思,Reactor 模型是指经过一个或多个输入同时传递给服务处理器的服务请求的事件驱动处理模式。
服务端程序处理传入多路请求,并将它们同步分派给请求对应的处理线程,Reactor 模式也叫 Dispatcher 模式,即 I/O 多了复用统一监听事件,收到事件后分发(Dispatch 给某进程),是编写高性能网络服务器的必备技术之一。
Reactor 模型中有 2 个关键组成:
取决于 Reactor 的数量和 Hanndler 线程数量的不一样,Reactor 模型有 3 个变种:
能够这样理解,Reactor 就是一个执行 while (true) { selector.select(); …} 循环的线程,会源源不断的产生新的事件,称做反应堆很贴切。
篇幅关系,这里再也不具体展开 Reactor 特性、优缺点比较,有兴趣的读者能够参考我以前另一篇文章:《理解高性能网络模型》。
Netty 线程模型
Netty 主要基于主从 Reactors 多线程模型(以下图)作了必定的修改,其中主从 Reactor 多线程模型有多个 Reactor:
这里引用 Doug Lee 大神的 Reactor 介绍:Scalable IO in Java 里面关于主从 Reactor 多线程模型的图:
特别说明的是:虽然 Netty 的线程模型基于主从 Reactor 多线程,借用了 MainReactor 和 SubReactor 的结构。可是实际实现上 SubReactor 和 Worker 线程在同一个线程池中:
上面代码中的 bossGroup 和 workerGroup 是 Bootstrap 构造方法中传入的两个对象,这两个 group 均是线程池:
给你们推荐一个程序员学习扣群:854818273。群里有分享的视频,还有思惟导图
群公告有视频,都是干货的,你能够下载来看。主要分享分布式架构、高可扩展、高性能、高并发、性能优化、Spring boot、Redis、ActiveMQ、Nginx、Mycat、Netty、Jvm大型分布式项目实战学习架构师视频。
异步处理
异步的概念和同步相对。当一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者。
Netty 中的 I/O 操做是异步的,包括 Bind、Write、Connect 等操做会简单的返回一个 ChannelFuture。
调用者并不能马上得到结果,而是经过 Future-Listener 机制,用户能够方便的主动获取或者经过通知机制得到 IO 操做结果。
当 Future 对象刚刚建立时,处于非完成状态,调用者能够经过返回的 ChannelFuture 来获取操做执行的状态,注册监听函数来执行完成后的操做。
常见有以下操做:
例以下面的代码中绑定端口是异步操做,当绑定操做处理完,将会调用相应的监听器处理逻辑。
Netty 架构设计
前面介绍完 Netty 相关一些理论,下面从功能特性、模块组件、运做过程来介绍 Netty 的架构设计。
功能特性
Netty 功能特性以下:
模块组件
Bootstrap、ServerBootstrap
Bootstrap 意思是引导,一个 Netty 应用一般由一个 Bootstrap 开始,主要做用是配置整个 Netty 程序,串联各个组件,Netty 中 Bootstrap 类是客户端程序的启动引导类,ServerBootstrap 是服务端启动引导类。
Future、ChannelFuture
正如前面介绍,在 Netty 中全部的 IO 操做都是异步的,不能马上得知消息是否被正确处理。
可是能够过一会等它执行完成或者直接注册一个监听,具体的实现就是经过 Future 和 ChannelFutures,他们能够注册一个监听,当操做执行成功或失败时监听会自动触发注册的监听事件。
Channel
Netty 网络通讯的组件,可以用于执行网络 I/O 操做。Channel 为用户提供:
不一样协议、不一样的阻塞类型的链接都有不一样的 Channel 类型与之对应。下面是一些经常使用的 Channel 类型:
Selector
Netty 基于 Selector 对象实现 I/O 多路复用,经过 Selector 一个线程能够监听多个链接的 Channel 事件。
当向一个 Selector 中注册 Channel 后,Selector 内部的机制就能够自动不断地查询(Select) 这些注册的 Channel 是否有已就绪的 I/O 事件(例如可读,可写,网络链接完成等),这样程序就能够很简单地使用一个线程高效地管理多个 Channel 。
NioEventLoop
NioEventLoop 中维护了一个线程和任务队列,支持异步提交执行任务,线程启动时会调用 NioEventLoop 的 run 方法,执行 I/O 任务和非 I/O 任务:
两种任务的执行时间比由变量 ioRatio 控制,默认为 50,则表示容许非 IO 任务执行的时间与 IO 任务的执行时间相等。
NioEventLoopGroup
NioEventLoopGroup,主要管理 eventLoop 的生命周期,能够理解为一个线程池,内部维护了一组线程,每一个线程(NioEventLoop)负责处理多个 Channel 上的事件,而一个 Channel 只对应于一个线程。
ChannelHandler
ChannelHandler 是一个接口,处理 I/O 事件或拦截 I/O 操做,并将其转发到其 ChannelPipeline(业务处理链)中的下一个处理程序。
ChannelHandler 自己并无提供不少方法,由于这个接口有许多的方法须要实现,方便使用期间,能够继承它的子类:
或者使用如下适配器类:
ChannelHandlerContext
保存 Channel 相关的全部上下文信息,同时关联一个 ChannelHandler 对象。
ChannelPipline
保存 ChannelHandler 的 List,用于处理或拦截 Channel 的入站事件和出站操做。
ChannelPipeline 实现了一种高级形式的拦截过滤器模式,使用户能够彻底控制事件的处理方式,以及 Channel 中各个的 ChannelHandler 如何相互交互。
下图引用 Netty 的 Javadoc 4.1 中 ChannelPipeline 的说明,描述了 ChannelPipeline 中 ChannelHandler 一般如何处理 I/O 事件。
I/O 事件由 ChannelInboundHandler 或 ChannelOutboundHandler 处理,并经过调用 ChannelHandlerContext 中定义的事件传播方法。
例如 ChannelHandlerContext.fireChannelRead(Object)和 ChannelOutboundInvoker.write(Object)转发到其最近的处理程序。
给你们推荐一个程序员学习扣群:854818273。群里有分享的视频,还有思惟导图
群公告有视频,都是干货的,你能够下载来看。主要分享分布式架构、高可扩展、高性能、高并发、性能优化、Spring boot、Redis、ActiveMQ、Nginx、Mycat、Netty、Jvm大型分布式项目实战学习架构师视频。
入站事件由自下而上方向的入站处理程序处理,如图左侧所示。入站 Handler 处理程序一般处理由图底部的 I/O 线程生成的入站数据。
一般经过实际输入操做(例如 SocketChannel.read(ByteBuffer))从远程读取入站数据。
出站事件由上下方向处理,如图右侧所示。出站 Handler 处理程序一般会生成或转换出站传输,例如 write 请求。
I/O 线程一般执行实际的输出操做,例如 SocketChannel.write(ByteBuffer)。
在 Netty 中每一个 Channel 都有且仅有一个 ChannelPipeline 与之对应,它们的组成关系以下:
一个 Channel 包含了一个 ChannelPipeline,而 ChannelPipeline 中又维护了一个由 ChannelHandlerContext 组成的双向链表,而且每一个 ChannelHandlerContext 中又关联着一个 ChannelHandler。
入站事件和出站事件在一个双向链表中,入站事件会从链表 head 日后传递到最后一个入站的 handler,出站事件会从链表 tail 往前传递到最前一个出站的 handler,两种类型的 handler 互不干扰。
Netty 工做原理架构
基本过程以下:
结合上面介绍的 Netty Reactor 模型,介绍服务端 Netty 的工做架构图:
Server 端包含 1 个 Boss NioEventLoopGroup 和 1 个 Worker NioEventLoopGroup。
NioEventLoopGroup 至关于 1 个事件循环组,这个组里包含多个事件循环 NioEventLoop,每一个 NioEventLoop 包含 1 个 Selector 和 1 个事件循环线程。
每一个 Boss NioEventLoop 循环执行的任务包含 3 步:
每一个 Worker NioEventLoop 循环执行的任务包含 3 步:
其中任务队列中的 Task 有 3 种典型使用场景。
①用户程序自定义的普通任务
②非当前 Reactor 线程调用 Channel 的各类方法
例如在推送系统的业务线程里面,根据用户的标识,找到对应的 Channel 引用,而后调用 Write 类方法向该用户推送消息,就会进入到这种场景。最终的 Write 会提交到任务队列中后被异步消费。
③用户自定义定时任务
总结
如今稳定推荐使用的主流版本仍是 Netty4,Netty5 中使用了 ForkJoinPool,增长了代码的复杂度,可是对性能的改善却不明显,因此这个版本不推荐使用,官网也没有提供下载连接。
Netty 入门门槛相对较高,是由于这方面的资料较少,并非由于它有多难,你们其实均可以像搞透 Spring 同样搞透 Netty。
在学习以前,建议先理解透整个框架原理结构,运行过程,能够少走不少弯路。