在这个充斥着云的时代,咱们使用的软件能够说99%都是C/S架构的!html
C/S架构的软件带来的一个明显的好处就是:只要有网络,你能够在任何地方干同一件事。java
例如:你在家里使用Office365编写了文档。到了公司,只要打开编辑地址就能够看到在家里编写的文档,进行展现或者继续编辑。甚至在手机上进行阅读与编辑。再也不须要U盘拷来拷去了。react
C/S架构能够抽象为以下模型:git
C/S架构之因此可以流行的一个主要缘由就是网速的提升以及费用的下降,特别是无线网络速度的提升。试想在2G时代,你们最多就是看看文字网页,小说什么的。看图片,那简直就是奢侈!更别说看视频了!github
网速的提升,使得愈来愈多的人使用网络,例如:优酷,微信都是上亿用户量,更别说天猫双11的瞬间访问量了!这就对服务器有很高的要求!可以快速处理海量的用户请求!那服务器如何能快速的处理用户的请求呢?编程
高性能服务器至少要知足以下几个需求:浏览器
而知足如上需求的一个基础就是高性能的IO!安全
不管你是发邮件,浏览网页,仍是看视频~实际底层都是使用的TCP/IP,而TCP/IP的编程抽象就是Socket!服务器
我一直对Socket的中文翻译很困惑,我的以为是我所接触的技术名词翻译里最莫名其妙的,没有之一!微信
Socket中文翻译为"套接字"!什么鬼?在很长的时间里我都没法将其和网络编程关联上!后来专门找了一些资料,最后在知乎上找到了一个还算满意的答案(具体连接,请见文末的参考资料连接)!
Socket的原意是插口,想表达的意思是插口与插槽的关系!"send socket"插到"receive socket"里,创建了连接,而后就能够通讯了!
套接字的翻译,应该是参考了套接管(以下图)!从这个层面上来看,是有那么点意思!
套接字这个翻译已是标准了,不纠结这个了!
咱们看一下Socket之间创建连接及通讯的过程!实际上就是对TCP/IP链接与通讯过程的抽象:
对于IO来讲,咱们听得比较多的是:
以及其组合:
那么什么是阻塞IO、非阻塞IO、同步IO、异步IO呢?
举个不太恰当的例子 :好比你家网络断了,你打电话去中国电信报修!
本文只讨论BIO和NIO,AIO使用度没有前二者普及,暂不讨论!
下面从代码层面看看BIO与NIO的流程!
//Bind,Connect Socket client = new Socket("127.0.0.1",7777); //读写 PrintWriter pw = new PrintWriter(client.getOutputStream()); BufferedReader br= new BufferedReader(new InputStreamReader(System.in)); pw.write(br.readLine()); //Close pw.close(); br.close();
Socket socket; //Bind,Listen ServerSocket ss = new ServerSocket(7777); while (true) { //Accept socket = ss.accept(); //通常新建一个线程执行读写 BufferedReader br = new BufferedReader( new InputStreamReader(socket .getInputStream())); System.out.println("you input is : " + br.readLine()); }
模型图以下所示:
优缺点很明显。这里主要说下缺点:主要瓶颈在线程上。每一个链接都会创建一个线程。虽然线程消耗比进程小,可是一台机器实际上能创建的有效线程有限,以Java来讲,1.5之后,一个线程大体消耗1M内存!且随着线程数量的增长,CPU切换线程上下文的消耗也随之增长,在高过某个阀值后,继续增长线程,性能不增反降!而一样由于一个链接就新建一个线程,因此编码模型很简单!
就性能瓶颈这一点,就肯定了BIO并不适合进行高性能服务器的开发!像Tomcat这样的Web服务器,从7开始就从BIO改为了NIO,来提升服务器性能!
//获取socket通道 SocketChannel channel = SocketChannel.open(); channel.configureBlocking(false); //得到通道管理器 selector=Selector.open(); channel.connect(new InetSocketAddress(serverIp, port)); //为该通道注册SelectionKey.OP_CONNECT事件 channel.register(selector, SelectionKey.OP_CONNECT);
while(true){ //选择注册过的io操做的事件(第一次为SelectionKey.OP_CONNECT) selector.select(); while(SelectionKey key : selector.selectedKeys()){ if(key.isConnectable()){ SocketChannel channel=(SocketChannel)key.channel(); if(channel.isConnectionPending()){ channel.finishConnect();//若是正在链接,则完成链接 } channel.register(selector, SelectionKey.OP_READ); }else if(key.isReadable()){ //有可读数据事件。 SocketChannel channel = (SocketChannel)key.channel(); ByteBuffer buffer = ByteBuffer.allocate(10); channel.read(buffer); byte[] data = buffer.array(); String message = new String(data); System.out.println("recevie message from server:, size:" + buffer.position() + " msg: " + message); } } }
//获取一个ServerSocket通道 ServerSocketChannel serverChannel = ServerSocketChannel.open(); serverChannel.configureBlocking(false); serverChannel.socket().bind(new InetSocketAddress(port)); //获取通道管理器 selector = Selector.open(); //将通道管理器与通道绑定,并为该通道注册SelectionKey.OP_ACCEPT事件, serverChannel.register(selector, SelectionKey.OP_ACCEPT);
while(true){ //当有注册的事件到达时,方法返回,不然阻塞。 selector.select(); for(SelectionKey key : selector.selectedKeys()){ if(key.isAcceptable()){ ServerSocketChannel server = (ServerSocketChannel)key.channel(); SocketChannel channel = server.accept(); channel.write(ByteBuffer.wrap( new String("send message to client").getBytes())); //在与客户端链接成功后,为客户端通道注册SelectionKey.OP_READ事件。 channel.register(selector, SelectionKey.OP_READ); }else if(key.isReadable()){//有可读数据事件 SocketChannel channel = (SocketChannel)key.channel(); ByteBuffer buffer = ByteBuffer.allocate(10); int read = channel.read(buffer); byte[] data = buffer.array(); String message = new String(data); System.out.println("receive message from client, size:" + buffer.position() + " msg: " + message); } } }
NIO模型示例以下:
NIO的优缺点和BIO就彻底相反了!性能高,不用一个链接就建一个线程,能够一个线程处理全部的链接!相应的,编码就复杂不少,从上面的代码就能够明显体会到了。还有一个问题,因为是非阻塞的,应用没法知道何时消息读完了,就存在了半包问题!
简单看一下下面的图就能理解半包问题了!
咱们知道TCP/IP在发送消息的时候,可能会拆包(如上图1)!这就致使接收端没法知道何时收到的数据是一个完整的数据。例如:发送端分别发送了ABC,DEF,GHI三条信息,发送时被拆成了AB,CDRFG,H,I这四个包进行发送,接受端如何将其进行还原呢?在BIO模型中,当读不到数据后会阻塞,而NIO中不会!因此须要自行进行处理!例如,以换行符做为判断依据,或者定长消息发生,或者自定义协议!
NIO虽然性能高,可是编码复杂,且须要处理半包问题!为了方便的进行NIO开发,就有了Reactor模型!
Reactor模型和AWT事件模型很像,就是将消息放到了一个队列中,经过异步线程池对其进行消费!
对应上面的NIO代码来看:
Reactor从线程池和Reactor的选择上能够细分为以下几种:
这个模型和上面的NIO流程很相似,只是将消息相关处理独立到了Handler中去了!
虽然上面说到NIO一个线程就能够支持全部的IO处理。可是瓶颈也是显而易见的!咱们看一个客户端的状况,若是这个客户端屡次进行请求,若是在Handler中的处理速度较慢,那么后续的客户端请求都会被积压,致使响应变慢!因此引入了Reactor多线程模型!
Reactor多线程模型就是将Handler中的IO操做和非IO操做分开,操做IO的线程称为IO线程,非IO操做的线程称为工做线程!这样的话,客户端的请求会直接被丢到线程池中,客户端发送请求就不会堵塞!
可是当用户进一步增长的时候,Reactor会出现瓶颈!由于Reactor既要处理IO操做请求,又要响应链接请求!为了分担Reactor的负担,因此引入了主从Reactor模型!
主Reactor用于响应链接请求,从Reactor用于处理IO操做请求!
Netty是一个高性能NIO框架,其是对Reactor模型的一个实现!
EventLoopGroup workerGroup = new NioEventLoopGroup(); try { Bootstrap b = new Bootstrap(); b.group(workerGroup); b.channel(NioSocketChannel.class); b.option(ChannelOption.SO_KEEPALIVE, true); b.handler(new ChannelInitializer<SocketChannel>() { @Override public void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new TimeClientHandler()); } }); ChannelFuture f = b.connect(host, port).sync(); f.channel().closeFuture().sync(); } finally { workerGroup.shutdownGracefully(); }
public class TimeClientHandler extends ChannelInboundHandlerAdapter { @Override public void channelRead(ChannelHandlerContext ctx, Object msg) { ByteBuf m = (ByteBuf) msg; try { long currentTimeMillis = (m.readUnsignedInt() - 2208988800L) * 1000L; System.out.println(new Date(currentTimeMillis)); ctx.close(); } finally { m.release(); } } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) { cause.printStackTrace(); ctx.close(); } }
EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); try { ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer<SocketChannel>() { @Override public void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new TimeServerHandler()); } }) .option(ChannelOption.SO_BACKLOG, 128) .childOption(ChannelOption.SO_KEEPALIVE, true); // Bind and start to accept incoming connections. ChannelFuture f = b.bind(port).sync(); f.channel().closeFuture().sync(); } finally { workerGroup.shutdownGracefully(); bossGroup.shutdownGracefully(); }
public class TimeServerHandler extends ChannelInboundHandlerAdapter { @Override public void channelActive(final ChannelHandlerContext ctx) { final ByteBuf time = ctx.alloc().buffer(4); time.writeInt((int) (System.currentTimeMillis() / 1000L + 2208988800L)); final ChannelFuture f = ctx.writeAndFlush(time); f.addListener(new ChannelFutureListener() { @Override public void operationComplete(ChannelFuture future) { assert f == future; ctx.close(); } }); } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) { cause.printStackTrace(); ctx.close(); } }
咱们从Netty服务器代码来看,与Reactor模型进行对应!
具体Netty内容,请访问Netty官网!
Netty开发中一个很明显的问题就是回调,一是打破了线性编码习惯,
二就是Callback Hell!
看下面这个例子:
a.doing1(); //1 a.doing2(); //2 a.doing3(); //3
1,2,3处代码若是是同步的,那么将按顺序执行!可是若是不是同步的呢?我仍是但愿2在1以后执行,3在2以后执行!怎么办呢?想一想AJAX!咱们须要写相似以下这样的代码!
a.doing1(new Callback(){ public void callback(){ a.doing2(new Callback(){ public void callback(){ a.doing3(); } }) } });
那有没有办法解决这个问题呢?其实不难,实现一个相似Future的功能!当Client获取结果时,进行阻塞,当获得结果后再继续往下走!实现方案,一个就是使用锁了,还有一个就是使用RingBuffer。经测试,使用RingBuffer比使用锁TPS有2000左右的提升!