NIO系列1:框架拆解

最近一年用NIO写了不少网络程序,也研究了一些开源NIO网络框架netty、mina等,总结了一下NIO的架构特点。

无论是netty还是mina它们都在java原生NIO的基础上进行了完善的封装,虽然细节有所不同,但总体架构思路一致,都大概划分出了以下几个组成部分:

- - transport:传输层的抽象

- - protocol: 协议codec的抽象

- - event model:统一事件模型

- - buffer:底层buffer封装

在完全屏蔽底层API的同时,对上层应用提供了自身的统一API接口。

框架进行黑盒封装的同时,再进行通用化的接口开放,带来的好处是统一化,但坏处是程序的透明度降低,抽象度提高,增加理解难度和实现难度。

下面说说每个部分的一些设计考量:

transport传输层抽象都是对java原生NIO API的封装,在这一层封装的程度在于框架的实现目标。例如mina立足于通用的网络框架,因此完全屏蔽了原生的API,提供了自身的统一接口,因为它不仅需要封装NIO的API还有一系列其他类型的IO操作的API,提供统一API接口。为了通用兼顾各类传输通道因此可能不得不暴露多余的API接口,使用方需甄别传输通道的不同,增加了理解难度。

protocol封装各类常用协议的codec操作,但目前这些网络框架的codec实现都与自身的API紧密绑定,降低了可重用性。

event model 事件模型的设计通常不能完全独立,例如java NIO本身的模型是事件驱动的,但传统阻塞型IO并非事件驱动,要兼顾二者通常要付出额外的代价和开销。

有一种说法是让异步IO同步化使用(因为同步化使用更简单,异步导致了业务处理的碎片化)到底对不对值得商榷?模型阻抗导致的代价和开销屏蔽在了黑盒中,也容易误导应用程序员对本该采用同步化处理的业务却滥用了异步化机制,并不会带来什么好处。

buffer 通常都用来配合底层IO数据流和协议codec使用,本身是否适合暴露给应用方取决于框架是否整合codec,因为codec本身带有业务性质,而纯粹的IO数据流处理使用的buffer则完全无需暴露给应用方。

以上简单说了下NIO框架各部分的设计考量,可以看出目前流行的NIO框架(netty和mina)都在走一条类似“瑞士军刀”的路线,集各种功能与一身(多种IO封装、协议封装),但你又很难把瑞士军刀上的某个刀片拆下来单独使用。

在实践中感觉,考虑从单一性、简洁性、重用性、组合性、透明性几个方面去设计原子化的IO组件也许更可取,更像是一种“工具箱”路线。

典型的事件驱动模型NIO框架组件交互图如下:

Acceptor:  负责监听连接事件负责接入

Processor:负责IO读写事件处理

EventDispatcher:负责事件派发

Handler:业务处理器

后面将通过一个系列文章来讨论一个原子化的NIO组件实现的细节及设计考量。

 

NIO系列2:TCP监听绑定

分类: 踏莎行·术

注:本文适合对象需对java NIO API的使用及异步事件模型(Reactor模式)有一定程度的了解,主要讲述使用java原生NIO实现一个TCP监听绑定的过程及细节设计。

我们一开始设计了一个TCP接入服务类,这个类提供了一个API方法提供对本地一系列地址(端口)的监听绑定,类初始化后完成Selector的open操作如下:

[java] view plaincopy
 
  1. selector = Selector.open();  

提供的绑定API,其方法签名如下:

[java] view plaincopy
 
  1. /** 
  2.  * Binds to the specified local addresses and start to accept incoming connections. If any address binding failed then 
  3.  * rollback the already binding addresses. Bind is fail fast, if encounter the first bind exception then throw it immediately. 
  4.  *  
  5.  * @param firstLocalAddress 
  6.  * @param otherLocalAddresses 
  7.  * @throws throw if bind failed. 
  8.  */  
  9. synchronized public void bind(SocketAddress firstLocalAddress, SocketAddress... otherLocalAddresses) throws IOException;  

为何需要同步?因为我们不希望多个线程同时调用该方法,导致地址绑定异常。

参数中可以传递多个本地地址(端口)同时进行监听绑定。

在NIO的绑定过程中需进行事件注册(对OP_ACCEPT感兴趣),如下:

[java] view plaincopy
 
  1. ServerSocketChannel ssc = ServerSocketChannel.open();  
  2. ssc.configureBlocking(false);  
  3. ServerSocket ss = ssc.socket();  
  4. ss.setReuseAddress(config.isReuseAddress());  
  5. ss.bind(address, config.getBacklog());  
  6. ssc.register(selector, SelectionKey.OP_ACCEPT);  

由于注册过程中除了涉及锁竞争还可能产生死锁,所以一般的做法都是将绑定地址放在队列中进行异步注册由reactor线程进行处理,例如:

[java] view plaincopy
 
  1. bindAddresses.addAll(localAddresses);  
  2. if (!bindAddresses.isEmpty()) {  
  3.     synchronized (lock) {  
  4.         // wake up for unblocking the select() to process binding addresses  
  5.         selector.wakeup();  
  6.   
  7.         // wait for bind result  
  8.         wait0();  
  9.     }  
  10. }  

从同步注册变为异步注册后就存在一个问题,实际注册绑定时可能存在端口已绑定的异常,在异步情况下就需要线程间通信来通知异常消息,并向调用方反馈。

如上面代码片段中的wait0()方法就是等待绑定结果,若出现绑定异常则抛出

[java] view plaincopy
 
  1. private void wait0() throws IOException {  
  2. while (!this.endFlag) {  
  3.     try {  
  4.         lock.wait();  
  5.     } catch (InterruptedException e) {  
  6.         throw new IOException(e);  
  7.     }  
  8. }  
  9.   
  10. // reset end flag  
  11. this.endFlag = false;  
  12.   
  13. if (this.exception != null) {  
  14.     IOException e = exception;  
  15.     this.exception = null;  
  16.     throw e;  
  17. }  

以上代码也说明了,NIO异步模型转化为同步API导致的模型阻抗付出了额外的代价和开销 --- 线程间通信。 至此,完成了TCP服务监听过程,下文将进一步讲述服务接入和数据传输相关设计细节。
 

NIO系列3:TCP服务接入

分类: 踏莎行·术

注:本文适合对象需对java NIO API的使用及异步事件模型(Reactor模式)有一定程度的了解,主要讲述使用java原生NIO实现一个TCP服务的过程及细节设计。

前文讲述了NIO TCP服务绑定过程的实现机制,现在可以开始讲述服务监听启动后如何和处理接入和数据传输相关的细节设计。

在NIO的接入类中有一个Reactor线程,用于处理OP_ACCEPT事件通知,如下:

[java] view plaincopy
 
  1. private class AcceptThread extends Thread {  
  2. public void run() {  
  3.     while (selectable) {  
  4.         try {  
  5.             int selected = selector.select();  
  6.               
  7.             if (selected > 0) {  
  8.                 accept();  
  9.             }  
  10.               
  11.             // bind addresses to listen  
  12.             bind0();  
  13.               
  14.             // unbind canceled addresses  
  15.             unbind0();  
  16.         } catch (Exception e) {  
  17.             LOG.error("Unexpected exception caught while accept", e);  
  18.         }  
  19.     }  
  20.       
  21.     // if selectable == false, shutdown the acceptor  
  22.     try {  
  23.         shutdown0();  
  24.     } catch (Exception e) {  
  25.         LOG.error("Unexpected exception caught while shutdown", e);  
  26.     }  
  27. }  
当有客户端接入时selector.select()方法返回大于0的整数,并进入accept()方法进行处理,具体如下:
[java] view plaincopy
 
  1.  private void accept() {  
  2.     Iterator<SelectionKey> it = selector.selectedKeys().iterator();  
  3.     while (it.hasNext()) {  
  4.         SelectionKey key = it.next();  
  5.         it.remove();  
  6.         AbstractSession session = (AbstractSession) acceptByProtocol(key);  
  7.         Processor processor = pool.get(session);  
  8.         session.setProcessor(processor);  
  9.         processor.add(session);  
  10.     }  
  11. }  
[java] view plaincopy
 
  1.  protected Session acceptByProtocol(SelectionKey key) {  
  2.     if (key == null || !key.isValid() || !key.isAcceptable()) {  
  3.            <span style="white-space:pre">       </span>return null;  
  4.        <span style="white-space:pre">   </span>}  
  5.       
  6.     ServerSocketChannel ssc = (ServerSocketChannel) key.channel();  
  7.     SocketChannel sc = null;  
  8.     try {  
  9.         sc = ssc.accept();  
  10.         if(sc == null) {  
  11.             return null;  
  12.         }  
  13.         sc.configureBlocking(false);  
  14.     } catch (IOException e) {  
  15.         LOG.warn(e.getMessage(), e);  
  16.         if(sc != null) {  
  17.             try {  
  18.                 sc.close();  
  19.             } catch (IOException ex) {  
  20.                 LOG.warn(ex.getMessage(), ex);  
  21.             }  
  22.         }  
  23.     }  
  24.       
  25.     Session session = new TcpSession(sc, config);  
  26.       
  27.     return session;  
  28. }  

为每一个接入的客户端通过调用NIO原生accept()方法返回一个SocketChannel的抽象,并封装成一个session对象(session的概念来自mina框架)

注意:此时与客户连接的通道尚未注册对读/写事件感兴趣,因为它的注册与前文绑定过程一样需要异步进行。

因此将封装通道的session转交给一个processor对象(io读写处理器,该概念也是来自mina),processor内部维持了一个新建session的队列,在其内部reactor线程循环中进行注册处理。

有关processor处理读写事件的细节设计见下文。

 

NIO系列4:TCP服务数据读写

分类: 踏莎行·术

注:本文适合对象需对java NIO API的使用及异步事件模型(Reactor模式)有一定程度的了解,主要讲述使用java原生NIO实现一个TCP服务的过程及细节设计。

上文讲到当客户端完成与服务端的连接建立后,为其SocketChannel封装了一个session对象代表这个连接,并交给processor处理。

processor的内部有3个重要的队列,分别存放新创建的session、需要写数据的session和准备关闭的session,如下:

[java] view plaincopy
 
  1. /** A Session queue containing the newly created sessions */  
  2. private final Queue<AbstractSession> newSessions = new ConcurrentLinkedQueue<AbstractSession>();  
  3.   
  4. /** A queue used to store the sessions to be flushed */  
  5. private final Queue<AbstractSession> flushingSessions = new ConcurrentLinkedQueue<AbstractSession>();  
  6.   
  7. /** A queue used to store the sessions to be closed */  
  8. private final Queue<AbstractSession> closingSessions = new ConcurrentLinkedQueue<AbstractSession>();  

在processor的reactor循环处理线程中,每轮循环的处理包括如下步骤:

1. selector.select(),其中为了处理连接超时的情况,select方法中传递了超时参数以免其永久阻塞,通常是1秒。该方法即时在没有事件发生时每秒返回一次,进入循环检测超时

[java] view plaincopy
 
  1. int selected = selector.select(SELECT_TIMEOUT);  

2. 从select返回后,首先检查newSessions队列是否有新的session加入,并为其注册监听事件(读事件监听)。session只有在注册完事件后,我们才认为其状态为open并派发打开事件。(关于session状态,有创建、打开、关闭中、已关闭几种)
[java] view plaincopy
 
  1. for (AbstractSession session = newSessions.poll(); session != null; session = newSessions.poll()) {  
  2.     SelectableChannel sc = session.getChannel();  
  3.     SelectionKey key = sc.register(selector, SelectionKey.OP_READ, session);  
  4.     session.setSelectionKey(key);  
  5.       
  6.     // set session state open, so we can read / write  
  7.     session.setOpened();  
  8.       
  9.     // fire session opened event  
  10.     eventDispatcher.dispatch(new Event(EventType.SESSION_OPENED, session, null, handler));  
  11.       
  12.     n++;  
  13. }  

3. 有读/写事件时,进行相关处理,每次读写事件发生时更新一次最后的IO时间。

[java] view plaincopy
 
  1. // set last IO time  
  2. session.setLastIoTime(System.currentTimeMillis());  
  3.   
  4. // Process reads  
  5. if (session.isOpened() && isReadable(session)) {  
  6.     read(session);  
  7. }  
  8.   
  9. // Process writes  
  10. if (session.isOpened() && isWritable(session)) {  
  11.     asyWrite(session);  
  12. }  

读取数据时有一个小技巧在于灵活自适应buffer分配(来自mina的一个实现策略),每次判断读取到的字节数若乘以2依然小于buffer大小,则收缩buffer为原来一半,若读取的字节数已装满buffer则扩大一倍。

[java] view plaincopy
 
  1. int readBytes = 0;  
  2. int ret;  
  3. while ((ret = ((SocketChannel) session.getChannel()).read(buf)) > 0) {  
  4.     readBytes += ret;  
  5.     if (!buf.hasRemaining()) {  
  6.         break;  
  7.     }  
  8. }  
  9.   
  10. if (readBytes > 0) {  
  11.     if ((readBytes << 1) < session.getReadBufferSize()) {  
  12.         shrinkReadBufferSize(session);  
  13.     } else if (readBytes == session.getReadBufferSize()) {  
  14.         extendReadBufferSize(session);  
  15.     }  
  16.       
  17.     fireMessageReceived(session, buf, readBytes);  
  18. }  
  19.   
  20. // read end-of-stream, remote peer may close channel so close session.  
  21. if (ret < 0) {  
  22.     asyClose(session);  
  23. }  

处理写操作其实是异步的,总是放入flushSessions中等待写出。

[java] view plaincopy
 
  1. private void asyWrite(AbstractSession session) {  
  2. // Add session to flushing queue, soon after it will be flushed in the same select loop.  
  3. flushingSessions.add(session);  

4. 若有需要写数据的session,则进行flush操作。

写事件一般默认都是不去关注的,因为在TCP缓冲区可写或远端断开或IO错误发生时都会触发该事件,容易诱发服务端忙循环从而CPU100%问题。为了保证读写公平,写buffer的大小设置为读buffer的1.5倍(来自mina的实现策略),每次写数据前设置为对写事件不再感兴趣。限制每次写出数据大小的原因除了避免读写不公平,也避免某些连接有大量数据需要写出时一次占用了过多的网络带宽而其他连接的数据写出被延迟从而影响了公平性。

[java] view plaincopy
 
  1. // First set not be interested to write event  
  2. etInterestedInWrite(session, false);  

首先向TCP缓冲区写出数据(NIO的原生API操作都是不阻塞的)
[java] view plaincopy
 
  1. int qota = maxWrittenBytes - writtenBytes;  
  2. int localWrittenBytes = write(session, buf, qota);  

写完后根据返回的写出数据字节数,可能存在以下多种情况:

- - buffer一次写完,则派发消息已经发送事件

[java] view plaincopy
 
  1. // The buffer is all flushed, remove it from write queue  
  2.     if (!buf.hasRemaining()) {  
  3.         if (LOG.isDebugEnabled()) {  
  4.             LOG.debug("The buffer is all flushed, remove it from write queue");  
  5.         }  
  6.           
  7.         writeQueue.remove();  
  8.           
  9.         // fire message sent event  
  10.         eventDispatcher.dispatch(new Event(EventType.MESSAGE_SENT, session, buf.array(), handler));  
  11.     }  

- - 若返回的写入字节数为0,可能是TCP缓存buffer已满,则注册对写事件感兴趣,稍待下次再写。
[java] view plaincopy
 
  1. // 0 byte be written, maybe kernel buffer is full so we re-interest in writing and later flush it.  
  2. if (localWrittenBytes == 0) {  
  3.     if (LOG.isDebugEnabled()) {  
  4.         LOG.debug("0 byte be written, maybe kernel buffer is full so we re-interest in writing and later flush it");  
  5.     }  
  6.       
  7.     setInterestedInWrite(session, true);  
  8.     flushingSessions.add(session);  
  9.     return;  
  10. }  

- - 若一次写入没有写完buffer中的数据,依然注册对写事件感兴趣,稍待下次再写。
[java] view plaincopy
 
  1. // The buffer isn't empty(bytes to flush more than max bytes), we re-interest in writing and later flush it.  
  2.     if (localWrittenBytes > 0 && buf.hasRemaining()) {  
  3.         if (LOG.isDebugEnabled()) {  
  4.             LOG.debug("The buffer isn't empty(bytes to flush more than max bytes), we re-interest in writing and later flush it");  
  5.         }  
  6.           
  7.         setInterestedInWrite(session, true);  
  8.         flushingSessions.add(session);  
  9.         return;  
  10.     }  

- - 一次写入数据太多时,为了保证公平性,依然下次再写入
[java] view plaincopy
 
  1. // Wrote too much, so we re-interest in writing and later flush other bytes.  
  2. if (writtenBytes >= maxWrittenBytes && buf.hasRemaining()) {  
  3.     if (LOG.isDebugEnabled()) {  
  4.         LOG.debug("Wrote too much, so we re-interest in writing and later flush other bytes");  
  5.     }  
  6.       
  7.     setInterestedInWrite(session, true);  
  8.     flushingSessions.add(session);  
  9.     return;  
  10. }  

5. 有需要关闭的session,则进行关闭操作。引发关闭session的操作可能来自应用方主动关闭,也可能是由于IO异常后自动关闭。由于关闭session可能存在多线程调用,为了避免锁同步,我们通过状态检测来规避用锁机制提高效率。

关闭session的操作具体来说就是对channel.close()和key.cancel(),这2个操作后其实还没有完全释放socket占用的文件描述符,需等到下次select()操作后,一些NIO框架会主动调用,由于我们这里select(TIMEOUT)带有超时参数会自动唤醒,因此不存在这个问题。

[java] view plaincopy
 
  1. private int close() throws IOException {  
  2.     int n = 0;  
  3.     for (AbstractSession session = closingSessions.poll(); session != null; session = closingSessions.poll()) {  
  4.         if (LOG.isDebugEnabled()) { LOG.debug("Closing session: " + session); }  
  5.           
  6.         if (session.isClosed()) {  
  7.             if (LOG.isDebugEnabled()) { LOG.debug("Escape close session, it has been closed: " + session); }  
  8.             continue;  
  9.         }  
  10.           
  11.         session.setClosing();  
  12.           
  13.         close(session);  
  14.         n++;  
  15.           
  16.         session.setClosed();  
  17.           
  18.         // fire session closed event  
  19.         eventDispatcher.dispatch(new Event(EventType.SESSION_CLOSED, session, null, handler));  
  20.           
  21.         if (LOG.isDebugEnabled()) { LOG.debug("Closed session: " + session); }  
  22.     }  
  23.     return n;  
 

NIO系列5:事件模型

分类: 踏莎行·术

前文讲述了NIO数据读写处理,那么这些数据最终如何被递交给上层业务程序进行处理的呢?

NIO框架一般都采用了事件派发模型来与业务处理器交互,它与原生NIO的事件机制是模型匹配的,缺点是带来了业务处理的碎片化。需要业务程序开发者对事件的生命周期有一个清晰的了解,不像传统方式那么直观。

事件派发器(EventDispatcher)就成为了NIO框架中IO处理线程和业务处理回调接口(Handler)之间的桥梁。

由于业务处理的时间长短是难以确定的,所以一般事件处理器都会分离IO处理线程,使用新的业务处理线程池来进行事件派发,回调业务接口实现。

下面通过一段示例代码来说明事件的派发过程:

这是processor从网络中读取到一段字节后发起的MESSAGE_RECEIVED事件,调用了eventDispatcher.dispatch(Event e)方法。

[java] view plaincopy
 
  1. private void fireMessageReceived(AbstractSession session, ByteBuffer buf, int length) {  
  2.         // fire message received event, here we copy buffer bytes to a new byte array to avoid handler expose <code>ByteBuffer</code> to end user.  
  3.         byte[] barr = new byte[length];  
  4.         System.arraycopy(buf.array(), 0, barr, 0, length);  
  5.         eventDispatcher.dispatch(new Event(EventType.MESSAGE_RECEIVED, session, barr, handler));  
  6.     }  

dispatch的方法实现有以下关键点需要考虑:

1. 事件派发是多线程的,派发线程最终会调用业务回调接口来进行事件处理,回调接口由业务方实现自身去保证线程并发性和安全性。

2. 对于TCP应用来说,由同一session(这里可代表同一个连接)收到的数据必须保证有序派发,不同的session可无序。

3. 不同session的事件派发要尽可能保证公平性,例如:session1有大量事件产生导致派发线程繁忙时,session2产生一个事件不会因为派发线程都在忙于处理session1的事件而被积压,session2的事件也能尽快得到及时派发。

下面是一个实现思路的代码示例:

 

[java] view plaincopy
 
  1. public void dispatch(Event event) {  
  2.         AbstractSession s = (AbstractSession) event.getSession();  
  3.         s.add(event);  
  4.         if (!s.isEventProcessing()) {  
  5.             squeue.offer(s);  
  6.         }  
  7.     }  

为了保证每个session的事件有序,我们将事件存放在每个session自身包含的队列中,然后再将session放入一个公共的阻塞队列中。

有一组worker线程在监听阻塞队列,一旦有session进入队列,它们被激活对session进行事件派发,如下:

 

[java] view plaincopy
 
  1. public void run() {  
  2.             try {  
  3.                 for (AbstractSession s = squeue.take(); s != null; s = squeue.take()) {                   
  4.                     // first check any worker is processing this session? if any other worker thread is processing this event with same session, just ignore it.  
  5.                     synchronized (s) {  
  6.                         if (!s.isEventProcessing()) {  
  7.                             s.setEventProcessing(true);  
  8.                         } else {  
  9.                             continue;  
  10.                         }  
  11.                     }  
  12.                       
  13.                     // fire events with same session  
  14.                     fire(s);  
  15.                       
  16.                     // last reset processing flag and quit current thread processing  
  17.                     s.setEventProcessing(false);  
  18.                       
  19.                     // if remaining events, so re-insert to session queue  
  20.                     if (s.getEventQueue().size() > 0 && !s.isEventProcessing()) {  
  21.                         squeue.offer(s);  
  22.                     }  
  23.                 }  
  24.             } catch (InterruptedException e) {  
  25.                 LOG.warn(e.getMessage(), e);  
  26.             }  
  27.         }  

这里的要点在于,worker不止一个,但为了保证每个session的事件有序我们只能让唯一一个线程对session进行处理,因此可以看到上面的代码中一开始对session进行了加锁,并改变了session的状态(置为事件处理中)。

退出临界区后,进入事件派发处理方法fire(),在fire()方法退出前其他线程都没有机会对该session进行处理,保证了同一时刻只有一个线程进行处理的约束。

如果某个session一直不断有数据进入,则派发线程可能在fire()方法中停留很长时间,具体看fire()的实现如下:

 

[java] view plaincopy
 
  1. private void fire(Session s) {  
  2.             int count = 0;  
  3.             Queue<Event> q = s.getEventQueue();  
  4.             for (Event event = q.poll(); event != null; event = q.poll()) {  
  5.                 event.fire();  
  6.                 count++;  
  7.                 if (count > SPIN_COUNT) {  
  8.                     // quit loop to avoid stick same worker thread by same session  
  9.                     break;  
  10.                 }  
  11.             }  
  12.         }  

从上面代码可以看出,每次fire()的循环数被设置了一个上限,若事件太多时每次达到上限会退出循环释放线程,等下一次再处理。

当前线程释放对session的控制权只需简单置事件处理状态为false,其他线程就有机会重新获取该session的控制权。

在最后退出前为了避免事件遗漏,因为可能当前线程因为处理事件达到上限数被退出循环而又没有新的事件进入阻塞队列触发新的线程激活,则由当前线程主动去重新将该session放入阻塞队列中激活新线程。

原文地址:https://www.cnblogs.com/wnlja/p/4368754.html