反应器(Reactor)和主动器(Proactor)

  网络方面用的比较多的库是libevent和boost.asio,两者都是跨平台的。其中libevent是基于Reactor实现的,而boost.asio是基于Proactor实现的。Reactor和Proactor模式的主要区别就是真正的操作(如读/写)是由谁来完成的,Reactor中需要应用程序自己读取或者写入数据,而在Proactor模式中,应用程序不需要进行实际的读/写过程,操作系统会读取缓冲区或者写入缓冲区到真正的IO设备,应用程序只需要从缓冲区读取(操作系统已经帮我们读好了)或者写入缓冲区(操作系统会帮我们写入)即可。在Proactor模式中,用户发起异步操作之后就返回了,让操作系统去处理请求,然后等着回调到完成事件函数中处理异步操作的结果。

1. 反应器(Reactor)

  Reactor一般是应用程序先注册响应的事件处理器,然后启动Reactor的事件循环,不断的检查是否有就绪的IO事件,当有就绪IO事件发生时,反应器的事件循环就会调用事先注册好的事件处理器。下面代码是libevent的一个简单应用代码及就绪的IO事件发生时的堆栈图,其中就绪IO事件可以使用网络调试助手,连接本机之后即可产生。

#include "stdafx.h"
#include <string.h>
#include <errno.h>
#include <stdio.h>
#include <signal.h>
#ifndef WIN32
#include <netinet/in.h>
# ifdef _XOPEN_SOURCE_EXTENDED
#  include <arpa/inet.h>
# endif
#include <sys/socket.h>
#endif

#include <event2/bufferevent.h>
#include <event2/buffer.h>
#include <event2/listener.h>
#include <event2/util.h>
#include <event2/event.h>

static const char MESSAGE[] = "Hello, World!
";
static const int PORT = 9995;
static void listener_cb(struct evconnlistener *, evutil_socket_t,
    struct sockaddr *, int socklen, void *);
static void conn_writecb(struct bufferevent *, void *);
static void conn_eventcb(struct bufferevent *, short, void *);
static void signal_cb(evutil_socket_t, short, void *);

int
main(int argc, char **argv)
{
    struct event_base *base;
    struct evconnlistener *listener;
    struct event *signal_event;

    struct sockaddr_in sin;
#ifdef WIN32
    WSADATA wsa_data;
    WSAStartup(0x0201, &wsa_data);
#endif

    base = event_base_new();
    if (!base) {
        fprintf(stderr, "Could not initialize libevent!
");
        return 1;
    }

    memset(&sin, 0, sizeof(sin));
    sin.sin_family = AF_INET;
    sin.sin_port = htons(PORT);

    listener = evconnlistener_new_bind(base, listener_cb, (void *)base,
        LEV_OPT_REUSEABLE|LEV_OPT_CLOSE_ON_FREE, -1,
        (struct sockaddr*)&sin,
        sizeof(sin));

    if (!listener) {
        fprintf(stderr, "Could not create a listener!
");
        return 1;
    }

    signal_event = evsignal_new(base, SIGINT, signal_cb, (void *)base);

    if (!signal_event || event_add(signal_event, NULL)<0) {
        fprintf(stderr, "Could not create/add a signal event!
");
        return 1;
    }

    event_base_dispatch(base);

    evconnlistener_free(listener);
    event_free(signal_event);
    event_base_free(base);

    printf("done
");
    return 0;
}

static void
listener_cb(struct evconnlistener *listener, evutil_socket_t fd,
    struct sockaddr *sa, int socklen, void *user_data)
{
    struct event_base *base = (event_base *)user_data;
    struct bufferevent *bev;

    bev = bufferevent_socket_new(base, fd, BEV_OPT_CLOSE_ON_FREE);
    if (!bev) {
        fprintf(stderr, "Error constructing bufferevent!");
        event_base_loopbreak(base);
        return;
    }
    bufferevent_setcb(bev, NULL, conn_writecb, conn_eventcb, NULL);
    bufferevent_enable(bev, EV_WRITE);
    bufferevent_disable(bev, EV_READ);

    bufferevent_write(bev, MESSAGE, strlen(MESSAGE));
}

static void
conn_writecb(struct bufferevent *bev, void *user_data)
{
    struct evbuffer *output = bufferevent_get_output(bev);
    if (evbuffer_get_length(output) == 0) {
        printf("flushed answer
");
        bufferevent_free(bev);
    }
}

static void
conn_eventcb(struct bufferevent *bev, short events, void *user_data)
{
    if (events & BEV_EVENT_EOF) {
        printf("Connection closed.
");
    } else if (events & BEV_EVENT_ERROR) {
        printf("Got an error on the connection: %s
",
            strerror(errno));/*XXX win32*/
    }
    /* None of the other events can happen here, since we haven't enabled
     * timeouts */
    bufferevent_free(bev);
}

static void
signal_cb(evutil_socket_t sig, short events, void *user_data)
{
    struct event_base *base = (event_base *)user_data;
    struct timeval delay = { 2, 0 };

    printf("Caught an interrupt signal; exiting cleanly in two seconds.
");

    event_base_loopexit(base, &delay);
}

   有连接时的堆栈图:

  从堆栈图中可以看出libevent只有一个线程在执行,都是从event_base_dispatch中逐渐回调的。反应器逆置了事件的处理流程,但是可以看出它不能同时支持大量客户请求或者耗时过长的请求,因为它串行化了所有的事件处理流程。

2. 主动器(Proactor)

  (1)Proactor需要调用者定义一个异步执行的操作,例如,socket的异步读/写;

  (2)执行异步操作,异步事件处理器将异步请求交给操作系统就返回了,让操作系统去完成具体的操作,操作系统在完成操作之后,会将完成事件放入一个完成事件队列。

  (3)异步事件分离器会检测完成事件,若检测到完成事件,则从完成队列中取出完成事件,并通知应用程序注册的完成事件处理函数去处理;

  (4)完成事件处理函数处理异步操作的结果。

  下面是一个基于boost::asio的异步服务器:

#include "stdafx.h"
#include <boost/asio.hpp>
#include <boost/bind/placeholders.hpp>
#include <boost/bind/bind.hpp>
#include <boost/system/error_code.hpp>
#include <boost/smart_ptr/enable_shared_from_this.hpp>

using namespace boost::asio;
namespace  
{  
    typedef boost::asio::io_service IoService;
    typedef boost::asio::ip::tcp TCP;

    std::string make_daytime_string()  
    {  
        using namespace std;  
        time_t now = std::time(NULL);  
        return ctime(&now);  
    }  

    class tcp_connection  
        : public boost::enable_shared_from_this<tcp_connection>  
    {  
    public:  
        typedef boost::shared_ptr<tcp_connection> pointer;  

        static pointer create(IoService& io_service)  
        {  
            return pointer(new tcp_connection(io_service));  
        }  

        TCP::socket& socket()  
        {  
            return socket_;  
        }  

        void start()  
        {  
            message_ = make_daytime_string();  

            boost::asio::async_write(  
                socket_,   
                boost::asio::buffer(message_),   
                boost::bind(&tcp_connection::handle_write,   
                shared_from_this(),   
                boost::asio::placeholders::error,   
                boost::asio::placeholders::bytes_transferred));  
        }  
    private:  
        tcp_connection(IoService& io_service)  
            : socket_(io_service)  
        {  
        }  

        void handle_write(const boost::system::error_code& /*error*/,  
            size_t /*bytes_transferred*/)  
        {  
            printf("write data!!!");  
        }  

        TCP::socket socket_;  
        std::string message_;  
    };  

    class tcp_server  
    {  
    public:  
        tcp_server(IoService& io_service)  
            : acceptor_(io_service, TCP::endpoint(TCP::v4(), 10000))  
        {  
            start_accept();  
        }  
    private:  
        void start_accept()  
        {  
            tcp_connection::pointer new_connection =  
                tcp_connection::create(acceptor_.get_io_service());  

            acceptor_.async_accept(  
                new_connection->socket(),   
                boost::bind(&tcp_server::handle_accept,   
                this,   
                new_connection,   
                boost::asio::placeholders::error));  
        }  

        void handle_accept(tcp_connection::pointer new_connection,  
            const boost::system::error_code& error)  
        {  
            if (!error)  
            {  
                new_connection->start();  
                start_accept(); //继续监听,否则io_service将认为没有事件处理而结束运行
            }  
        }  

        TCP::acceptor acceptor_;  
    };  
}  

// tcp_connection与tcp_server封装后  
void test_asio_asynserver()  
{  
    try  
    {  
        IoService io_service;  
        tcp_server server(io_service);  

        // 只有io_service类的run()方法运行之后回调对象才会被调用  
        io_service.run();  
    }  
    catch (std::exception& e)  
    {  
        std::cerr << e.what() << std::endl;  
    }  
}  

int main()
{
    test_asio_asynserver();
    return 0;
}

  有连接时需要写入数据,但是写入数据并不是由用户写入的,而是把需要写入的数据提交给了系统,由系统择机写入,堆栈如下:

  总结两者,可以看出Reactor采用的是同步IO,主动器采用的是异步IO,同步和异步之分可以参考文章( IO - 同步,异步,阻塞,非阻塞 (亡羊补牢篇)),个人认为简单来说,同步IO是发出了请求,不管阻塞还是非阻塞,都需要调用者主动去check调用的结果;而异步IO是由被调用者通知调用者来处理结果。

  参考资料:boost库asio详解8——几个TCP的简单例子

原文地址:https://www.cnblogs.com/jiayayao/p/6158162.html