zoukankan      html  css  js  c++  java
  • 反应器(Reactor)和主动器(Proactor)

      网络方面用的比较多的库是libevent和boost.asio,两者都是跨平台的。其中libevent是基于Reactor实现的,而boost.asio是基于Proactor实现的。Reactor和Proactor模式的主要区别就是真正的操作(如读/写)是由谁来完成的,Reactor中需要应用程序自己读取或者写入数据,而在Proactor模式中,应用程序不需要进行实际的读/写过程,操作系统会读取缓冲区或者写入缓冲区到真正的IO设备,应用程序只需要从缓冲区读取(操作系统已经帮我们读好了)或者写入缓冲区(操作系统会帮我们写入)即可。在Proactor模式中,用户发起异步操作之后就返回了,让操作系统去处理请求,然后等着回调到完成事件函数中处理异步操作的结果。

    1. 反应器(Reactor)

      Reactor一般是应用程序先注册响应的事件处理器,然后启动Reactor的事件循环,不断的检查是否有就绪的IO事件,当有就绪IO事件发生时,反应器的事件循环就会调用事先注册好的事件处理器。下面代码是libevent的一个简单应用代码及就绪的IO事件发生时的堆栈图,其中就绪IO事件可以使用网络调试助手,连接本机之后即可产生。

    #include "stdafx.h"
    #include <string.h>
    #include <errno.h>
    #include <stdio.h>
    #include <signal.h>
    #ifndef WIN32
    #include <netinet/in.h>
    # ifdef _XOPEN_SOURCE_EXTENDED
    #  include <arpa/inet.h>
    # endif
    #include <sys/socket.h>
    #endif
    
    #include <event2/bufferevent.h>
    #include <event2/buffer.h>
    #include <event2/listener.h>
    #include <event2/util.h>
    #include <event2/event.h>
    
    static const char MESSAGE[] = "Hello, World!
    ";
    static const int PORT = 9995;
    static void listener_cb(struct evconnlistener *, evutil_socket_t,
        struct sockaddr *, int socklen, void *);
    static void conn_writecb(struct bufferevent *, void *);
    static void conn_eventcb(struct bufferevent *, short, void *);
    static void signal_cb(evutil_socket_t, short, void *);
    
    int
    main(int argc, char **argv)
    {
        struct event_base *base;
        struct evconnlistener *listener;
        struct event *signal_event;
    
        struct sockaddr_in sin;
    #ifdef WIN32
        WSADATA wsa_data;
        WSAStartup(0x0201, &wsa_data);
    #endif
    
        base = event_base_new();
        if (!base) {
            fprintf(stderr, "Could not initialize libevent!
    ");
            return 1;
        }
    
        memset(&sin, 0, sizeof(sin));
        sin.sin_family = AF_INET;
        sin.sin_port = htons(PORT);
    
        listener = evconnlistener_new_bind(base, listener_cb, (void *)base,
            LEV_OPT_REUSEABLE|LEV_OPT_CLOSE_ON_FREE, -1,
            (struct sockaddr*)&sin,
            sizeof(sin));
    
        if (!listener) {
            fprintf(stderr, "Could not create a listener!
    ");
            return 1;
        }
    
        signal_event = evsignal_new(base, SIGINT, signal_cb, (void *)base);
    
        if (!signal_event || event_add(signal_event, NULL)<0) {
            fprintf(stderr, "Could not create/add a signal event!
    ");
            return 1;
        }
    
        event_base_dispatch(base);
    
        evconnlistener_free(listener);
        event_free(signal_event);
        event_base_free(base);
    
        printf("done
    ");
        return 0;
    }
    
    static void
    listener_cb(struct evconnlistener *listener, evutil_socket_t fd,
        struct sockaddr *sa, int socklen, void *user_data)
    {
        struct event_base *base = (event_base *)user_data;
        struct bufferevent *bev;
    
        bev = bufferevent_socket_new(base, fd, BEV_OPT_CLOSE_ON_FREE);
        if (!bev) {
            fprintf(stderr, "Error constructing bufferevent!");
            event_base_loopbreak(base);
            return;
        }
        bufferevent_setcb(bev, NULL, conn_writecb, conn_eventcb, NULL);
        bufferevent_enable(bev, EV_WRITE);
        bufferevent_disable(bev, EV_READ);
    
        bufferevent_write(bev, MESSAGE, strlen(MESSAGE));
    }
    
    static void
    conn_writecb(struct bufferevent *bev, void *user_data)
    {
        struct evbuffer *output = bufferevent_get_output(bev);
        if (evbuffer_get_length(output) == 0) {
            printf("flushed answer
    ");
            bufferevent_free(bev);
        }
    }
    
    static void
    conn_eventcb(struct bufferevent *bev, short events, void *user_data)
    {
        if (events & BEV_EVENT_EOF) {
            printf("Connection closed.
    ");
        } else if (events & BEV_EVENT_ERROR) {
            printf("Got an error on the connection: %s
    ",
                strerror(errno));/*XXX win32*/
        }
        /* None of the other events can happen here, since we haven't enabled
         * timeouts */
        bufferevent_free(bev);
    }
    
    static void
    signal_cb(evutil_socket_t sig, short events, void *user_data)
    {
        struct event_base *base = (event_base *)user_data;
        struct timeval delay = { 2, 0 };
    
        printf("Caught an interrupt signal; exiting cleanly in two seconds.
    ");
    
        event_base_loopexit(base, &delay);
    }

       有连接时的堆栈图:

      从堆栈图中可以看出libevent只有一个线程在执行,都是从event_base_dispatch中逐渐回调的。反应器逆置了事件的处理流程,但是可以看出它不能同时支持大量客户请求或者耗时过长的请求,因为它串行化了所有的事件处理流程。

    2. 主动器(Proactor)

      (1)Proactor需要调用者定义一个异步执行的操作,例如,socket的异步读/写;

      (2)执行异步操作,异步事件处理器将异步请求交给操作系统就返回了,让操作系统去完成具体的操作,操作系统在完成操作之后,会将完成事件放入一个完成事件队列。

      (3)异步事件分离器会检测完成事件,若检测到完成事件,则从完成队列中取出完成事件,并通知应用程序注册的完成事件处理函数去处理;

      (4)完成事件处理函数处理异步操作的结果。

      下面是一个基于boost::asio的异步服务器:

    #include "stdafx.h"
    #include <boost/asio.hpp>
    #include <boost/bind/placeholders.hpp>
    #include <boost/bind/bind.hpp>
    #include <boost/system/error_code.hpp>
    #include <boost/smart_ptr/enable_shared_from_this.hpp>
    
    using namespace boost::asio;
    namespace  
    {  
        typedef boost::asio::io_service IoService;
        typedef boost::asio::ip::tcp TCP;
    
        std::string make_daytime_string()  
        {  
            using namespace std;  
            time_t now = std::time(NULL);  
            return ctime(&now);  
        }  
    
        class tcp_connection  
            : public boost::enable_shared_from_this<tcp_connection>  
        {  
        public:  
            typedef boost::shared_ptr<tcp_connection> pointer;  
    
            static pointer create(IoService& io_service)  
            {  
                return pointer(new tcp_connection(io_service));  
            }  
    
            TCP::socket& socket()  
            {  
                return socket_;  
            }  
    
            void start()  
            {  
                message_ = make_daytime_string();  
    
                boost::asio::async_write(  
                    socket_,   
                    boost::asio::buffer(message_),   
                    boost::bind(&tcp_connection::handle_write,   
                    shared_from_this(),   
                    boost::asio::placeholders::error,   
                    boost::asio::placeholders::bytes_transferred));  
            }  
        private:  
            tcp_connection(IoService& io_service)  
                : socket_(io_service)  
            {  
            }  
    
            void handle_write(const boost::system::error_code& /*error*/,  
                size_t /*bytes_transferred*/)  
            {  
                printf("write data!!!");  
            }  
    
            TCP::socket socket_;  
            std::string message_;  
        };  
    
        class tcp_server  
        {  
        public:  
            tcp_server(IoService& io_service)  
                : acceptor_(io_service, TCP::endpoint(TCP::v4(), 10000))  
            {  
                start_accept();  
            }  
        private:  
            void start_accept()  
            {  
                tcp_connection::pointer new_connection =  
                    tcp_connection::create(acceptor_.get_io_service());  
    
                acceptor_.async_accept(  
                    new_connection->socket(),   
                    boost::bind(&tcp_server::handle_accept,   
                    this,   
                    new_connection,   
                    boost::asio::placeholders::error));  
            }  
    
            void handle_accept(tcp_connection::pointer new_connection,  
                const boost::system::error_code& error)  
            {  
                if (!error)  
                {  
                    new_connection->start();  
                    start_accept(); //继续监听,否则io_service将认为没有事件处理而结束运行
                }  
            }  
    
            TCP::acceptor acceptor_;  
        };  
    }  
    
    // tcp_connection与tcp_server封装后  
    void test_asio_asynserver()  
    {  
        try  
        {  
            IoService io_service;  
            tcp_server server(io_service);  
    
            // 只有io_service类的run()方法运行之后回调对象才会被调用  
            io_service.run();  
        }  
        catch (std::exception& e)  
        {  
            std::cerr << e.what() << std::endl;  
        }  
    }  
    
    int main()
    {
        test_asio_asynserver();
        return 0;
    }

      有连接时需要写入数据,但是写入数据并不是由用户写入的,而是把需要写入的数据提交给了系统,由系统择机写入,堆栈如下:

      总结两者,可以看出Reactor采用的是同步IO,主动器采用的是异步IO,同步和异步之分可以参考文章( IO - 同步,异步,阻塞,非阻塞 (亡羊补牢篇)),个人认为简单来说,同步IO是发出了请求,不管阻塞还是非阻塞,都需要调用者主动去check调用的结果;而异步IO是由被调用者通知调用者来处理结果。

      参考资料:boost库asio详解8——几个TCP的简单例子

  • 相关阅读:
    JS注意事项
    正则
    js闭包
    【转】chrome console用法
    JSON
    流式传输原理(一) 之通过Web服务器访问音频和视频
    流式传输原理(二) 之通过流式服务器访问音视频
    Equivalence Class Partitioning等价类划分黑盒测试
    【判断闰年】程序抛出异常的解决方案
    新学期😄😄😄
  • 原文地址:https://www.cnblogs.com/jiayayao/p/6158162.html
Copyright © 2011-2022 走看看