zoukankan      html  css  js  c++  java
  • UNP学习总结(二)

    本文是UNP复习系列的第二篇,主要包括了以下几个内容

    1. UNIX系统下5种I/O模型
    2. 阻塞、非阻塞,同步、异步
    3. epoll函数用例

    一、Unix下的五种可用I/O模型

    1. 阻塞式I/O模型

      阻塞式I/O是最简单的I/O模型。也是系统默认的I/O模型。

      图中采用了recvfrom(),使用TCP时候的read()时也是类似的。

      read()或者recvfrom()被作用于阻塞的文件描述符时,直到数据报到达且被复制到应用进程的缓冲区种或者发生错误时才返回,最常见的错误时被信号中断。

    2. 非阻塞式I/O模型

      非阻塞式I/O是在实际项目中最常用的I/O模型。对于很多进程或者线程而言,采用阻塞的I/O,有可能将该进(线)程阻塞在一个I/O操作上,这样的做法是不明智的。

      On error, -1 is returned, and errno is set appropriately.

      EAGAIN The file descriptor fd refers to a file other than a socket and has been marked nonblocking (O_NONBLOCK), and the read would block. See open(2) for further details on the O_NONBLOCK flag.

      EAGAIN or EWOULDBLOCK The file descriptor fd refers to a socket and has been marked nonblocking (O_NONBLOCK), and the read would block.

      以上内容引自read()的man page。使用非阻塞I/O时,若没有数据立即可读,那么调用会立即返回错误,并且errno被设为EAGAINEWOULDBLOCK。对一个非阻塞的描述符反复调用read()recvfrom()被称为轮询(polling)。轮询往往和多路复用配合使用。

    3. I/O复用模型

      主要是指采用select()poll(),epoll()(Linux),kqueue()(BSD)等复用函数对多个描述符进行监听的方式。当采用这种方式时,进程阻塞在这些函数上,当注册于这些函数中的描述符允许读或写时函数返回。

      在实践中,select()poll()由于性能及易用性等问题,已较少采用,大多数多路复用的场景都被epoll()函数取代,而带来的问题则是可移植性下降,因为epoll()只存在于Linux平台上。

    4. 信号驱动式I/O模型

      使用信号,让内核在描述符就绪式发送SIGIO通知进程读取的方式。

      这种模型的优势在于等待数据报到达的器件进程不会被阻塞,主循环可以继续执行。

    5. 异步I/O模型

      告知内核启动某个操作,并让内核在整个操作(包括将数据藏内核复制到我们自己的缓冲区)完成后通知我们。

      这种模型的主要区别是不再需要调用read()recvfrom()进行读取操作,只需向异步I/O函数传入缓冲区指针和大小,内核将在负责把数据读入缓冲区,而后通知进程。这种模型应用很少,各种系统对其支持也不充分。

      这里补充一点内容。在较老的服务端模型中,采用阻塞I/O,每个连接被一个或多个线程管理是常见的方式。连接数量的增加就意味着线程数量的增加。这种模型对于几百上千的连接是可以胜任的,但对于更大量的连接,线程数量的增加导致线程间切换的开销也开始加大,耗费的内存等资源也开始增多,这种模型开始无法承受负担。

      多路复用加上非阻塞I/O的方式则允许一个线程处理多个不同的连接,对多个描述符进行监听,并且只在描述符准备就绪时才对其进行处理。这种模型大大减少了非活跃线程的数量,也即减少了资源的开销。而由于一个线程中同时处理了多个描述符,那么使用阻塞I/O则可能使线程阻塞在其中一个描述符上,使得其它描述符无法得到处理。因此需要使用非阻塞的I/O。

    二、阻塞和非阻塞,同步和异步

    要注意阻塞/非阻塞和同步/异步的概念的区别。

    POSIX把这两个属于定义如下:

    同步I/O操作(synchronous I/O operation)导致请求进程阻塞,直到I/O操作完成;

    异步I/O操作(asynchronous I/O operation)不导致请求进程阻塞。

    前四种模型的主要区别在于第一阶段,其第二阶段是一样的:在数据从内核复制到调用者的缓冲区期间,进程阻塞于recvfrom()调用。相反,异步I/O模型在这两个阶段都要处理,从而不同于其它四种模型。

    阻塞不等于同步,非阻塞不等于异步,如在第二种模型中,采用的是非阻塞的I/O,但仍属于同步模型。

    同步异步区分的关键在于将数据从内核空间复制回应用进程空间的这一过程是否阻塞进程。不管是阻塞还是非阻塞的I/O,当有数据可供消费时,在调用recvfrom()read()将数据从内核复制回应用进程空间的这个过程中,该进(线)程是阻塞的,是被挂起的,因此他们都是同步的。只不过非阻塞I/O在无数据时,会立即返回,而非阻塞I/O不会。而异步的I/O连将数据复制到进程空间的这个过程,都不阻塞进程,而直接由内核完成,之后再以别的形式通知进程。

    讲清楚这点应该就较好理解UNP种所说的:

    根据上述定义,我们的前4种模型都是同步I/O模型,因为其中真正的I/O操作(recvfrom)将阻塞进程。只有异步I/O模型与POSIX定义的异步I/O相匹配。

    三、epoll()用法总结

    UNP中给出了select()poll()的用法,这里不再重复。epoll()从Linux 2.5.44开始引入,目的是为了替代select()poll(),达到更高的性能,实现更高的并发。这里总结一下它的用法。

    man pages:

    1. epoll
    2. epoll_create
    3. epoll_wait
    4. epoll_ctl

    典型用法:

    1. epoll_create()epoll_create1()创建一个epoll实例
    2. 设置需要监听的epoll_event中的事件类型以及描述符,并将其用epoll_ctl()添加到epoll实例中
    3. 申请一个epoll_event数组,作为存放返回的活跃事件的容器
    4. 调用epoll_wait(),传入epoll_event数组,阻塞等待
    5. epoll_wait()返回时,返回值为epoll实例中活跃的事件个数,并且这些事件被写入到传入的epoll_event数组的前几个中。
    6. 处理活跃事件
    7. 返回第4步

    epoll_event的定义如下:

    typedef union epoll_data {
        void    *ptr;
        int      fd;
        uint32_t u32;
        uint64_t u64;
    } epoll_data_t;
    
    struct epoll_event {
        uint32_t     events;    /* Epoll events */
        epoll_data_t data;      /* User data variable */
    };
    

    电平触发和边缘触发

    1. 若用作电平触发(默认),那么epoll就只是一个速度更快的poll,它们的语法基本兼容,epoll可使用于任何poll的使用场景。
    2. 若使用了EPOLLET标志,那么epoll被用作边缘触发。采用边缘触发方式的描述符应该使用非阻塞I/O,以避免监听多个描述符的进程阻塞在其中一个描述符的read()write()操作中。
    3. 边缘触发的建议使用方式是(I)采用非阻塞描述符(II)等待read()write()返回EAGAIN。

    程序示例

    #include <stdio.h>
    #include <stdlib.h>
    #include <sys/epoll.h>
    #include <sys/socket.h>
    #include <string.h>
    #include <unistd.h>
    #include <fcntl.h>
    #include <arpa/inet.h>
    #include <sys/types.h>
    #include <netinet/in.h>
    #include <errno.h>
    
    #define MAX_EVENTS 10
    #define SERV_PORT 9877
    #define BUFFER_SIZE 1024
    
    int get_listen_fd();
    void set_non_blocking(int fd);
    void do_use_fd(int fd);
    
    int main()
    {
    	struct epoll_event ev, events[MAX_EVENTS];
    	int listen_sock, conn_sock, nfds, epollfd;
    	int n, addrlen;
    	struct sockaddr_in addr;
    	
    	epollfd = epoll_create1(0);
    	
    	listen_sock = get_listen_fd();
    	ev.events = EPOLLIN;
    	ev.data.fd = listen_sock;
    	epoll_ctl(epollfd, EPOLL_CTL_ADD, listen_sock, &ev);
    	
    	for(;;){
    		nfds = epoll_wait(epollfd, events, MAX_EVENTS, -1);
    		for(n = 0; n <nfds; ++n){
    			if(events[n].data.fd == listen_sock){
    				conn_sock = accept(listen_sock, (struct sockaddr *) &addr, &addrlen);
    				if(conn_sock == -1){
    					if(errno != EAGAIN && errno != EWOULDBLOCK)
    						perror("accept");
    					break;
    				}
    				set_non_blocking(conn_sock);
    				ev.events = EPOLLIN | EPOLLET;
    				ev.data.fd = conn_sock;
    				epoll_ctl(epollfd, EPOLL_CTL_ADD, conn_sock, &ev);
    			}
    			else{
    				do_use_fd(events[n].data.fd);
    			}
    		}
    	}
    	return 0;
    
    }
    
    int get_listen_fd(){
    	int listen_fd;
    	struct sockaddr_in serv_addr;
    
    	listen_fd = socket(AF_INET, SOCK_STREAM, 0);
    	memset(&serv_addr, 0, sizeof(serv_addr));
    	serv_addr.sin_family = AF_INET;
    	serv_addr.sin_addr.s_addr = htonl(INADDR_ANY);
    	serv_addr.sin_port = htons(SERV_PORT);
    	
    	bind(listen_fd, (struct sockaddr*) &serv_addr, sizeof(serv_addr));
    	set_non_blocking(listen_fd);
    	listen(listen_fd, 10);
    	
    	return listen_fd;
    }
    
    void set_non_blocking(int fd){
    	int s;
    	s = fcntl(fd, F_GETFL, 0);
    	s |= O_NONBLOCK;
    	fcntl(fd, F_SETFL, s);
    }
    
    void do_use_fd(int fd){
    	int done = 0;
    	for(;;){
    		int count;
    		char buf[BUFFER_SIZE];
    		
    		count = read(fd, buf, sizeof(buf));
    		if(count == 0){
    			done = 1;
    			break;
    		}
    		else if(count == -1){
    			if(errno != EAGAIN){
    				perror("read");
    				done = 1;
    			}
    			break;
    		}
    		else{
    			write(STDOUT_FILENO, buf, count);
    		}
    	}
    	if(done){
    		printf("Closed connection on descriptor %d
    ", fd);
    		close(fd);
    	}
    }
    

    示例说明

    1. listen socket 在本例中被设为边缘触发,且是非阻塞的,那么在返回epoll_wait()等待前必须将所有到达的新连接全部处理了,直到EAGAIN被触发;
    2. 本例中的do_use_fd()也是类似的,边缘触发、非阻塞,返回等待前必须保证所有到达数据被处理;
    3. 一个描述符被关闭,将导致epoll自动将该描述符对应的事件移除。不过要注意dup2()fork()等对描述符形成的复制。只有所有引用某个文件的描述符都被关闭了,epoll才会将相应的事件移除。(详见epoll的man page,Q6)

    总结

    几种I/O模型、阻塞/非阻塞常常是在服务器编程选型时候需要考虑的总点,本篇是相关基础知识的一个总结。熟悉相关的API和用法也是在编程时候提高效率,避免踩坑的必要条件。

  • 相关阅读:
    转载的:关于matlab中princomp的使用说明
    STL容器Vector
    Ubuntu20.04下创建Pycharm桌面图标
    c++和c中const的区别
    内存性能分析\垃圾回收 文章
    jq使用教程
    iOS15适配 UITableView下移22px
    linux 内核头文件(转)
    bjfu1143 小蝌蚪安家 解题报告
    hdu 1874 畅通工程续 flody
  • 原文地址:https://www.cnblogs.com/caiminfeng/p/6558989.html
Copyright © 2011-2022 走看看