Linux企业级开发技术(1)——epoll企业级开发之简介

 

Epoll是当前在 Linux 下开发大规模并发网络程序的热门人选, Epoll 在 Linux2.6 内核中正式引入。和 select 相似,是高效 I/O 多路复用技术。

其实在 Linux 下设计并发网络程序,有多种模型:如典型的 Apache 模型( Process Per Connection ,简称 PPC ), TPC ( Thread PerConnection )模型,以及 select 模型和 poll 模型

为了对比Epoll 的优点,下面列举常用模型的特点:

1、 PPC/TPC 模型

这两种模型思想类似,就是让每一个到来的连接作为一个单独的任务,不影响主进程。只是 PPC 是为它开了一个进程,而 TPC 开了一个线程。但是其代价是,连接数增多了之后,进程 / 线程切换开销就会增加。因此这类模型能接受的最大连接数都不会高,一般在几百个左右。

2 、select 模型

最大并发数限制,因为一个进程所打开的 FD (文件描述符)是有限制的,由 FD_SETSIZE 设置,默认值是 1024/2048 ,因此 Select 模型的最大并发数就被相应限制了。尽管我们可以修改 FD_SETSIZE但是会产生效率问题。

select 每次调用都会线性扫描全部的 FD 集合,这样效率就会呈现线性下降,所以把FD_SETSIZE 改大的后果就是,会造成超市

内核 / 用户空间内存拷贝问题,如何让内核把 FD 消息通知给用户空间呢?在这个问题上 select 采取了内存拷贝方法。

3 、poll 模型

基本上效率和 select 是相同的,同样具有select 存在的缺点缺点。

Epoll 没有最大并发连接的限制,上限是最大可以打开文件的数目,这个数字一般远大于 2048, 一般来说这个数目和系统内存关系很大,具体数目可以 cat /proc/sys/fs/file-max 察看。

Epoll 最大的优点就在于它只管你“活跃”的连接 ,而跟连接总数无关,因此在实际的网络环境中, Epoll 的效率就会远远高于 select 和 poll 。

Epoll 在内存管理上使用了“共享内存 ”,提高了效率。

Epoll 的高效和其数据结构的设计是密不可分的。

首先回忆一下 select 模型,当有 I/O 事件到来时, select 通知应用程序有事件到了快去处理,而应用程序必须轮询所有的 FD 集合,测试每个 FD 是否有事件发生,并处理事件;代码像下面这样:

int res = select(maxfd+1, &readfds,NULL, NULL, 120);
if (res > 0)
{
   for (int i = 0; i < MAX_CONNECTION; i++)
    {
       if (FD_ISSET(allConnection[i], &readfds))
       {
           handleEvent(allConnection[i]);
       }
    }
}
// if(res == 0) handle timeout, res < 0handle error

Epoll 不仅会告诉应用程序有I/0 事件到来,还会告诉应用程序相关的信息,这些信息是应用程序填充的,因此根据这些信息应用程序就能直接定位到事件,而不必遍历整个FD 集合。

int res = epoll_wait(epfd, events, 20,120);
for (int i = 0; i < res;i++)
{
   handleEvent(events[n]);
}

Epoll 速度快和其数据结构密不可分,其关键数据结构就是:

struct epoll_event {
   __uint32_t events;      // Epollevents
   epoll_data_t data;      // Userdata variable
};
typedef union epoll_data {
   void *ptr;
   int fd;
   __uint32_t u32;
   __uint64_t u64;
} epoll_data_t;


可见 epoll_data 是一个 union 结构体 , 借助于它应用程序可以保存很多类型的信息 :fd 、指针等等。有了它,应用程序就可以直接定位目标了。

原文地址:https://www.cnblogs.com/new0801/p/6176903.html