多路转接 epoll

epoll 初识

按照 man 手册的说法: 是为处理大批量句柄而作了改进的 poll.

它是在 2.5.44 内核中被引进的(epoll(4) is a new API introduced in Linux kernel 2.5.44)

它几乎具备了之前所说的一切优点,被公认为 Linux2.6 下性能最好的多路 I/O 就绪通知方法.

epoll 的相关系统调用

epoll 有 3 个相关的系统调用.

epoll_create

int epoll_create(int size);

创建一个 epoll 的句柄.

• 自从 linux2.6.8 之后,size 参数是被忽略的.

• 用完之后, 必须调用 close()关闭.

epoll_ctl

int epoll_ctl(int epfd, int op, int fd, struct epoll_event*event);

epoll 的事件注册函数.

• 它不同于 select()是在监听事件时告诉内核要监听什么类型的事件, 而是在这里先注册要监听的事件类型.

• 第一个参数是 epoll_create()的返回值(epoll 的句柄).

• 第二个参数表示动作,用三个宏来表示.

• 第三个参数是需要监听的 fd.

• 第四个参数是告诉内核需要监听什么事.

第二个参数的取值:

• EPOLL_CTL_ADD:注册新的 fd 到 epfd 中;

• EPOLL_CTL_MOD:修改已经注册的 fd 的监听事件;

• EPOLL_CTL_DEL:从 epfd 中删除一个 fd;

struct epoll_event 结构如下:

在这里插入图片描述

events 可以是以下几个宏的集合:

• EPOLLIN : 表示对应的文件描述符可以读 (包括对端 SOCKET 正常关闭);

• EPOLLOUT : 表示对应的文件描述符可以写;

• EPOLLPRI : 表示对应的文件描述符有紧急的数据可读 (这里应该表示有带外数据到来);

• EPOLLERR : 表示对应的文件描述符发生错误;

• EPOLLHUP : 表示对应的文件描述符被挂断;

• EPOLLET : 将 EPOLL 设为边缘触发(Edge Triggered)模式, 这是相对于水平触发(Level Triggered)来说的.

• EPOLLONESHOT:只监听一次事件, 当监听完这次事件之后, 如果还需要继续监听这个 socket 的话, 需要再次把这个 socket 加入到 EPOLL 队列里.

epoll_wait

int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);

收集在 epoll 监控的事件中已经发送的事件.

• 参数 events 是分配好的 epoll_event 结构体数组。

• epoll 将会把发生的事件赋值到 events 数组中 (events 不可以是空指针,内核只负责把数据复制到这个 events 数组中,不会去帮助我们在用户态中分配内存).

• maxevents 告之内核这个 events 有多大,这个 maxevents 的值不能大于创建epoll_create()时的 size.

• 参数 timeout 是超时时间 (毫秒,0 会立即返回,-1 是永久阻塞).

• 如果函数调用成功,返回对应 I/O 上已准备好的文件描述符数目,如返回 0 表示已超时, 返回小于 0 表示函数失败

epoll 工作原理

在这里插入图片描述

• 当某一进程调用 epoll_create 方法时,Linux 内核会创建一个 eventpoll 结构体,这个结构体中有两个成员与 epoll 的使用方式密切相关.

struct eventpoll{
....
/*红黑树的根节点,这颗树中存储着所有添加到 epoll 中的需要监控的事件
*/
struct rb_root rbr;
/*双链表中则存放着将要通过 epoll_wait 返回给用户的满足条件的事件*/
struct list_head rdlist;
....
};

• 每一个 epoll 对象都有一个独立的 eventpoll 结构体,用于存放通过 epoll_ctl 方法向 epoll 对象中添加进来的事件.

• 这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间效率是 logn,其中 n 为树的高度).

• 而所有添加到 epoll 中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当响应的事件发生时会调用这个回调方法.

• 这个回调方法在内核中叫 ep_poll_callback,它会将发生的事件添加到 rdlist 双链表中.

• 在 epoll 中,对于每一个事件,都会建立一个 epitem 结构体.

struct epitem{
struct rb_node rbn;//红黑树节点
struct list_head rdllink;//双向链表节点
struct epoll_filefd ffd; //事件句柄信息
struct eventpoll *ep; //指向其所属的 eventpoll 对象
struct epoll_event event; //期待发生的事件类型
}

• 当调用 epoll_wait 检查是否有事件发生时,只需要检查 eventpoll 对象中的rdlist 双链表中是否有 epitem 元素即可.

• 如果 rdlist 不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户. 这个操作的时间复杂度是 O(1).

总结一下, epoll 的使用过程就是三部曲:

• 调用 epoll_create 创建一个 epoll 句柄;

• 调用 epoll_ctl, 将要监控的文件描述符进行注册;

• 调用 epoll_wait, 等待文件描述符就绪;

epoll 的优点(和select 的缺点对应)

• 接口使用方便: 虽然拆分成了三个函数, 但是反而使用起来更方便高效. 不需要每次循环都设置关注的文件描述符, 也做到了输入输出参数分离开

• 数据拷贝轻量: 只在合适的时候调用 EPOLL_CTL_ADD 将文件描述符结构拷贝到内核中, 这个操作并不频繁(而 select/poll 都是每次循环都要进行拷贝)

• 事件回调机制: 避免使用遍历, 而是使用回调函数的方式, 将就绪的文件描述符结构加入到就绪队列中, epoll_wait 返回直接访问就绪队列就知道哪些文件描述符就绪. 这个操作时间复杂度 O(1). 即使文件描述符数目很多, 效率也不会受到影响.

• 没有数量限制: 文件描述符数目无上限.

例子:

#pragma once
#include <iostream>
#include <memory>
#include <unistd.h>
#include <sys/epoll.h> // epoll 头文件
#include "Socket.hpp"
#include "Log.hpp"

using namespace SocketModule;
using namespace LogModule;

class EpollServer
{
    // 每次epoll_wait返回的最大事件数
    const static int size = 64;
    // 默认无效文件描述符
    const static int defaultfd = -1;

public:
    // 构造函数:初始化监听Socket和epoll实例
    EpollServer(int port) : _listensock(std::make_unique<TcpSocket>()), _isrunning(false), _epfd(defaultfd)
    {
        // 1. 创建监听Socket
        _listensock->BuildTcpSocketMethod(port); // 创建TCP Socket并绑定端口
        // 2. 创建epoll实例
        _epfd = epoll_create(256); // 参数size在Linux 2.6.8后被忽略,但必须>0
        if (_epfd < 0)
        {
            LOG(LogLevel::FATAL) << "epoll_create error";
            exit(EPOLL_CREATE_ERR);
        }
        LOG(LogLevel::INFO) << "epoll_create success: " << _epfd;
        // 3. 将监听Socket添加到epoll监控中
        struct epoll_event ev;
        // 监听读事件(新连接)
        ev.events = EPOLLIN;
        // 存储关联的文件描述符
        ev.data.fd = _listensock->Fd();
        int n = epoll_ctl(_epfd, EPOLL_CTL_ADD, _listensock->Fd(), &ev);
        if (n < 0)
        {
            LOG(LogLevel::FATAL) << "add listensockfd failed";
            exit(EPOLL_CTL_ERR);
        }
    }
    // 主事件循环
    void Start()
    {
        // epoll_wait超时时间:-1表示无限阻塞
        int timeout = -1;
        _isrunning = true;
        while (_isrunning)
        {
            // 等待事件就绪
            int n = epoll_wait(_epfd, _revs, size, timeout);
            switch (n)
            {
            case 0: // 超时(没有事件发生)
                LOG(LogLevel::DEBUG) << "timeout...";
                break;
            case -1: // 错误
                LOG(LogLevel::ERROR) << "epoll error";
                break;
            default:           // 有事件就绪
                Dispatcher(n); // 分发处理就绪事件
                break;
            }
        }
        _isrunning = false;
    }
    // 事件分发器
    void Dispatcher(int rnum) // rnum: 就绪的事件数量
    {
        // LT: 水平触发模式(epoll默认)
        LOG(LogLevel::DEBUG) << "event ready ...";
        // 只遍历就绪的事件,效率高!
        for (int i = 0; i < rnum; i++)
        {
            // 获取就绪的文件描述符
            int sockfd = _revs[i].data.fd;
            // 获取具体事件类型
            uint32_t revent = _revs[i].events;
            // 读事件就绪
            if (revent & EPOLLIN)
            {
                // 监听Socket就绪(新连接)
                if (sockfd == _listensock->Fd())
                {
                    Accepter();
                }
                // 普通客户端Socket就绪(数据可读)
                else
                {
                }
            }
        }
    }
    // 新连接处理
    void Accepter()
    {
        InetAddr client;
        // accept不会阻塞,因为epoll已经告诉我们有新连接
        int sockfd = _listensock->Accept(&client);
        // 接受成功
        if (sockfd >= 0)
        {
            LOG(LogLevel::INFO) << "get a new link, sockfd: "
                                << sockfd << ", client is: " << client.StringAddr();
            // 将新连接的Socket添加到epoll监控
            struct epoll_event ev;
            ev.events = EPOLLIN; // 监听读事件
            ev.data.fd = sockfd; // 关联的文件描述符

            int n = epoll_ctl(_epfd, EPOLL_CTL_ADD, sockfd, &ev);
            if (n < 0)
            {
                LOG(LogLevel::WARNING) << "add sockfd failed";
            }
            else
            {
                LOG(LogLevel::INFO) << "epoll_ctl add sockfd success: " << sockfd;
            }
        }
    }
    // 数据读取处理
    void Recver(int sockfd)
    {
        char buffer[1024];
        // recv不会阻塞,因为epoll已经告诉我们数据可读
        ssize_t n = recv(sockfd, buffer, sizeof(buffer) - 1, 0);

        if (n > 0) // 正常读取到数据
        {
            buffer[n] = 0; // 添加字符串结束符
            std::cout << "client say@ " << buffer << std::endl;
        }
        else if (n == 0) // 客户端关闭连接
        {
            LOG(LogLevel::INFO) << "client quit...";
            // 先从epoll中移除监控,再关闭fd
            int m = epoll_ctl(_epfd, EPOLL_CTL_DEL, sockfd, nullptr);
            if (m >= 0) // 注意:epoll_ctl成功返回0
            {
                LOG(LogLevel::INFO) << "epoll_ctl remove sockfd success: " << sockfd;
            }
            close(sockfd);
        }
        else // 读取错误
        {
            LOG(LogLevel::ERROR) << "recv error";
            // 先从epoll中移除监控,再关闭fd
            int ret = epoll_ctl(_epfd, EPOLL_CTL_DEL, sockfd, nullptr);
            if (ret >= 0)
            {
                LOG(LogLevel::INFO) << "epoll_ctl remove sockfd success: " << sockfd;
            }
            close(sockfd);
        }
    }
    void Stop()
    {
        _isrunning = false;  // 停止主循环
    }

    ~EpollServer()
    {
        // 关闭监听Socket
        _listensock->Close();
        // 关闭epoll实例
        if (_epfd > 0)
        close(_epfd); 
    }

private:
    // 监听Socket智能指针
    std::unique_ptr<Socket> _listensock;
    // 服务器运行状态标志
    bool _isrunning;
    // epoll实例的文件描述符
    int _epfd;
    // 存储就绪事件的数组
    struct epoll_event _revs[size];
};

关闭监听Socket
_listensock->Close();
// 关闭epoll实例
if (_epfd > 0)
close(_epfd);
}

private:
// 监听Socket智能指针
std::unique_ptr _listensock;
// 服务器运行状态标志
bool _isrunning;
// epoll实例的文件描述符
int _epfd;
// 存储就绪事件的数组
struct epoll_event _revs[size];
};


Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐