目录

多路转接之epoll

epoll_create

epoll_wait

epoll_ctl

epoll原理

代码

epoll的两种模式


多路转接之epoll

epoll_create

:创建epoll模型

size已经废弃,值只要填写的大于0就行,返回值也是一个文件描述符。

epoll_wait

epoll_wait  是 Linux 中  epoll  机制的核心函数之一,用于等待  epoll  实例监控的文件描述符上发生的事件,是实现 I/O 多路复用的关键步骤。
 
基本语法
 

 
 参数说明
 
-  epfd : epoll  实例的文件描述符(由  epoll_create  或  epoll_create1  创建)。
-  events :指向  struct epoll_event  数组的指针,用于存储发生的事件信息。

参数类型epoll_event:

它的第1个参数会以位图的形式传递标记位。
-  maxevents :指定  events  数组的最大容量,必须大于 0。
-  timeout :超时时间(毫秒),有三种取值:
-  0 :立即返回,无论是否有事件发生。
- 正数:等待指定毫秒数,若超时前有事件发生则立即返回。
-  -1 :无限期等待,直到有事件发生才返回。
 
返回值
 
- 成功:返回发生事件的文件描述符数量(大于 0)。
- 超时:返回  0 (当  timeout  为正数或 0 时)。
- 失败:返回  -1 ,并设置  errno  指示错误(如  EBADF  表示  epfd  无效)。
 
作用
 
 epoll_wait  会阻塞等待  epoll  实例中监控的文件描述符发生事件(如可读、可写等),当事件发生或超时后,将事件信息存入  events  数组并返回,从而高效处理多个 I/O 操作,避免传统  select/poll  的性能瓶颈。

新增,修改,删除一个文件描述符事件。

epoll_ctl

epoll_ctl  是 Linux 系统中  epoll  机制的核心函数之一,用于控制  epoll  实例中的事件,比如添加、修改或删除需要监听的文件描述符及其关联事件。
 
基本语法
 

 
参数说明
 
-  epfd : epoll  实例的文件描述符,由  epoll_create  或  epoll_create1  创建。
-  op :操作类型,有三种可选值:

-  fd :需要操作的文件描述符(如套接字、管道等)。
-  event :文件描述符上的哪一个事件。
 
 struct epoll_event  结构体
 

 -  events :常用事件类型包括:
-  EPOLLIN :表示文件描述符可读(如收到数据)。
-  EPOLLOUT :表示文件描述符可写(如缓冲区有空间)。
-  EPOLLERR :表示文件描述符发生错误。
-  EPOLLHUP :表示文件描述符被挂断(如连接关闭)。
-  EPOLLET :边缘触发模式(默认是水平触发)。
 
返回值
 
- 成功时返回  0 。
- 失败时返回  -1 ,并设置  errno  指示错误原因(如  EBADF  表示  epfd  或  fd  无效, EEXIST  表示添加已存在的  fd  等)。
 
作用
 
 epoll_ctl  是  epoll  机制中管理监听对象的关键函数,通过它可以动态维护需要监控的文件描述符列表,配合  epoll_wait  实现高效的 I/O 多路复用。

epoll原理

polk  and select都借用了类似辅助数组一样的存储形式,他们都是由用户维护,而epoll确实由操作系统维护的。

当网卡数据准备就绪的时候,网卡会向上层发送硬件中断信号给操作系统。上层接收到硬件中断信号以后,会进行比对来检测这个硬件中断信号的含义。进而发现网卡上数据已经完备  

当网卡驱动层得知网卡内有数据就绪,它会自动调用一个回调函数calback

回调函数会将该数据向上层传递,因为不同层级间数据的传输并不是通过拷贝而来,而是通过指针的指向来获取,因此它需要把数据传输给tcp的接收队列。进而将数据传输给用户层的接收缓冲区,同时,他还需要在红黑树中查找对应的文件描述符,有没有被需要关注的任务任务选项,假设回调函数回调的时候传输的就是一个文件描述符为3,写事件,而红黑树中,

3号文件描述符写事件被关注,那么他就需要把内部文件构造成一个新的节点,插入到就绪队列

之后用户就只需要从就绪队列中获取就绪节点即可。上述过程共同组成了epoll模型

该模型的返回值是一个文件描述符,而我们之前所讲文件描述符由struct file进行管理。

而我们刚刚所讲的三个调用接口与epoll模型的关系如下:

  

代码

包装epoll

#pragma once

class nocopy
{
public:
    nocopy(){}
    nocopy(const nocopy &) = delete;
    const nocopy&operator=(const nocopy &) = delete;
};
#pragma once

#include "nocopy.hpp"
#include "Log.hpp"
#include <cerrno>
#include <cstring>
#include <sys/epoll.h>

class Epoller : public nocopy
{
    static const int size = 128;

public:
    Epoller()
    {
        _epfd = epoll_create(size);
        if (_epfd == -1)
        {
            lg(Error, "epoll_create error: %s", strerror(errno));
        }
        else
        {
            lg(Info, "epoll_create success: %d", _epfd);
        }
    }
    int EpollerWait(struct epoll_event revents[], int num)
    {
        int n = epoll_wait(_epfd, revents, num, /*_timeout 0*/ -1);
        return n;
    }
    int EpllerUpdate(int oper, int sock, uint32_t event)
    {
        int n = 0;
        if (oper == EPOLL_CTL_DEL)
        {
            n = epoll_ctl(_epfd, oper, sock, nullptr);
            if (n != 0)
            {
                lg(Error, "epoll_ctl delete error!");
            }
        }
        else
        {
            // EPOLL_CTL_MOD || EPOLL_CTL_ADD
            struct epoll_event ev;
            ev.events = event;
            ev.data.fd = sock; // 目前,方便我们后期得知,是哪一个fd就绪了!

            n = epoll_ctl(_epfd, oper, sock, &ev);
            if (n != 0)
            {
                lg(Error, "epoll_ctl error!");
            }
        }
        return n;
    }
    ~Epoller()
    {
        if (_epfd >= 0)
            close(_epfd);
    }

private:
    int _epfd;
    int _timeout{3000};
};

epollserver的构建

#pragma once

#include <iostream>
#include <memory>
#include <sys/epoll.h>
#include "Socket.hpp"
#include "Epoller.hpp"
#include "Log.hpp"
#include "nocopy.hpp"

uint32_t EVENT_IN = (EPOLLIN);
uint32_t EVENT_OUT = (EPOLLOUT);

class EpollServer : public nocopy
{
    static const int num = 64;

public:
    EpollServer(uint16_t port)
        : _port(port),
          _listsocket_ptr(new Sock()),
          _epoller_ptr(new Epoller())
    {
    }
    void Init()
    {
        _listsocket_ptr->Socket();
        _listsocket_ptr->Bind(_port);
        _listsocket_ptr->Listen();

        lg(Info, "create listen socket success: %d\n", _listsocket_ptr->Fd());
    }
    void Accepter()
    {
        // 获取了一个新连接
        std::string clientip;
        uint16_t clientport;
        int sock = _listsocket_ptr->Accept(&clientip, &clientport);
        if (sock > 0)
        {
            // 我们能直接读取吗?不能
            _epoller_ptr->EpllerUpdate(EPOLL_CTL_ADD, sock, EVENT_IN);
            lg(Info, "get a new link, client info@ %s:%d", clientip.c_str(), clientport);
        }
    }
    // for test
    void Recver(int fd)
    {
        // demo
        char buffer[1024];
        ssize_t n = read(fd, buffer, sizeof(buffer) - 1); // bug?
        if (n > 0)
        {
            buffer[n] = 0;
            std::cout << "get a messge: " << buffer << std::endl;
            // wrirte
            std::string echo_str = "server echo $ ";
            echo_str += buffer;
            write(fd, echo_str.c_str(), echo_str.size());
        }
        else if (n == 0)
        {
            lg(Info, "client quit, me too, close fd is : %d", fd);
            //细节3
            _epoller_ptr->EpllerUpdate(EPOLL_CTL_DEL, fd, 0);
            close(fd);
        }
        else
        {
            lg(Warning, "recv error: fd is : %d", fd);
            _epoller_ptr->EpllerUpdate(EPOLL_CTL_DEL, fd, 0);
            close(fd);
        }
    }
    void Dispatcher(struct epoll_event revs[], int num)
    {
        for (int i = 0; i < num; i++)
        {
            uint32_t events = revs[i].events;
            int fd = revs[i].data.fd;
            if (events & EVENT_IN)
            {
                if (fd == _listsocket_ptr->Fd())
                {
                    Accepter();
                }
                else
                {
                    // 其他fd上面的普通读取事件就绪
                    Recver(fd);
                }
            }
            else if (events & EVENT_OUT)
            {
            }
            else
            {
            }
        }
    }
    void Start()
    {
        // 将listensock添加到epoll中 -> listensock和他关心的事件,添加到内核epoll模型中rb_tree.
        _epoller_ptr->EpllerUpdate(EPOLL_CTL_ADD, _listsocket_ptr->Fd(), EVENT_IN);
        struct epoll_event revs[num];
        for (;;)
        {
            int n = _epoller_ptr->EpollerWait(revs, num);
            if (n > 0)
            {
                // 有事件就绪
                lg(Debug, "event happened, fd is : %d", revs[0].data.fd);
                Dispatcher(revs, n);
            }
            else if (n == 0)
            {
                lg(Info, "time out ...");
            }
            else
            {
                lg(Error, "epll wait error");
            }
        }
    }
    ~EpollServer()
    {
        _listsocket_ptr->Close();
    }

private:
    std::shared_ptr<Sock> _listsocket_ptr;
    std::shared_ptr<Epoller> _epoller_ptr;
    uint16_t _port;
};

epoll的两种模式

LT:水平触发,它是epoll的默认模式,在事件到来时如果上层不处理,它会高电平的一直向上层传输信号.

ET:边缘触发,该模式是数据或链接从无到有,从有到多变化的时候才会通知我们一次,相对而言,该模式的通知效率更高,其io效率也更高。

ET模式是倒逼程序员,每一次通知,他都必须把本轮的数据全部取走,读取数据的方式是循环读取,直到这个读取出错为止,但是因为fd的读取方式默认是阻塞的,我们不能通过阻塞的方式进行读取,但我们并不知道内部是否已经有数据 ,因此不然的话我们进程就会阻塞的卡住了,因此。我们要以非阻塞轮询的方式进行数据读取。

正因为ET模式是一次性将数据读取完,tcp便可以向对方通过一个更大的窗口,从而从概率上让对方一次给我发送更多的数据。因为通知频率更少,因而单位时间内通知效率更高,同时数据传输量的增大,为io效率的更高也奠定了基础,因此相对而言,它是更优的,但是因为水平触发也可以一次性的对数据进行读取完毕。因此在不同场景下,二者谁效率更高效依托于不同的设计方式。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐