• 浅析Linux Native AIO的实现


    前段时间在自研的基于iSCSI的SAN 上跑mysql,CPU的iowait很大,后面改用Native AIO,有了非常大的改观。这里简单总结一下Native AIO的实现。对于以IO为最大瓶颈的数据库,native AIO几乎不二的选择,仅仅依靠多线程,显然无法解决磁盘和网络的问题。

    1 API 与data struct

    AIO的主要接口:

    System call

    Description

    io_setup( )

    Initializes an asynchronous context for the current process

    io_submit( )

    Submits one or more asynchronous I/O operations

    io_getevents( )

    Gets the completion status of some outstanding asynchronous I/O operations

    io_cancel( )

    Cancels an outstanding I/O operation

    io_destroy( )

    Removes an asynchronous context for the current process

    1.1 AIO上下文

    使用AIO的第一步就是创建AIO上下文,AIO上下文用于跟踪进程请求的异步IO的运行情况。AIO上下文在用户空间对应数据结果aio_context_t:

    //linux/aio_abi.h

    typedef unsigned long    aio_context_t;

    //创建AIO上下文

    int io_setup(unsigned nr_events, aio_context_t *ctxp);

    Io_setup创建接收nr_events事件的AIO上下文。

    kioctx

    AIO上下文在内核空间对应数据结构kioctx,它保存异步IO的所有信息:

    //AIO环境

    struct kioctx {

        atomic_t      users;

        int        dead;

        struct mm_struct  *mm;

        /* This needs improving */

        unsigned long     user_id; //ring_info.mmap_base,AIO环的起始地址

        struct kioctx     *next; //下一个aio环境

        wait_queue_head_t wait; //等待进程队列

        spinlock_t    ctx_lock;

        int        reqs_active;

        struct list_head  active_reqs;  /* used for cancellation */

        struct list_head  run_list;  /* used for kicked reqs,正在运行的IO请求链表 */

        unsigned      max_reqs;//异步IO操作的最大数量

        struct aio_ring_info ring_info; //AIO Ring

        struct work_struct   wq;

    };

    一个进程可以创建多个AIO上下文,这些AIO上下文构成一个单向链表。

    struct mm_struct {

    ...

    /* aio bits */

        rwlock_t      ioctx_list_lock;

        struct kioctx     *ioctx_list; //进程的AIO上下文链表

        struct kioctx     default_kioctx;

    }

    AIO Ring

    AIO上下文kioctx对象包含一个重要的数据结构AIO Ring:

    //aio.h

    //AIO环

    #define AIO_RING_PAGES   8

    struct aio_ring_info {

        unsigned long     mmap_base; //AIO ring用户态起始地址

        unsigned long     mmap_size; //缓冲区长度

        struct page       **ring_pages;//AIO环页框指针数组

        spinlock_t    ring_lock;

        long          nr_pages;

        unsigned      nr, tail;

        struct page       *internal_pages[AIO_RING_PAGES];

    };

    AIO Ring对应用户态进程地址空间的一段内存缓存区,用户态进程可以访问,内核也可访问。实际上,内核先调用kmalloc函数分配一些页框,然后通过do_mmap映射到用户态地址空间,详细请参考aio_setup_ring函数。

    AIO Ring是一个环形缓冲区,内核用它来报告异步IO的完成情况,用户态进程也可以直接检查异步IO完成情况,从而避免系统调用的开销。

    AIO结构很简单:aio_ring + io_event数组:

    struct aio_ring {

        unsigned   id; /* kernel internal index number */

        unsigned   nr; /* number of io_events */

        unsigned   head;

        unsigned   tail;

        unsigned   magic;

        unsigned   compat_features;

        unsigned   incompat_features;

        unsigned   header_length;    /* size of aio_ring */

        struct io_event      io_events[0];

    }; /* 128 bytes + ring size */

    系统调用io_setup有2个参数:(1) nr_events确认最大的异步IO请求数,这将确定AIO Ring大小,即io_event数量;(2) ctxp:AIO上下文句柄的指针,实际上也是AIO Ring的起始地址aio_ring_info.mmap_base,参见函数aio_setup_ring。

    1.2 提交IO请求

    想要进行异步IO,需要通过系统调用io_submit提交异步IO请求。

    //提交异步IO请求/aio.c

    asmlinkage long sys_io_submit(aio_context_t ctx_id, long nr,

                     struct iocb __user * __user *iocbpp)

    参数:

    (1)ctx_id:AIO上下文句柄,内核通过它查找对应的kioctx对象;

    (2)iocb数组,每个iocb描述一个异步IO请求;

    (3)nr:iocb数组的大小。

    iocb

    //用户态异步IO请求描述符/aio_abi.h

    struct iocb {

        /* these are internal to the kernel/libc. */

        __u64  aio_data;  /* data是留给用来自定义的指针:可以设置为IO完成后的callback函数 */

        __u32  PADDED(aio_key, aio_reserved1);

                  /* the kernel sets aio_key to the req # */

        /* common fields */

        __u16  aio_lio_opcode;   /* see IOCB_CMD_ above,操作的类型:IO_CMD_PWRITE | IO_CMD_PREAD */

        __s16  aio_reqprio;

        __u32  aio_fildes; //IO操作的文件描述符

        __u64  aio_buf; //IO的buffer

        __u64  aio_nbytes; //IO请求字节数

        __s64  aio_offset;//偏移

        /* extra parameters */

        __u64  aio_reserved2;    /* TODO: use this for a (struct sigevent *) */

        __u64  aio_reserved3;

    }; /* 64 bytes */

    数据结构iocb用来描述用户空间的异步IO请求,对应的内核数据结构为kiocb。

    io_submit的流程:

    函数io_submit_one对每个iocb分配一个kiocb对象,加入到AIO上下文kioctx的IO请求队列run_list;然后调用aio_run_iocb发起IO操作,它实际上调用kiocb的ki_retry方法(aio_pread/aio_pwrite)。

    如果ki_retry方法返回-EIOCBRETRY,表明异步IO请求已经提交,但是还没全部完成,稍后kiocb的ki_retry方法还会被继续调用,来继续完成IO请求;否则,调用aio_complete,在AIO Ring加入一个表示一个IO完成的io_event。

    1.3 收集完成的IO请求

    asmlinkage long sys_io_getevents(aio_context_t ctx_id,

                   long min_nr,

                   long nr,

                   struct io_event __user *events,

                   struct timespec __user *timeout)

    参数:

    (1)ctx_id:AIO上下文句柄;

    (2)min_nr:至少收集min_nr个已经完成的IO请求才返回;

    (3)nr:最多收集nr个已经完成的IO请求;

    (4)timeout:等待的时间

    (5)events:由应用层分配,内核将完成的io_event拷贝到该缓冲区,所以,events数组要保证至少有nr个io_event。

    io_event

    //aio_abi.h

    struct io_event {

        __u64      data;      /* the data field from the iocb */

        __u64      obj;       /* what iocb this event came from */

        __s64      res;       /* result code for this event */

        __s64      res2;      /* secondary result */

    };

    io_event是用来描述返回结果的:

    (1)data对应iocb的aio_data,返回用户定义的指针;

    (2)obj就是之前提交IO任务时的iocb;

    (3)res和res2来表示IO任务完成的状态。

    io_getevents的流程:

    比较简单,扫描AIO上下文kiocxt的AIO Ring,检查是否有完成的io_event。如果至少有min_nr个完成IO事件(或者超时),则将完成的io_event拷贝到events,并返回io_event的个数或者错误;否则,将进程本身加入到kiocxt的等待队列,挂起进程。

    2 AIO工作队列

    2.1 创建AIO工作队列

    //aio.c

    static struct workqueue_struct *aio_wq;//AIO工作队列

    static int __init aio_setup(void)

    {

    ...

        aio_wq = create_workqueue("aio");

    ...

    2.2 创建work_struct

    static struct kioctx *ioctx_alloc(unsigned nr_events)

    {

    ...

        INIT_WORK(&ctx->wq, aio_kick_handler, ctx);

    函数aio_kick_hanlder由aio内核线程处理aio work时调用:

    static void aio_kick_handler(void *data)

    {

        requeue =__aio_run_iocbs(ctx);

    ...

        /*

         * we're in a worker thread already, don't use queue_delayed_work,

         */

        if (requeue)

           queue_work(aio_wq, &ctx->wq);

    }

    逻辑很简单,调用__aio_run_iocbs继续处理kioctx中的待完成异步IO,如果需要,则将aio work继续加入aio工作队列,下一次再处理。

    2.3 调度工作

    函数aio_run_iocbs发起异步IO请求后,如果kioctx的run_list还有未完成的IO,则调用queue_delayed_work将work_struct(kioctx->wq)加入到AIO工作队列aio_wq,由aio内核线程继续发起异步IO。

    3 AIO与epoll

    在使用AIO时,需要通过系统调用io_getevents获取已经完成的IO事件,而系统调用io_getevents是阻塞的,所以有2种方式:(1)使用多线程,用专门的线程调用io_getevents,参考MySQL5.5及以上版本;(2)对于单线程程序,可以通过epoll来使用AIO;不过,这需要系统调用eventfd的支持,而该系统调用只在2.6.22之后的内核才支持。

    eventfd 是 Linux-native aio 其中的一个 API,用来生成 file descriptors,这些 file descriptors 可为应用程序提供更高效 “等待/通知” 的事件机制。和 pipe 作用相似,但比 pipe 更好,一方面它只用到一个 file descriptor(pipe 要用两个),节省了内核资源;另一方面,eventfd 的缓冲区管理要简单得多,pipe 需要不定长的缓冲区,而 eventfd 全部缓冲只有定长 8 bytes。

    关于AIO与epoll的结合,请参考:

    nginx 0.8.x稳定版对linux aio的支持(http://www.pagefault.info/?p=76)

    4 AIO与direct IO

    AIO需要与direct IO结合。

    关于direct IO的简单实现,可以参考:

    Linux 中直接 I/O 机制的介绍

    http://www.ibm.com/developerworks/cn/linux/l-cn-directio/index.html

    5 案例

    (1)同步IO

    (2)Native AIO

  • 相关阅读:
    改变Prompt默认路径,Change Default Visual Studio Command Prompt Location
    msbuild,Build failed with Error MSB3073 exited with code 1
    the filename directory name or volume label syntax is incorrect
    常用sql语句记录
    EF中多表公共字段,以及设置EntityBase使所有实体类继承自定义类
    一种在MVC3框架里面设置模板页的方法,不使用_ViewStart
    Java内存模型
    Effective Java(1)-创建和销毁对象
    WireShark 查看UDP码流的丢包率
    拖延心理学读后感
  • 原文地址:https://www.cnblogs.com/skyofbitbit/p/3655981.html
Copyright © 2020-2023  润新知