• workqueue --最清晰的讲解


    带你入门:

    1.INIT_WORK(struct work_struct *work, void (*function)(void *), void *data) 上面一句只是定义了work和work对应的操作。  要是在实际使用的时候还是需要你去在适当的条件下激活这个work。只有激活了这个work,  这个work才有运行的机会。这个激活操作接口是shudule_work或是queue_work。  这两个接口之后只是说这个work有了运行的机会,但是具体到什么时候运行,那要看你用哪个接口激活

    的。  如果是shudule_work的话,系统中有个events内核线程,这个线程会处理你用shudule_work接口激活  的所有work。如果是queue_work的话,一般这种情况都是自己创建了一个单独的处理线程,这样将  你激活的work和这个线程联系起来。至于什么时候运行,那就是events或是你定义的特定线程运行的时

    候。

    2.至于你提到的为什么要用到work。这个的话,我个人的理解是:一般用在对耗时处理上。比如,  当中断发生的时候,你可以在中断上下文中完成激活操作,让那些耗时的操作在work中完成。

    系统化讲解:

    1. 什么是workqueue Linux中的Workqueue机制就是为了简化内核线程的创建。通过调用workqueue的接口就能创建内核线程。并且可以根据当前系统CPU的个数创建线程的数量,使得线程处理的事务能够并行化。workqueue是内核中实现简单而有效的机制,他显然简化了内核daemon的创建,方便了用户的编程.

    工作队列(workqueue)是另外一种将工作推后执行的形式.工作队列可以把工作推后,交由一个内核线程去执行,也就是说,这个下半部分可以在进程上下文中执行。最重要的就是工作队列允许被重新调度甚至是睡眠。

    2. 数据结构 我们把推后执行的任务叫做工作(work),描述它的数据结构为work_struct, struct work_struct {     atomic_long_t data;       /*工作处理函数func的参数*/ #define WORK_STRUCT_PENDING 0        /* T if work item pending execution */ #define WORK_STRUCT_STATIC 1        /* static initializer (debugobjects) */ #define WORK_STRUCT_FLAG_MASK (3UL) #define WORK_STRUCT_WQ_DATA_MASK (~WORK_STRUCT_FLAG_MASK)     struct list_head entry;        /*连接工作的指针*/     work_func_t func;              /*工作处理函数*/ #ifdef CONFIG_LOCKDEP     struct lockdep_map lockdep_map; #endif };

    这些工作以队列结构组织成工作队列(workqueue),其数据结构为workqueue_struct, struct workqueue_struct {  struct cpu_workqueue_struct *cpu_wq;  struct list_head list;  const char *name;   /*workqueue name*/  int singlethread;   /*是不是单线程 - 单线程我们首选第一个CPU -0表示采用默认的工作者线程event*/  int freezeable;  /* Freeze threads during suspend */  int rt; }; 

    如果是多线程,Linux根据当前系统CPU的个数创建cpu_workqueue_struct 其结构体就是, truct cpu_workqueue_struct {  spinlock_t lock;/*因为工作者线程需要频繁的处理连接到其上的工作,所以需要枷锁保护*/  struct list_head worklist;  wait_queue_head_t more_work;  struct work_struct *current_work; /*当前的work*/  struct workqueue_struct *wq;   /*所属的workqueue*/  struct task_struct *thread; /*任务的上下文*/ } ____cacheline_aligned; 在在该结构主要维护了一个任务队列,以及内核线程需要睡眠的等待队列,另外还维护了一个任务上下文,即task_struct。 三者之间的关系如下:

    workqueue - G-tech - G-tech的博客

      3. 创建工作 3.1 创建工作queue a. create_singlethread_workqueue(name) 该函数的实现机制如下图所示,函数返回一个类型为struct workqueue_struct的指针变量,该指针变量所指向的内存地址在函数内部调用kzalloc动态生成。所以driver在不再使用该work queue的情况下调用void destroy_workqueue(struct workqueue_struct *wq)来释放此处的内存地址。

    workqueue - G-tech - G-tech的博客

      图中的cwq是一per-CPU类型的地址空间。对于create_singlethread_workqueue而言,即使是对于多CPU系统,内核也只负责创建一个worker_thread内核进程。该内核进程被创建之后,会先定义一个图中的wait节点,然后在一循环体中检查cwq中的worklist,如果该队列为空,那么就会把wait节点加入到cwq中的more_work中,然后休眠在该等待队列中。

    Driver调用queue_work(struct workqueue_struct *wq, struct work_struct *work)向wq中加入工作节点。work会依次加在cwq->worklist所指向的链表中。queue_work向cwq->worklist中加入一个work节点,同时会调用wake_up来唤醒休眠在cwq->more_work上的worker_thread进程。wake_up会先调用wait节点上的autoremove_wake_function函数,然后将wait节点从cwq->more_work中移走。

    worker_thread再次被调度,开始处理cwq->worklist中的所有work节点...当所有work节点处理完毕,worker_thread重新将wait节点加入到cwq->more_work,然后再次休眠在该等待队列中直到Driver调用queue_work...

    b. create_workqueue

    workqueue - G-tech - G-tech的博客

    相对于create_singlethread_workqueue, create_workqueue同样会分配一个wq的工作队列,但是不同之处在于,对于多CPU系统而言,对每一个CPU,都会为之创建一个per-CPU的cwq结构,对应每一个cwq,都会生成一个新的worker_thread进程。但是当用queue_work向cwq上提交work节点时,是哪个CPU调用该函数,那么便向该CPU对应的cwq上的worklist上增加work节点。

    c.小结 当用户调用workqueue的初始化接口create_workqueue或者create_singlethread_workqueue对workqueue队列进行初始化时,内核就开始为用户分配一个workqueue对象,并且将其链到一个全局的workqueue队列中。然后Linux根据当前CPU的情况,为workqueue对象分配与CPU个数相同的cpu_workqueue_struct对象,每个cpu_workqueue_struct对象都会存在一条任务队列。紧接着,Linux为每个cpu_workqueue_struct对象分配一个内核thread,即内核daemon去处理每个队列中的任务。至此,用户调用初始化接口将workqueue初始化完毕,返回workqueue的指针。Workqueue初始化完毕之后,将任务运行的上下文环境构建起来了,但是具体还没有可执行的任务,所以,需要定义具体的work_struct对象。然后将work_struct加入到任务队列中,Linux会唤醒daemon去处理任务。

     上述描述的workqueue内核实现原理可以描述如下:

    workqueue - G-tech - G-tech的博客

    3.2  创建工作 要使用工作队列,首先要做的是创建一些需要推后完成的工作。可以通过DECLARE_WORK在编译时静态地建该结构: DECLARE_WORK(name,void (*func) (void *), void *data); 这样就会静态地创建一个名为name,待执行函数为func,参数为data的work_struct结构。 同样,也可以在运行时通过指针创建一个工作: INIT_WORK(structwork_struct *work, woid(*func) (void *), void *data);

    4. 调度 a. schedule_work

    在大多数情况下, 并不需要自己建立工作队列,而是只定义工作, 将工作结构挂接到内核预定义的事件工作队列中调度, 在kernel/workqueue.c中定义了一个静态全局量的工作队列static struct workqueue_struct *keventd_wq;默认的工作者线程叫做events/n,这里n是处理器的编号,每个处理器对应一个线程。比如,单处理器的系统只有events/0这样一个线程。而双处理器的系统就会多一个events/1线程。 调度工作结构, 将工作结构添加到全局的事件工作队列keventd_wq,调用了queue_work通用模块。对外屏蔽了keventd_wq的接口,用户无需知道此参数,相当于使用了默认参数。keventd_wq由内核自己维护,创建,销毁。这样work马上就会被调度,一旦其所在的处理器上的工作者线程被唤醒,它就会被执行。

    b. schedule_delayed_work(&work,delay); 有时候并不希望工作马上就被执行,而是希望它经过一段延迟以后再执行。在这种情况下,同时也可以利用timer来进行延时调度,到期后才由默认的定时器回调函数进行工作注册。延迟delay后,被定时器唤醒,将work添加到工作队列wq中。

    工作队列是没有优先级的,基本按照FIFO的方式进行处理。

    5. 示例: #include <linux/module.h> #include <linux/init.h> #include <linux/workqueue.h>

    static struct workqueue_struct *queue=NULL; static struct work_struct   work;

    staticvoid work_handler(struct work_struct *data) {        printk(KERN_ALERT"work handler function. "); }

    static int __init test_init(void) {       queue=create_singlethread_workqueue("hello world");/*创建一个单线程的工作队列*/       if (!queue)             goto err;

           INIT_WORK(&work,work_handler);        schedule_work(&work);

          return0; err:       return-1; }

    static   void __exit test_exit(void) {        destroy_workqueue(queue); } MODULE_LICENSE("GPL"); module_init(test_init); module_exit(test_exit);

    =======================================================================

    分成两大部分,第一部分是用来执行work queue中每个节点上挂载的函数的内核线程,第二部分是从驱动程序的角度看work queue的使用

    第一部分 worker_thread内核线程
    Linux系统启动期间会创建一名为worker_thread线程,该线程创建之后就处于sleep状态。这里所谓的内核线程,从调度器的角度就是一可 以调度的进程,从代码的表现形式看,就是一函数。系统创建的这个worker_thread线程基于一workqueue_struct结构变量上(该结 构体变量的成员name为"events").

    第二部分 work queue的使用
    1.只考虑使用系统的keventd管理的工作队列
    驱动程序调用schedule_work向工作队列递交新的工作节点,schedule_work内部会唤醒worker_thread内核线程(使之进 程状态为可调度)。在下一次进程调度时刻,worker_thread被调度执行,其主要任务便是调用它所管理工作队列中每个工作节点上挂载的函数,调用 完毕该工作节点会从任务队列中被删除。当所有节点上的函数调用完毕,worker_thread继续sleep,直到schedule_work再次被某 个驱动程序调用。
    与使用驱动程序自己创建的工作对列的区别是:schedule_work内部是调用queue_work(keventd_wq, work),而使用驱动程序自己创建的工作队列在调用queue_work时的第一个参数是驱动程序自己创建的工作队列。

    2.驱动程序使用自己创建的工作队列
    这种情况驱动程序调用create_workqueue。该函数的原理跟1中基本是一样的,只不过再会创建一个内核进程,该内核进程的内核函数名字依然为worker_thread,只不过这个worker_thread工作在新的属于驱动程序自己的工作队列。
    使用方法是:
    a. 调用create_workqueue生成属于驱动程序自己的work queue. struct workqueue_struct *my_workqueue = create_workqueue("my_workqueue");
    b.调用queue_work象a中生成的my_workqueue中注册工作节点, queue_work(my_workqueue, work)

    这两种情况下的内核线程其实都是利用了一个名为kthreadd的内核线程来创建工作队列的worker_thread,其本质是向全局列表 kthread_create_list中加入相应的内核线程函数节点,由kthreadd来负责创建进程框架,然后运行 kthread_create_list中加入的节点上的内核线程函数。
    向kthread_create_list中每加入一个内核线程函数节点,都会唤醒kthreadd线程。

    当等待队列是空时,worker_thread会睡眠在该等待队列中。当driver调用queue_work时,再向等待队列中加入工作节点的同时,会唤醒睡眠在该等待队列上的worker_thread线程。
    关于worker_thread内核线程的创立过程:
    最开始由void __init init_workqueues(void)发起(Workqueue.c),依次的关键调用节点分别是(为了便于叙述,在内核代码基础上略有改动,但不影响核心调用过程)

    create_workqueue("events");
    __create_workqueue((("events"), 0, 0);
    __create_workqueue_key("events", 0, 0, NULL, NULL);

    在__create_workqueue_key("events", 0, 0, NULL, NULL)中:
    1).首先创建一个struct workqueue_struct指针型变量*wq, wq->name = "events".这个新建的队列指针将被记录在全局变量keventd_wq中.
        workqueue_struct定义如下:
       struct workqueue_struct {
            struct cpu_workqueue_struct *cpu_wq;
            struct list_head list;
            const char *name;
            int singlethread;
            int freezeable;                /* Freeze threads during suspend */
    #ifdef CONFIG_LOCKDEP
            struct lockdep_map lockdep_map;
    #endif
    };

    2).把wq所在的队列节点加入到一名为workqueues的全局变量中(list_add(&wq->list, &workqueues)).
    3).调用create_workqueue_thread(),最终调用kthread_create(worker_thread, cwq, fmt, wq->name, cpu)来生成内核线程worker_thread.
    Linux内核中最终是通过do_fork来生成内核线程(正如前面所说,这其实是个能被调度的进程,拥有自己的task_struct结构),这个过程 在内核中是个比较复杂的过程,比较重要的节点总结如下:在当前进程下调用do_fork来生成一个新进程时,会大量copy当前进程的 task_struct结构到新进程的task_struct变量中,新进程如果被调度运行,入口点(pc值)是 kernel_thread_helper函数,在该函数中会再次将pc值设置为kernel_thread()中的function指针,也就是在调用 kernel_thread函数时第一参数所表示的函数。

    所以,在Linux系统初始化期间,会生成一个新进程,该进程的执行线程/函数为worker_thread,该进程被创建出来之后的状态是STOP,这 意味着该线程无法进入调度队列直到针对该进程调用wake_up_process(),该进程才会真正进入调度队列,如果被调度,则开始运行 worker_thread函数。新进程被赋予的调度优先级为KTHREAD_NICE_LEVEL(-5),这个标志的实际含义将在Linux进程调度 的帖子里去写。然后对于worker_thread线程函数本身,会进一步调整调度优先级(set_user_nice(current,  -5)),这样worker_thread所在进程的优先值将为-10,在可抢占式的Linux内核中,如此高的调度优先级极易导致一个调度时点,即使当 前进程也许正运行在内核态,也可能被切换出CPU,代之以worker_thread.
    在kernel_thread_helper函数中,在调用内核线程函数之前设定返回地址为do_exit()函数,所以当内核线程函数退出的话将导致该进程的消失。
    比如ARM中的kernel_thread_helper函数代码:
    extern void kernel_thread_helper(void);
    asm(        ".section .text "
    "        .align "
    "        .type        kernel_thread_helper, #function "
    "kernel_thread_helper: "
    "        mov        r0, r1 "
    "        mov        lr, r3 "
    "        mov        pc, r2 "
    "        .size        kernel_thread_helper, . - kernel_thread_helper "
    "        .previous");


    mov lr, r3设定内核线程函数返回后的返回地址,Linux内核代码设定为do_exit().

    可以想象,象worker_thread这种内核线程函数,一般不会轻易退出,除非对内核线程函数所在的进程上调用kthread_stop函数。
    上述的kernel_thread_helper函数中的mov pc, r2将会导致worker_thread()函数被调用,该函数定义如下:
    static int worker_thread(void *__cwq)
    {
            struct cpu_workqueue_struct *cwq = __cwq;
            DEFINE_WAIT(wait);

            if (cwq->wq->freezeable)
                    set_freezable();

            set_user_nice(current, -5);

            for (;;) {
                    prepare_to_wait(&cwq->more_work, &wait, TASK_INTERRUPTIBLE);
                    if (!freezing(current) &&
                        !kthread_should_stop() &&
                        list_empty(&cwq->worklist))
                            schedule();
                    finish_wait(&cwq->more_work, &wait);

                    try_to_freeze();

                    if (kthread_should_stop())
                            break;

                    run_workqueue(cwq);
            }
    }

    正如前面猜测的那样,该函数不会轻易退出,其核心是一for循环,如果任务队列中有新的节点,则执行该节点上的函数(在run_workqueue()内部),否则worker_thread所在的进程将会继续休眠。

    对work  queue的深入理解需要了解Linux的调度机制,最基本的是Linux内核的调度时机,因为这关系到驱动程序开发者能对自己注册到任务队列函数的执行 时机有大体的了解。在2.4内核中,除了进程主动调用schedule()这种主动的调度方式外,调度发生在由内核态向用户态转变(从中断和系统调用返 回)的时刻,因为内核不可抢占性,所以内核态到内核态的转变时调度不会发生。而在2.6内核中,因为内核可抢占已经被支持,这意味着调度的时机除了发生在 内核态向用户态转变时,运行在内核态的进程也完全有可能被调度出处理器,比如当前进程重新允许抢占(调用preempt_enable())。在内核态的 进程允许被抢占,意味着对高优先级进程的调度粒度更细:如果当前进程允许被抢占,那么一旦当前调度队列中有比当前进程优先级更高的进程,当前进程将被切换 出处理器(最常见的情况是在系统调用的代码中接收到中断,当中断返回时,2.4代码会继续运行被中断的系统调用,而2.6代码的可抢占性会导致一个调度时 点,原先被中断的系统调用所在的进程可能会被调度队列中更高优先级的进程所取代)。关于进程的调度,会在另外的帖子中详细介绍。

    create_singlethread_workqueue(name)与create_workqueue(name)
    Driver调用这两个宏来创建自己的工作队列以及相应的内核进程(其内核线程函数为worker_thread,下来为了方便叙述,就简称该进程为worker_thread进程)
    1. create_singlethread_workqueue(name)
    该函数的实现机制如下图所示,函数返回一个类型为struct  workqueue_struct的指针变量,该指针变量所指向的内存地址在函数内部调用kzalloc动态生成。所以driver在不再使用该work queue的情况下调用void destroy_workqueue(struct workqueue_struct  *wq)来释放此处的内存地址。

    图中的cwq是一per-CPU类型的地址空间。对于create_singlethread_workqueue而言,即使是对于多CPU系统,内核也 只负责创建一个worker_thread内核进程。该内核进程被创建之后,会先定义一个图中的wait节点,然后在一循环体中检查cwq中的 worklist,如果该队列为空,那么就会把wait节点加入到cwq中的more_work中,然后休眠在该等待队列中。

    Driver调用queue_work(struct workqueue_struct *wq, struct work_struct  *work)向wq中加入工作节点。work会依次加在cwq->worklist所指向的链表中。queue_work向 cwq->worklist中加入一个work节点,同时会调用wake_up来唤醒休眠在cwq->more_work上的 worker_thread进程。wake_up会先调用wait节点上的autoremove_wake_function函数,然后将wait节点从 cwq->more_work中移走。

    worker_thread再次被调度,开始处理cwq->worklist中的所有work节点...当所有work节点处理完 毕,worker_thread重新将wait节点加入到cwq->more_work,然后再次休眠在该等待队列中直到Driver调用 queue_work...

  • 相关阅读:
    Idea中SpringBoot热部署搭建
    Redis 集群搭建
    centos7 vsftp搭建
    Centos 7 安装jdk
    Centos7 安装nginx
    Xshell 连接Linux
    python 的mysql 操作
    NIO/BIO
    java基础-3
    java基础-2
  • 原文地址:https://www.cnblogs.com/zxc2man/p/6604290.html
Copyright © 2020-2023  润新知