• Linux2.6内核实现的是NPTL


    NPTL是一个1×1的线程模型,即一个线程对于一个操作系统的调度进程,优点是非常简单。而其他一些操作系统比如Solaris则是MxN的,M对应创建的线程数,N对应操作系统可以运行的实体。(N<M),优点是线程切换快,但实现稍复杂 

    Linux2.6内核实现的是NPTL线程模型,依然是用进程来模拟线程,但新引入了线程组(进程组)的概念,使得实现效率更好。

    在2.4内核中,不存在线程组的概念,当运行一个多线程得程序时,使用ps命令,可以看到有许多个进程,在ps命令看来,线程基本上是等同于进程,在信号处理中,情况也是如此,只有指定进程号的线程,可以接收到信号。在2.6内核中引入了线程组的概念,在2.6内核中,如果使用ps命令看,一个多线程的进程,只会显示一个进程,在给线程组中的任何一个线程发送信号的时候,整个线程组中的进程都能收到信号。
    在内核task_struct中相关字段如下(位于include/linux/sched.h):

    代码全选

    937   struct task_struct  {
             ...
    993      pid_t pid;
    994      pid_t tgid;
             ...
    1013     struct task_struct *group_leader;   /* threadgroup leader */
             ...
    1017     struct list_head thread_group;
             ...
    1198  };

    pid,从字面上是process id,但其实是thread id。
    tgid,从字面上,应该是thread group id,也就是真正的process id。
    这一点,可以从系统调用getpid和gettid中看出来(位于kernel/timer.c)。

    代码全选

    954   asmlinkage long sys_getpid(void)
    955   {
    956      return current->tgid;
    957   }
    1100  asmlinkage long sys_gettid(void)
    1101  {
    1102     return current->pid;
    1103  }

    group_leader字段,指向线程组中的第一个线程,创建第一个线程的时候,group_leader指向自己,创建其后的线程时,指向第一个线程的task_struct结构;
    thread_group,当前进程所有线程的队列,对于group_leader,这是个队列头,对于其后的进程而言,通过这个字段,挂入队列中,可以通过此队列,遍历所有线程。
    线程组中各个线程的关系,是在do_fork中设定的,具体的代码在copy_process中(位于kernel/fork.c):代码全选

    959   copy_process()
    960   {
             ...
    1112     p->tgid = p->pid;
    1113     if (clone_flags & CLONE_THREAD)
    1114        p->tgid = current->tgid;
             ...
    1181     p->group_leader = p;
    1182     INIT_LIST_HEAD(&p->thread_group);
             ...
    1234     if (clone_flags & CLONE_THREAD) {
    1235        p->group_leader = current->group_leader;
    1236        list_add_tail_rcu(&p->thread_group, &p->group_leader->thread_group);
          ...
    1252     }

    1254     if (likely(p->pid)) {
                ...
    1259        if (thread_group_leader(p)) {
                   ...
    1266           list_add_tail_rcu(&p->tasks, &init_task.tasks);
                   ...
    1268        }
                ...
    1271     }
             ...
    1320  }

    1113-1114行说明在创建线程时,从父进程获取tgid,表明他们在同一个线程组中;1181-1182则对group_leader和thread_group初始化,对于第一个线程,则group_leader就是它自己;1234-1236行,将新创建的线程的group_leader设置成为父进程得group_leader,无论父进程是不是线程组中的第一个线程,它的group_leader都是指向第一个线程的task_struct,同时通过thread_group字段,挂入到第一个线程的thread_group队列中;1266行表明只有线程组中的第一个线程,才会通过tasks字段,挂入到init_task队列中。
    在引入线程组概念后,退出部分也引入了一个新的系统调用exit_group(位于kernel/exit.c)

    1055  NORET_TYPE void
    1056  do_group_exit(int exit_code)
    1057  {
    1058     BUG_ON(exit_code & 0x80); /* core dumps don't get here */
    1059
    1060     if (current->signal->flags & SIGNAL_GROUP_EXIT)
    1061        exit_code = current->signal->group_exit_code;
    1062     else if (!thread_group_empty(current)) {
    1063        struct signal_struct *const sig = current->signal;
    1064        struct sighand_struct *const sighand = current->sighand;
    1065        spin_lock_irq(&sighand->siglock);
    1066        if (sig->flags & SIGNAL_GROUP_EXIT)
    1067           /* Another thread got here before we took the lock.  */
    1068           exit_code = sig->group_exit_code;
    1069        else {
    1070           sig->group_exit_code = exit_code;
    1071           zap_other_threads(current);
    1072        }
    1073        spin_unlock_irq(&sighand->siglock);
    1074   }
    1075
    1076     do_exit(exit_code);
    1077     /* NOTREACHED */
    1078  }

    在1060行中,current->signal其实是线程组中所有线程共享的,对于调用exit_group的那个线程,如果是一个多线程的进程,就会进入1062-1074这部分代码,如果是单线程,则直接进入do_exit退出进程。这部分代码的主要操作在zap_other_threads中(位于kernel/signal.c)

       void zap_other_threads(struct task_struct *p)
    982   {
    983      struct task_struct *t;
    984   
    985      p->signal->flags = SIGNAL_GROUP_EXIT;
    986      p->signal->group_stop_count = 0;
    987
    988      if (thread_group_empty(p))
    989         return;
    990
    991      for (t = next_thread(p); t != p; t = next_thread(t)) {
    992         /*
    993          * Don't bother with already dead threads
    994          */
    995         if (t->exit_state)
    996            continue;
    997
    998         /* SIGKILL will be handled before any pending SIGSTOP */
    999         sigaddset(&t->pending.signal, SIGKILL);
    1000        signal_wake_up(t, 1);
    1001     }
    1002  }

    next_thread定义在include/linux/sched.h中,如下

    651  static inline struct task_struct *next_thread(const struct task_struct *p)
    1652  {
    1653     return list_entry(rcu_dereference(p->thread_group.next),
    1654             struct task_struct, thread_group);
    1655  }

    其实就是通过task_struct中的thread_group队列来遍历线程组中的所有线程。
    在其中,会在signal->flags中设置SIGNAL_GROUP_EXIT,同时,搜索线程组中所有进程,在每个线程中挂上一个SIGKILL信号,这样,当那些线程调度到运行的时候,就会处理SIGKILL信号,对于SIGKILL信号的处理,会调用do_group_exit,不过,当这次调用到do_group_exit的时候,将运行到1061行,然后就到了1076行的do_exit。这样,当线程组中的每个线程都运行过一遍后,整个线程组就退出了。

    POSIX Thread Library (NPTL)使Linux内核可以非常有效的运行使用POSIX线程标准写的程序。这里有一个测试数据,在32位机下,NPTL成功启动100000个线程只用了2秒,而不使用NPTL将需要大约15分钟左右的时间。

    历史


    在内核2.6以前的调度实体都是进程,内核并没有真正支持线程。它是能过一个系统调用clone()来实现的,这个调用创建了一份调用进程的拷贝,跟fork()不同的是,这份进程拷贝完全共享了调用进程的地址空间。LinuxThread就是通过这个系统调用来提供线程在内核级的支持的(许多以前的线程实现都完全是在用户态,内核根本不知道线程的存在)。非常不幸的是,这种方法有相当多的地方没有遵循POSIX标准,特别是在信号处理,调度,进程间通信原语等方面。

    很显然,为了改进LinuxThread必须得到内核的支持,并且需要重写线程库。为了实现这个需求,开始有两个相互竞争的项目:IBM启动的NGTP(Next Generation POSIX Threads)项目,以及Redhat公司的NPTL。在2003年的年中,IBM放弃了NGTP,也就是大约那时,Redhat发布了最初的NPTL。

    NPTL最开始在redhat linux 9里发布,现在从RHEL3起内核2.6起都支持NPTL,并且完全成了GNU C库的一部分。

    设计

    NPTL使用了跟LinuxThread相同的办法,在内核里面线程仍然被当作是一个进程,并且仍然使用了clone()系统调用(在NPTL库里调用)。但是,NPTL需要内核级的特殊支持来实现,比如需要挂起然后再唤醒线程的线程同步原语futex.

    NPTL也是一个1*1的线程库,就是说,当你使用pthread_create()调用创建一个线程后,在内核里就相应创建了一个调度实体,在linux里就是一个新进程,这个方法最大可能的简化了线程的实现。

    除NPTL的1*1模型外还有一个m*n模型,通常这种模型的用户线程数会比内核的调度实体多。在这种实现里,线程库本身必须去处理可能存在的调度,这样在线程库内部的上下文切换通常都会相当的快,因为它避免了系统调用转到内核态。然而这种模型增加了线程实现的复杂性,并可能出现诸如优先级反转的问题,此外,用户态的调度如何跟内核态的调度进行协调也是很难让人满意。

    本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/guosha/archive/2008/09/22/2960186.aspx

    ---------------------------------------------------------------------------

    有一个问题一直没有想清楚,请教牛人,谢谢。
    资源描述:
            系统环境:4个CPU, linux2.6内核,NPTL,SMP。
           
    问题:
            (进程是资源单元;线程是执行单元。)
            一个进程拥有4个线程,这4个线程同时在4个CPU上运行。
            问1:系统的调度单位是进程还是线程呢?(针对linux2.6内核);
            问2:如果调度单位是线程,每个线程都应该运行在同一个进程的上下文中,如果这样的话就需要对进程上下文加锁;同时如果有其他进程的线程也运行在同一个CPU上,那么进程的上下文切换会非常频繁?
                 如果调度单位是进程,又没有办法解释同一个进程中的4个线程同时跑在4个CPU上?
            问3:看到一篇文章说“SMP的负载均衡是按进程数计算的”不知道是否正确。
                 如果正确,同一个进程的所有线程应该分配到同一个CPU上,不解?

    答:

    问题1:
        linux内核中的调度单位总是一个进程。但是内核中有对线程的支持。
    问题2:
        既然在linux的线程就是一个进程.就不存在什么所有线程都在同一进程上下文。而且这个观点是错误的。一个线程是什么?线程只是一个进程的子集。也就是说是一个进程上下文的子集。而且每个线程的上下文的很少有交集。除非两个线程之间需要通信。linux中进程所传建的线程本质就是进程。只不过这些子进程和父进程看到的都是同一地址空间,共享资源。 恢复一个线程的运行只需要恢复线程上下文。既然是线程在运行,何来进程上下文? 线程的实现方式不同.但原理本质一样。 既然linux的调度单位是进程,而线程又是以进程实现的.所以进程的四个线程在4个CPU上同时运行是可能的.只要不存在互斥。

    问题3:
        这个是高级问题... 不清楚...楼主可以goolge下.应该很多文章和论文的。
  • 相关阅读:
    3. 算法分析
    4. union-find算法
    1.基础编程模型和数据抽象
    2. 背包,队列和栈
    .NET Core 单元测试
    ASP.NET Core Web API
    ASP.NET Core MVC 之区域(Area)
    ASP.NET Core MVC 之依赖注入 Controller
    ASP.NET Core MVC 之依赖注入 View
    微服务架构学习与思考(04):微服务技术体系
  • 原文地址:https://www.cnblogs.com/diegodu/p/3865888.html
Copyright © 2020-2023  润新知