• prefork的工作原理及配置及通过apache的ab测试提高负载 新风宇宙


    1、prefork的工作原理及配置

      prefork就是unix平台上缺省的mpm。它所采用的预派生子进程方式也是 apache 1.3中采用的模式。prefork本身并没有使用到线程,2.0版使用它是为了与1.3版保持兼容性;另一方面,prefork用单独的子进程来处理不同的请求,进程之间是彼此独立的,这也使其成为最稳定的mpm之一。

      如果是使用debian的apt安装的apache,使用"apache2ctl -l"来确定当前使用的mpm,应该会看到prefork.c(如果看到worker.c说明使用的是worker mpm,依此类推),在apache2.conf中可以找到这一段配置

    双击代码全选
    1
    2
    3
    4
    5
    6
    7
    <IfModule mpm_prefork_module>
    StartServers 5
    MinSpareServers 5
    MaxSpareServers 10
    MaxClients 150
    MaxRequestsPerChild 0
    </IfModule>

      prefork的工作原理是,控制进程在最初建立"StartServers"个子进程后,为了满足"MinSpareServers"设置的需要创建一个进程,等待一秒钟,继续创建两个,再等待一秒钟,继续创建四个……如此按指数级增加创建的进程数,最多达到每秒32个,直到满足 MinSpareServers设置的值为止。这就是预派生(prefork)的由来。这种模式可以不必在请求到来时再产生新的进程,从而减小了系统开销以增加性能。

      MaxSpareServers设置了最大的空闲进程数,如果空闲进程数大于这个值,apache会自动kill掉一些多余进程。这个值不要设得过大,但如果设的值比MinSpareServers小,apache会自动把其调整为MinSpareServers+ 1。如果站点负载较大,可考虑同时加大MinSpareServers和MaxSpareServers。

       MaxRequestsPerChild设置的是每个子进程可处理的请求数。每个子进程在处理了"MaxRequestsPerChild" 个请求后将自动销毁。0意味着无限,即子进程永不销毁。虽然缺省设为0可以使每个子进程处理更多的请求,但如果设成非零值也有两点重要的好处:

      可防止意外的内存泄漏;

      在服务器负载下降的时侯会自动减少子进程数。

      因此,可根据服务器的负载来调整这个值。但也不能太小,不然系统不断的开启新的apache进程,造成资源浪费。

      MaxClients是这些指令中最为重要的一个,设定的是apache可以同时处理的请求,是对apache性能影响最大的参数。其缺省值 150是远远不够的,如果请求总数已达到这个值(可通过ps -ef|grep http|wc -l来确认),那么后面的请求就要排队,直到某个已处理请求完毕。这就是系统资源还剩下很多而http访问却很慢的主要原因。系统管理员可以根据硬件配置和负载情况来动态调整这个值。虽然理论上这个值越大,可以处理的请求就越多,但apache默认的限制不能大于256。如果把这个值设为大于256,那么 apache将无法起动。事实上,256对于负载稍重的站点也是不够的。在apache 1.3中,这是个硬限制。如果要加大这个值,必须在“configure”前手工修改的源代码树下的src/include/httpd.h中查找 256,就会发现“#define hard_server_limit 256”这行。把256改为要增大的值(如4000),然后重新编译apache即可。在apache 2.0中新加入了serverlimit指令,使得无须重编译apache就可以加大maxclients。

    双击代码全选
    1
    2
    3
    4
    5
    6
    7
    8
    <IfModule mpm_prefork_module>
    StartServers 10
    MinSpareServers 10
    MaxSpareServers 15
    ServerLimit 600
    MaxClients 300
    MaxRequestsPerChild 600
    </IfModule>

      2、worker的工作原理及配置

      相对于prefork,worker是2.0 版中全新的支持多线程和多进程混合模型的mpm。由于使用线程来处理,所以可以处理相对海量的请求,而系统资源的开销要小于基于进程的服务器。但是, worker也使用了多进程,每个进程又生成多个线程,以获得基于进程服务器的稳定性。这种mpm的工作方式将是apache 2.0的发展趋势。

    双击代码全选
    1
    2
    3
    4
    5
    6
    7
    8
    <IfModule mpm_worker_module>
    StartServers 2
    MaxClients 150
    MinSpareThreads 25
    MaxSpareThreads 75
    ThreadsPerChild 25
    MaxRequestsPerChild 0
    </IfModule>

      worker的工作原理是,由主控制进程生成"startservers"个子进程,每个子进程中包含固定的"threadsperchild"线程数,各个线程独立地处理请求。同样,为了不在请求到来时再生成线程,minsparethreads和maxsparethreads设置了最少和最多的空闲线程数;而maxclients设置了所有子进程中的线程总数。如果现有子进程中的线程总数不能满足负载,控制进程将派生新的子进程。

      minsparethreads和maxsparethreads的最大缺省值分别是75和250。这两个参数对apache的性能影响并不大,可以按照实际情况相应调节。

      threadsperchild是worker mpm中与性能相关最密切的指令。threadsperchild的最大缺省值是64,如果负载较大,64也是不够的。这时要显式使用 threadlimit指令,它的最大缺省值是20000。上述两个值位于源码树server/mpm/worker/worker.c中的以下两行:

      究竟是选取prefork还是worker需要具体分析,相对而言高负载下perfork拥有更高的稳定性和运行速度,而worker的资源消耗更小。也已经有人在对两种工作模式作了各种测试:http://jed.dzhope.com/read.php/298.htm

      实际情况看来,worker现在还没能达到所期望的效果,性能比frefork差一些,资源消耗少一点。更可惜的是debian下worker还不能与PHP5完美结合,所以只能选用perfork了。

    /*在这个例子的一开始,我执行了这样一个命令 ab -k -n 10 -c 10 http://www.google.com/这个命令的意思是启动 ab ,向 www.google.com发送10个请求(-n 10) ,并每次发送10个请求(-c 10)——也就是说一次都发过去了。跟着下面的是 ab 输出的测试报告,红色部分是我添加的注释。*/

    C:\Program Files\Apache Software Foundation\Apache2.2\bin>ab -k -n 10 -c 10 http

    ://www.google.com/

    This is ApacheBench, Version 2.0.40-dev <$Revision: 1.146 $> apache-2.0

    Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/

    Copyright 1997-2005 The Apache Software Foundation, http://www.apache.org/

    Benchmarking www.google.com (be patient).....done

    Server Software:        GWS/2.1

    Server Hostname:        www.google.com

    Server Port:            80

    Document Path:          /

    Document Length:        230 bytes

    Concurrency Level:      10

    /*整个测试持续的时间*/

    Time taken for tests:   3.234651 seconds

    /*完成的请求数量*/

    Complete requests:      10

    /*失败的请求数量*/

    Failed requests:        0

    Write errors:           0

    Non-2xx responses:      10

    Keep-Alive requests:    10

    /*整个场景中的网络传输量*/

    Total transferred:      6020 bytes

    /*整个场景中的HTML内容传输量*/

    HTML transferred:       2300 bytes

    /*大家最关心的指标之一,相当于 LR 中的 每秒事务数 ,后面括号中的 mean 表示这是一个平均值*/

    Requests per second:    3.09 [#/sec] (mean)

    /*大家最关心的指标之二,相当于 LR 中的 平均事务响应时间 ,后面括号中的 mean 表示这是一个平均值*/

    Time per request:       3234.651 [ms] (mean)

    /*这个还不知道是什么意思,有知道的朋友请留言,谢谢 ^_^ */

    Time per request:       323.465 [ms] (mean, across all concurrent requests)

    /*平均每秒网络上的流量,可以帮助排除是否存在网络流量过大导致响应时间延长的问题*/

    Transfer rate:          1.55 [Kbytes/sec] received

    /*网络上消耗的时间的分解,各项数据的具体算法还不是很清楚*/

    Connection Times (ms)

                  min  mean[+/-sd] median   max

    Connect:       20  318 926.1     30    2954

    Processing:    40 2160 1462.0   3034    3154

    Waiting:       40 2160 1462.0   3034    3154

    Total:         60 2479 1276.4   3064    3184

    /*下面的内容为整个场景中所有请求的响应情况。在场景中每个请求都有一个响应时间,其中 50% 的用户响应时间小于 3064 毫秒,60 % 的用户响应时间小于 3094 毫秒,最大的响应时间小于 3184 毫秒*/

    Percentage of the requests served within a certain time (ms)

      50%   3064

      66%   3094

      75%   3124

      80%   3154

      90%   3184

      95%   3184

      98%   3184

      99%   3184

     100%   3184 (longest request)

    更多信息

    ab 不像 LR 那么强大,但是它足够轻便,如果只是在开发过程中想检查一下某个模块的响应情况,或者做一些场景比较简单的测试,ab 还是一个不错的选择——至少不用花费很多时间去学习 LR 那些复杂的功能,就更别说那 License 的价格了。

    下面是 ab 的详细参数解释,大家有兴趣的可以研究一下,最近没有足够多的时间研究,如果哪位朋友有兴趣希望可以帮忙翻译一下每个参数的含义,有问题讨论也欢迎在这里回帖 ^_^


    相关链接

    ab 是 Apache 的一个安装组件,所以需要下载 Apache 安装后才能使用,可以访问 Apache 的项目主页来下载http://httpd.apache.org/download.cgi

    ab 的更多信息可以参加 Apache 主页上的描述

    http://httpd.apache.org/docs/2.0/programs/ab.html

  • 相关阅读:
    优先队列的一种实现方式——堆
    iOS 批量打包
    Xcode 8 的 Debug 新特性 —- WWDC 2016 Session 410 & 412 学习笔记
    仿淘宝上拉进入详情页交互的实现
    iOS 10 的适配问题
    集成支付宝钱包支付 iOS SDK 的方法与经验
    Quick Touch – 在 iOS 设备运行的 “Touch Bar”
    iOS 开发中的 Tips(一)
    ReactiveCocoa 中 RACSignal 是怎样发送信号
    自定义下拉刷新控件
  • 原文地址:https://www.cnblogs.com/php5/p/2235862.html
Copyright © 2020-2023  润新知