Github上有一个俄国人 @Klen 对Aiohttp、Bottle、Django、Falcon、Flask、Muffin、Tornado、Pyramid、Weppy、Wheezy.Web等Python常用Web框架的性能做了一番测试,测试了三个项目:JSON数据的生成与对请求的响应、从远程服务器加载请求并响应、从数据库加载数据并传至模版。测试环境其实在作者的MBP上,测试代码开源在这里,测试结果在这里。
测试数据很详细,但是最后作者并没有给出任何结论。怀着好奇心,我对作者的数据进行了简单的处理。
数据处理的基本原则是对各个测试项目给一个基本均等的权重,这样得出各框架的总体成绩。具体操作时只处理各项测试结果中的Avg(ms)和Req/s两项。前者是平均耗时,越少越好,后者是每秒请求,越多越好。给各组数据中的Avg(ms)、Req/s两项配上合理的权重,以保证数据主体的数量级相同,然后分别加总。另外对从远程服务器加载请求并响应项目的timeout给上10的权重,使其数量级低于Avg(ms)一个数量级,并加总。具体公式如下:
Total_LowerBetter = JSON_Avg * 100 + Remote_request_Avg + Remote_timeout * 10 + Database_Avg * 5
Total_HigherBetter = JSON_Req / 10 + Remote_Req * 10 + Database_Req * 10
这两项数据的处理办法是
Total = 1/Total_LowerBetter * 5000 * 10000 + Total_HigherBetter
最终结果自然是越大越好,见下表:
Web Library | Total |
---|---|
Django | 3719.47 |
Pyramid | 6536.89 |
Flask | 6537.67 |
Weppy | 7419.57 |
Tornado | 8167.30 |
Falcon | 8936.47 |
Bottle | 9072.04 |
Wheezy.Web | 11021.38 |
Muffin | 14514.16 |
Aiohttp | 16941.44 |
处理成柱状图就是这个样子。
|
Django |**************** 3719.47
|
Pyramid |**************************** 6536.89
|
Flask |**************************** 6537.67
|
Weppy |******************************** 7419.57
|
Tornado |*********************************** 8167.30
|
Falcon |*************************************** 8936.47
|
Bottle |**************************************** 9072.04
|
Wheezy.Web |************************************************ 11021.38
|
Muffin |*************************************************************** 14514.16
|
Aiohttp |************************************************************************** 16941.44
|___________________________________________________________________________________________
这个处理过程很粗爆,参数稍有调整,其中的排名就会发生变动,因此不要纠结于诸如Webpy是不是一定比Flask强这样的问题,只能简单地认定Webpy和Flask大致在一个水平,而Aiohttp和Muffin则位于第一梯队。不过,Django倒是一如既往的低性能。
值得关注的是Wheezy.Web,这个框架偏科严重,其第一项和第三项的测试结果都是很强的,但第二项比较糟糕,感觉比较适合做移动App的后端。
以上都是娱乐,不负责任啊~~