• python运维常用模块(七)——web探测模块pycurl


    1.模块介绍

    pycurl(http://pycurl.sourceforge.net)是一个用C语言写的libcurl Python实现,功能非常强大,支持的操作协议有FTP、HTTP、HTTPS、TELNET等,可以理解成Linux下curl命令功能的Python封装,简单易用。本节通过调用pycurl提供的方法,实现探测Web服务质量的情况,比如响应的HTTP状态码、请求延时、HTTP头信息、下载速度等,利用这些信息可以定位服务响应慢的具体环节,下面详细进行说明

    2.模块常用方法说明

    pycurl.Curl()类实现创建一个libcurl包的Curl句柄对象,无参数。更多关于libcurl包的介绍见http://curl.haxx.se/libcurl/c/libcurltutorial.html
    下面介绍Curl对象几个常用的方法。
    close()方法,对应libcurl包中的curl_easy_cleanup方法,无参数,实现关闭、回收Curl对象。
    perform()方法,对应libcurl包中的curl_easy_perform方法,无参数,实现Curl对象请求的提交。
    setopt(option,value)方法,对应libcurl包中的curl_easy_setopt方法,参数option是通过libcurl的常量来指定的,参数value的值会依赖option,可以是一个字符串、整型、长整型、文件对象、列表或函数等。下面列举常用的常量列表:

    # 创建一个curl对象
    c = pycurl.Curl()   
    
    # 连接的等待时间,设置为0则不等待 
    c.setopt(pycurl.CONNECTTIMEOUT,5)
    
    # 请求超时时间  
    c.setopt(pycurl.TIMEOUT,5)
    
    # 是否屏蔽下载进度条,非0则屏蔽    
    c.setopt(pycurl.NOPROGRESS,0)  
     
    # 指定HTTP重定向的最大数  
    c.setopt(pycurl.MAXREDIRS,5)  
    
    # 完成交互后强制断开连接,不重用  
    c.setopt(pycurl.FORBID_REUSE,1)  
    
    # 强制获取新的连接,即替代缓存中的连接    
    c.setopt(pycurl.FRESH_CONNECT,1) 
     
    # 设置保存DNS信息的时间,默认为120秒   
    c.setopt(pycurl.DNS_CACHE_TIMEOUT,60)   
    
    # 指定请求的URL  
    c.setopt(pycurl.URL,"http://www.baidu.com")
      
    # 配置请求HTTP头的User-Agent   
    c.setopt(pycurl.USERAGENT,"Mozilla/5.2 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50324)")    
    
    # 将返回的HTTP HEADER定向到回调函数getheader
    c.setopt(pycurl.HEADERFUNCTION, getheader)
    
    # 将返回的内容定向到回调函数getbody  
    c.setopt(pycurl.WRITEFUNCTION, getbody)  
     
    # 将返回的HTTP HEADER定向到fileobj文件对象 
    c.setopt(pycurl.WRITEHEADER, fileobj)  
       
    # 将返回的HTML内容定向到fileobj文件对象
    c.setopt(pycurl.WRITEDATA, fileobj)    
    

    getinfo(option)方法,对应libcurl包中的curl_easy_getinfo方法,参数option是通过libcurl的常量来指定的。
    下面列举常用的常量列表:

    # 创建一个curl对象
    c = pycurl.Curl()  
    
    # 返回的HTTP状态码
    c.getinfo(pycurl.HTTP_CODE)
    
    # 传输结束所消耗的总时间 
    c.getinfo(pycurl.TOTAL_TIME)
    
    # DNS解析所消耗的时间
    c.getinfo(pycurl.NAMELOOKUP_TIME)
    
    # 建立连接所消耗的时间 
    c.getinfo(pycurl.CONNECT_TIME)
    
    # 从建立连接到准备传输所消耗的时间 
    c.getinfo(pycurl.PRETRANSFER_TIME)
    
    # 从建立连接到传输开始消耗的时间
    c.getinfo(pycurl.STARTTRANSFER_TIME)
    
    # 重定向所消耗的时间
    c.getinfo(pycurl.REDIRECT_TIME)
    
    # 上传数据包大小
    c.getinfo(pycurl.SIZE_UPLOAD)
    
    # 下载数据包大小
    c.getinfo(pycurl.SIZE_DOWNLOAD) 
    
    # 平均下载速度
    c.getinfo(pycurl.SPEED_DOWNLOAD)
    
    # 平均上传速度
    c.getinfo(pycurl.SPEED_UPLOAD)
    
    # HTTP头部大小
    c.getinfo(pycurl.HEADER_SIZE)
    

    我们利用libcurl包提供的这些常量值来达到探测web服务质量的目的。

    3.实践:实现探测web服务质量

    HTTP服务是最流行的互联网应用之一,服务质量的好坏关系到用户体验以及网站的运营服务水平。最常用的有两个标准,一为服务的可用性,比如是否处于正常提供服务状态,而不是出现404页面未找到或500页面错误等;二为服务的响应速度,比如静态类文件下载时间都控制在毫秒级,动态CGI为秒级。本示例使用pycurl的setopt与getinfo方法实现HTTP服务质量的探测,获取监控URL返回的HTTP状态码,HTTP状态码采用pycurl.HTTP_CODE常量得到,以及从HTTP请求到完成下载期间各个环节的响应时间,通过pycurl.NAMELOOKUP_TIME、pycurl.CONNECT_TIME、pycurl.PRETRANSFER_TIME、pycurl.R等常量来实现。另外通过pycurl.WRITEHEADER、pycurl.WRITEDATA常量,得到目标URL的HTTP响应头部及页面内容。

    实现源码如下:

    #!/usr/bin/python3
    import os,sys
    import pycurl
    import time
    # 探测的目标URL
    URL="http://www.baidu.com"
    # 创建一个curl对象
    c=pycurl.Curl()
    # 定义请求的URL常量
    c.setopt(pycurl.URL,URL)
    # 定义连接的等待时间,设置为0则不等待
    c.setopt(pycurl.CONNECTTIMEOUT,5)
    # 定义请求超时时间
    c.setopt(pycurl.TIMEOUT,5)
    # 屏蔽下载进度条
    c.setopt(pycurl.NOPROGRESS,1)
    # 完成交互后强制断开连接,不重用
    c.setopt(pycurl.FORBID_REUSE,1)
    # 指定HTTP重定向的最大数为1
    c.setopt(pycurl.MAXREDIRS,1)
    # 设置保存DNS信息的时间为30s
    c.setopt(pycurl.DNS_CACHE_TIMEOUT,30)
    # 创建一个文件对象,以"wb"方式打开,用来存储返回的http头部及页面内容
    indexfile=open(os.path.dirname(os.path.realpath(__file__))+"/content.txt","wb")
    # 将返回的HTML内容定向到indexfile文件对象
    c.setopt(pycurl.WRITEDATA,indexfile)
    
    try:
        # 提交请求
        c.perform()
    except Exception as e:
        print("connection error: "+str(e))
        indexfile.close()
        c.close()
        sys.exit()
    
    # 获取DNS解析时间
    NAMELOOKUP_TIME=c.getinfo(c.NAMELOOKUP_TIME)
    # 获取建立连接时间
    CONNECT_TIME=c.getinfo(c.CONNECT_TIME)
    # 获取从建立连接到准备传输所消耗的时间
    PRETRANSFER_TIME=c.getinfo(c.PRETRANSFER_TIME)
    # 获取从建立连接到传输开始消耗的时间
    STARTTRANSFER_TIME=c.getinfo(c.STARTTRANSFER_TIME)
    # 获取传输的总时间
    TOTAL_TIME=c.getinfo(c.TOTAL_TIME)
    # 获取HTTP状态码
    HTTP_CODE=c.getinfo(c.HTTP_CODE)
    # 获取下载数据包大小
    SIZE_DOWNLOAD=c.getinfo(c.SIZE_DOWNLOAD)
    # 获取HTTP头部大小
    HEADER_SIZE=c.getinfo(c.HEADER_SIZE)
    # 获取平均下载速度
    SPEED_DOWNLOAD=c.getinfo(c.SPEED_DOWNLOAD)
    
    # 打印输出相关数据
    print("HTTP状态码: %s" %(HTTP_CODE))
    print("DNS解析时间: %.2f ms" %(NAMELOOKUP_TIME*1000))
    print("建立连接时间: %.2f ms" %(CONNECT_TIME*1000))
    print("准备传输时间: %.2f ms" %(PRETRANSFER_TIME*1000))
    print("传输开始时间: %.2f ms" %(STARTTRANSFER_TIME*1000))
    print("传输结束总时间: %.2f ms" %(TOTAL_TIME*1000))
    print("下载数据包大小: %d bytes/s" %(SIZE_DOWNLOAD))
    print("HTTP头部大小: %d byte" %(HEADER_SIZE))
    print("平均下载速度: %d bytes/s" %(SPEED_DOWNLOAD))
    
    # 关闭文件及curl对象
    indexfile.close()
    c.close()
    

    执行结果:

    [root@prometheus01 ~]# python3 simple12.py 
    HTTP状态码: 200
    DNS解析时间: 13.71 ms
    建立连接时间: 22.00 ms
    准备传输时间: 22.06 ms
    传输开始时间: 34.05 ms
    传输结束总时间: 73.93 ms
    下载数据包大小: 348188 bytes/s
    HTTP头部大小: 1269 byte
    平均下载速度: 4709507 bytes/s
    
  • 相关阅读:
    SQL Server存储过程(二)
    WPF 小知识 (设置背景图)
    关于SQL Server中索引使用及维护简介
    学习asp.net比较完整的流程(转)
    web开发常用默认端口
    接口和类的几大区别
    WEB建站规划之建站目的
    个人经验:页面无刷新传输数据的多种方法总结
    旅游电子商务探讨
    vs2008中文版提供下载(包含中文msdn)
  • 原文地址:https://www.cnblogs.com/even160941/p/16081884.html
Copyright © 2020-2023  润新知