• 详解Python requests 超时和重试的方法-转载


    转自:https://www.cnblogs.com/gl1573/p/10129382.html

    转自:https://blog.csdn.net/weixin_39198406/article/details/81482082

    网络请求不可避免会遇上请求超时的情况,在 requests 中,如果不设置你的程序可能会永远失去响应。

    超时又可分为连接超时和读取超时。

    连接超时

    连接超时指的是在你的客户端实现到远端机器端口的连接时(对应的是 connect() ),Request 等待的秒数。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    import time
    import requests
     
     
    print(time.strftime('%Y-%m-%d %H:%M:%S'))
    try:
      html = requests.get(url, timeout=5).text
      print('success')
    except requests.exceptions.RequestException as e:
      print(e)
     
    print(time.strftime('%Y-%m-%d %H:%M:%S'))

    因为 google 被墙了,所以无法连接,错误信息显示 connect timeout(连接超时)。

    2018-12-14 14:38:20
    HTTPConnectionPool(host='www.google.com.hk', port=80): Max retries exceeded with url: / (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x00000000047F80F0>, 'Connection to www.google.com.hk timed out. (connect timeout=5)'))
    2018-12-14 14:38:25

    就算不设置,也会有一个默认的连接超时时间(我测试了下,大概是21秒)。

    读取超时

    读取超时指的就是客户端等待服务器发送请求的时间。(特定地,它指的是客户端要等待服务器发送字节之间的时间。在 99.9% 的情况下这指的是服务器发送第一个字节之前的时间)。

    简单的说,连接超时就是发起请求连接到连接建立之间的最大时长,读取超时就是连接成功开始到服务器返回响应之间等待的最大时长。

    读取超时是没有默认值的,如果不设置,程序将一直处于等待状态。 我们的爬虫经常卡死又没有任何的报错信息,原因就在这里了。

    如果你设置了一个单一的值作为 timeout,如下所示:

    1
    r = requests.get('https://github.com', timeout=5)

    这一 timeout 值将会用作 connect 和 read 二者的 timeout。如果要分别制定,就传入一个元组:

    1
    r = requests.get('https://github.com', timeout=(3.05, 27))

    黑板课爬虫闯关的第四关正好网站人为设置了一个15秒的响应等待时间,拿来做说明最好不过了。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    import time
    import requests
     
     
    session = requests.Session()
    session.get(url_login)
     
    token = session.cookies['csrftoken']
    session.post(url_login, data={'csrfmiddlewaretoken': token, 'username': 'guliang21', 'password': '123qwe'})
     
    print(time.strftime('%Y-%m-%d %H:%M:%S'))
     
    try:
      html = session.get(url_pw, timeout=(5, 10)).text
      print('success')
    except requests.exceptions.RequestException as e:
      print(e)
     
    print(time.strftime('%Y-%m-%d %H:%M:%S'))

    错误信息中显示的是 read timeout(读取超时)。

    2018-12-14 15:20:47
    HTTPConnectionPool(host='www.heibanke.com', port=80): Read timed out. (read timeout=10)
    2018-12-14 15:20:57

    超时重试

    一般超时我们不会立即返回,而会设置一个三次重连的机制。

    1
    2
    3
    4
    5
    6
    7
    8
    def gethtml(url):
      i = 0
      while i < 3:
        try:
          html = requests.get(url, timeout=5).text
          return html
        except requests.exceptions.RequestException:
          i += 1

    其实 requests 已经帮我们封装好了。(但是代码好像变多了…)

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    import time
    import requests
    from requests.adapters import HTTPAdapter
     
    s = requests.Session()
    s.mount('http://', HTTPAdapter(max_retries=3))
    s.mount('https://', HTTPAdapter(max_retries=3))
     
    print(time.strftime('%Y-%m-%d %H:%M:%S'))
    try:
      r = s.get('http://www.google.com.hk', timeout=5)
      return r.text
    except requests.exceptions.RequestException as e:
      print(e)
    print(time.strftime('%Y-%m-%d %H:%M:%S'))

    max_retries 为最大重试次数,重试3次,加上最初的一次请求,一共是4次,所以上述代码运行耗时是20秒而不是15秒

    2018-12-14 15:34:03
    HTTPConnectionPool(host='www.google.com.hk', port=80): Max retries exceeded with url: / (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x0000000013269630>, 'Connection to www.google.com.hk timed out. (connect timeout=5)'))
    2018-12-14 15:34:23


    1. 连接超时

    服务器在指定时间内没有应答,抛出 requests.exceptions.ConnectTimeout

    requests.get('http://github.com', timeout=0.001)
    
    # 抛出错误
    requests.exceptions.ConnectTimeout: HTTPConnectionPool(host='github.com', port=80): Max retries exceeded with url: / (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7f1b16da75f8>, 'Connection to github.com timed out. (connect timeout=0.001)'))

    2. 连接、读取超时

    若分别指定连接和读取的超时时间,服务器在指定时间没有应答,抛出 requests.exceptions.ConnectTimeout
    - timeout=([连接超时时间], [读取超时时间])
    - 连接:客户端连接服务器并并发送http请求服务器
    - 读取:客户端等待服务器发送第一个字节之前的时间

    requests.get('http://github.com', timeout=(6.05, 0.01))
    
    # 抛出错误
    requests.exceptions.ReadTimeout: HTTPConnectionPool(host='github.com', port=80): Read timed out. (read timeout=0.01)

    3. 未知的服务器

    抛出 requests.exceptions.ConnectionError

    
    requests.get('http://github.comasf', timeout=(6.05, 27.05))
    
    # 抛出错误
    requests.exceptions.ConnectionError: HTTPConnectionPool(host='github.comasf', port=80): Max retries exceeded with url: / (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f75826665f8>: Failed to establish a new connection: [Errno -2] Name or service not known',))

    4. 代理连接不上

    代理服务器拒绝建立连接,端口拒绝连接或未开放,抛出 requests.exceptions.ProxyError

    requests.get('http://github.com', timeout=(6.05, 27.05), proxies={"http": "192.168.10.1:800"})
    
    # 抛出错误
    requests.exceptions.ProxyError: HTTPConnectionPool(host='192.168.10.1', port=800): Max retries exceeded with url: http://github.com/ (Caused by ProxyError('Cannot connect to proxy.', NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7fce3438c6d8>: Failed to establish a new connection: [Errno 111] Connection refused',)))

    5. 连接代理超时

    代理服务器没有响应 requests.exceptions.ConnectTimeout

    requests.get('http://github.com', timeout=(6.05, 27.05), proxies={"http": "10.200.123.123:800"})
    
    # 抛出错误
    requests.exceptions.ConnectTimeout: HTTPConnectionPool(host='10.200.123.123', port=800): Max retries exceeded with url: http://github.com/ (Caused by ConnectTimeoutError(<urllib3.connection.HTTPConnection object at 0x7fa8896cc6d8>, 'Connection to 10.200.123.123 timed out. (connect timeout=6.05)'))

     

    6. 代理读取超时

    说明与代理建立连接成功,代理也发送请求到目标站点,但是代理读取目标站点资源超时
    即使代理访问很快,如果代理服务器访问的目标站点超时,这个锅还是代理服务器背
    假定代理可用,timeout就是向代理服务器的连接和读取过程的超时时间,不用关心代理服务器是否连接和读取成功

    requests.get('http://github.com', timeout=(2, 0.01), proxies={"http": "192.168.10.1:800"})
    
    # 抛出错误
    requests.exceptions.ReadTimeout: HTTPConnectionPool(host='192.168.10.1:800', port=1080): Read timed out. (read timeout=0.5)

     

    7. 网络环境异常

    可能是断网导致,抛出 requests.exceptions.ConnectionError

    requests.get('http://github.com', timeout=(6.05, 27.05))
    
    # 抛出错误
    requests.exceptions.ConnectionError: HTTPConnectionPool(host='github.com', port=80): Max retries exceeded with url: / (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7fc8c17675f8>: Failed to establish a new connection: [Errno -3] Temporary failure in name resolution',))

    8. 官网的一些参考

    你可以告诉 requests 在经过以 timeout 参数设定的秒数时间之后停止等待响应。基本上所有的生产代码都应该使用这一参数。如果不使用,你的程序可能会永远失去响应:
    
    >>> requests.get('http://github.com', timeout=0.001)
    Traceback (most recent call last):
      File "<stdin>", line 1, in <module>
    requests.exceptions.Timeout: HTTPConnectionPool(host='github.com', port=80): Request timed out. (timeout=0.001)
    
    并不是整个下载响应的时间限制,而是如果服务器在 timeout 秒内没有应答,将会引发一个异常(更精确地说,是在 timeout 秒内没有从基础套接字上接收到任何字节的数据时)
    
    
    - 遇到网络问题(如:DNS 查询失败、拒绝连接等)时,Requests 会抛出一个 requests.exceptions.ConnectionError 异常。
    - 如果 HTTP 请求返回了不成功的状态码, Response.raise_for_status() 会抛出一个 HTTPError 异常。
    - 若请求超时,则抛出一个 Timeout 异常。
    - 若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。
    - 所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException

     

  • 相关阅读:
    被 5 整除的数
    天才的主意
    天才的主意
    谷歌浏览器 —— 快捷键(vimium:像使用 vim 一样操作当前页面)
    谷歌浏览器 —— 快捷键(vimium:像使用 vim 一样操作当前页面)
    膨胀和腐蚀操作中的不同结构元效果对比
    水果的辨异
    水果的辨异
    推理集 —— 特殊与差异
    推理集 —— 特殊与差异
  • 原文地址:https://www.cnblogs.com/tianleblog/p/11496177.html
Copyright © 2020-2023  润新知