• [Python自学] 爬虫(3)Requests库


    一、requests库相关概念

    1.requests和urllib的区别

    1)requests的底层实现就是urllib

    2)requests在python2和python3比较通用,类、方法等基本一样。

    3)requests更简单易用

    4)requests能够自动帮我们解压响应数据

    2.requests文档

    官方中文文档:https://requests.readthedocs.io/zh_CN/latest/

    二、response响应

    1.获取响应内容文本(str)

    import requests

    response = requests.get("https://www.baidu.com") response.encoding = "utf-8" print(response.text) # response.text的类型是str

    使用response.encoding="utf-8"是为其设置一个解码类型,避免解码错误,形成乱码。

    这里需要注意,我们使用什么样的解码类型,要和响应数据使用编码类型一致,有些相应使用的是gbk编码,我们也需要用gbk来解码。这里要根据实际的情况来调整。

    2.获取响应内容二进制数据

    import requests
    response = requests.get("https://www.baidu.com")
    response.encoding = "utf-8"
    print(response.content)  # 获取二进制数据
    print(response.content.decode("utf-8"))  # 将二进制解码为"utf-8",类型是str,和response.text一样

    三、requests小技巧

    1.转换cookies为字典类型

    import requests
    
    response = requests.get("http://www.baidu.com")
    
    # RequestsCookieJar 对象
    print(response.cookies)  # <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]>
    # 将RequestsCookieJar对象转换为字典
    cookie_dict = requests.utils.dict_from_cookiejar(response.cookies)
    print(cookie_dict)  # {'BDORZ': '27315'}

    使用requests.utils.dict_from_cookiejar方法可以将response.cookies转换为字典,方便使用。

    注意:我们在浏览器中看到的cookie可能有很多,但这些cookies不一定是服务器一次性设置的,而是在不同的请求中分别设置的,所以我们通过response.cookies获取的cookie只是其中的一部分。

    2.url地址编解码

    import requests
    
    url = "http://www.baidu.com/s?wd=魔兽世界"
    
    # url编码
    url_encoded = requests.utils.quote(url)
    print(url_encoded)  # http%3A//www.baidu.com/s%3Fwd%3D%E9%AD%94%E5%85%BD%E4%B8%96%E7%95%8C
    # url解码
    url_decoded = requests.utils.unquote(url_encoded)
    print(url_decoded)  # http://www.baidu.com/s?wd=魔兽世界

    3.忽略SSL证书验证

    当我们访问的HTTPS网站的证书不是花钱购买的证书(不被我们的机器认可,认为是不安全的,即浏览器上的小锁不是加锁状态),那么在发送请求的时候会提示证书验证失败。

    此时我们可以使用以下方法,不进行证书验证:

    import requests
    
    res = requests.get("https://www.12306.cn/mormhweb/", verify=False)  # 这里会出现一个强烈建议添加证书认证的警告
    print(res.content)

    4.设置requests请求超时时间

    import requests
    
    res = requests.get("https://www.12306.cn/mormhweb/", timeout=10)  # 10秒没响应就报异常,我们通过try except来捕获

    5.判断响应是否正常

    即判断响应状态码是否为200:

    import requests
    
    
    def _parse_url(url):
        response = requests.get(url, timeout=10)
        assert response.status_code == 200
        return response.content
    
    
    def parse_url(url):
        try:
            html_content = _parse_url(url)
        except Exception as err:
            print(err)
            html_content = None
    
        return html_content
    
    
    if __name__ == '__main__':
        cap_url = 'http://www.baidu.com/'
        print(parse_url(cap_url).decode('utf-8'))

    通过断言来研判响应状态码是否为200,如果不是200则抛出异常。

    6.使用retrying模块来重试请求

    import requests
    from retrying import retry  # 使用前要使用pip install retrying安装这个第三方模块
    
    
    @retry(stop_max_attempt_number=3)  # 使用retry装饰器,可以实现该函数最多尝试3次,如果还报错,则抛出异常
    def _parse_url(url):
        print("retry...")
        response = requests.get(url, timeout=10)
        assert response.status_code == 200
        return response.content
    
    def parse_url(url):
        try:
            html_content = _parse_url(url)
        except Exception as err:
            print(err)
            html_content = None
    
        return html_content
    
    
    if __name__ == '__main__':
        # cap_url = 'http://www.baidu.com/'
        cap_url = 'www.baidu.com/'  # 我们将url改成错误的,然后进行尝试retry的效果
        content = parse_url(cap_url)
        if content:
            print(content.decode('utf-8'))

    输出结果:

    retry...
    retry...
    retry...
    Invalid URL 'www.baidu.com/': No schema supplied. Perhaps you meant http://www.baidu.com/?

    可以看到,get请求被尝试了三次,三次都出错,才抛出异常,并被我们捕获。

    ===

  • 相关阅读:
    ZooKeeper学习第一期---Zookeeper简单介绍
    安装zookeeper(单机,伪集群)
    一张图看懂DNS域名解析全过程
    CDN基本工作过程
    第十七章、程序管理与 SELinux 初探
    直方图均衡化的缺点——不平坦
    电感耦合等离子体质谱法响应时间
    C++内容记录
    图像质量评价-NQM和WPSNR
    分颜色通道SR的相关论文
  • 原文地址:https://www.cnblogs.com/leokale-zz/p/12842096.html
Copyright © 2020-2023  润新知