• 爬虫系列(七) requests的基本使用


    一、requests 简介

    requests 是一个功能强大、简单易用的 HTTP 请求库,可以使用 pip install requests 命令进行安装

    下面我们将会介绍 requests 中常用的方法,详细内容请参考 官方文档

    二、requests 使用

    在开始讲解前,先给大家提供一个用于测试的网站,http://www.httpbin.org/

    这个网站可以在页面上返回所发送 请求 的相关信息,十分适合练习使用

    好了,下面正式开始!

    1、get 方法

    该方法用于向目标网址发送请求,接收响应

    该方法返回一个 Response 对象,其常用的属性和方法列举如下:

    • response.url:返回请求网站的 URL
    • response.status_code:返回响应的状态码
    • response.encoding:返回响应的编码方式
    • response.cookies:返回响应的 Cookie 信息
    • response.headers:返回响应头
    • response.content:返回 bytes 类型的响应体
    • response.text:返回 str 类型的响应体,相当于 response.content.decode('utf-8')
    • response.json():返回 dict 类型的响应体,相当于 json.loads(response.text)
    >>> import requests
    >>> response = requests.get('http://www.httpbin.org/get')
    >>> type(response)
    # <class 'requests.models.Response'>
    >>> print(response.url) # 返回请求网站的 URL
    # http://www.httpbin.org/get
    >>> print(response.status_code) # 返回响应的状态码
    # 200
    >>> print(response.encoding) # 返回响应的编码方式
    # None
    >>> print(response.cookies) # 返回响应的 Cookie 信息
    # <RequestsCookieJar[]>
    >>> print(response.headers) # 返回响应头
    # {'Connection': 'keep-alive', 'Server': 'gunicorn/19.9.0', 'Date': 'Sat, 18 Aug 2018 02:00:23 GMT', 'Content-Type': 'application/json', 'Content-Length': '275', 'Access-Control-Allow-Origin': '*', 'Access-Control-Allow-Credentials': 'true', 'Via': '1.1 vegur'}
    >>> type(response.content) # 返回 bytes 类型的响应体
    # <class 'bytes'>
    >>> type(response.text) # 返回 str 类型的响应体
    # <class 'str'>
    >>> type(response.json()) # 返回 dict 类型的响应体
    # <class 'dict'>
    

    该方法的参数说明如下:

    • url:必填,指定请求 URL

    • params:字典类型,指定请求参数,常用于发送 GET 请求时使用

      >>> import requests
      >>> url = 'http://www.httpbin.org/get'
      >>> params = {
          'key1':'value1',
          'key2':'value2'
      }
      >>> response = requests.get(url=url,params=params)
      >>> print(response.text)
      # {
      #   "args": {     # 我们设定的请求参数
      #     "key1": "value1", 
      #     "key2": "value2"
      #   }, 
      #   "headers": {
      #     "Accept": "*/*", 
      #     "Accept-Encoding": "gzip, deflate", 
      #     "Connection": "close", 
      #     "Host": "www.httpbin.org", 
      #     "User-Agent": "python-requests/2.19.1"
      #   }, 
      #   "origin": "110.64.88.141", 
      #   "url": "http://www.httpbin.org/get?key1=value1&key2=value2"
      # }
      
    • data:字典类型,指定表单信息,常用于发送 POST 请求时使用

      注意:此时应该使用 post 方法,只需要简单的将 get 替换成 post 即可

      >>> import requests
      >>> url = 'http://www.httpbin.org/post'
      >>> data = {
          'key1':'value1',
          'key2':'value2'
      }
      >>> response = requests.post(url=url,data=data)
      >>> print(response.text)
      # {
      #   "args": {}, 
      #   "data": "", 
      #   "files": {}, 
      #   "form": {     # 我们设定的表单数据
      #     'key1': 'value1',
      #     'key2': 'value2'
      #   }, 
      #   "headers": {
      #     "Accept": "*/*", 
      #     "Accept-Encoding": "gzip, deflate", 
      #     "Connection": "close", 
      #     "Content-Length": "17", 
      #     "Content-Type": "application/x-www-form-urlencoded", 
      #     "Host": "www.httpbin.org", 
      #     "User-Agent": "python-requests/2.19.1"
      #   }, 
      #   "json": null, 
      #   "origin": "116.16.107.178", 
      #   "url": "http://www.httpbin.org/post"
      # }
      
    • headers:字典类型,指定请求头部

      >>> import requests
      >>> url = 'http://www.httpbin.org/headers'
      >>> headers = {
          'USER-AGENT':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
      }
      >>> response = requests.get(url=url,headers=headers)
      >>> print(response.text)
      # {
      #   "headers": {
      #     "Accept": "*/*", 
      #     "Accept-Encoding": "gzip, deflate", 
      #     "Connection": "close", 
      #     "Host": "www.httpbin.org", 
      #     "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"     # 我们设定的请求头部
      #   }
      # }
      
    • proxies:字典类型,指定使用的代理

      >>> import requests
      >>> url = 'http://www.httpbin.org/ip'
      >>> proxies = {
          'http':'182.88.178.128:8123',
          'http':'61.135.217.7:80'
      }
      >>> response = requests.get(url=url,proxies=proxies)
      >>> print(response.text)
      # {
      #   "origin": "182.88.178.128"
      # }
      
    • cookies:字典类型,指定 Cookie

      >>> import requests
      >>> url = 'http://www.httpbin.org/cookies'
      >>> cookies = {
          'name1':'value1',
          'name2':'value2'
      }
      >>> response = requests.get(url=url,cookies=cookies)
      >>> print(response.text)
      # {
      #   "cookies": {
      #     "name1": "value1",
      #     "name2": "value2"
      #   }
      # }
      
    • auth:元组类型,指定登陆时的账号和密码

      >>> import requests
      >>> url = 'http://www.httpbin.org/basic-auth/user/password'
      >>> auth = ('user','password')
      >>> response = requests.get(url=url,auth=auth)
      >>> print(response.text)
      # {
      #   "authenticated": true, 
      #   "user": "user"
      # }
      
    • verify:布尔类型,指定请求网站时是否需要进行证书验证,默认为 True,表示需要证书验证

      假如不希望进行证书验证,则需要设置为 False

      >>> import requests
      >>> response = requests.get(url='https://www.httpbin.org/',verify=False)
      

      但是在这种情况下,一般会出现 Warning 提示,因为 Python 希望我们能够使用证书验证

      如果不希望看到 Warning 信息,可以使用以下命令消除

      >>> requests.packages.urllib3.disable_warnings()
      
    • timeout:指定超时时间,若超过指定时间没有获得响应,则抛出异常

    2、exceptions 模块

    exceptions 是 requests 中负责异常处理的模块,包含下面常见的异常类:

    • Timeout:请求超时
    • ConnectionError:网络问题,例如 DNS 故障,拒绝连接等
    • TooManyRedirects:请求超过配置的最大重定向数

    注意 :所有显式抛出的异常都继承自 requests.exceptions.RequestException

    >>> import requests
    >>> try:
    		response = requests.get('http://www.httpbin.org/get', timeout=0.1)
    except requests.exceptions.RequestException as e:
    		if isinstance(e,requests.exceptions.Timeout):
    			print("Time out")
            
    #  Time out
    

    【参考资料】

    【爬虫系列相关文章】

    版权声明:本博客属于个人维护博客,未经博主允许不得转载其中文章。
  • 相关阅读:
    如何给caffe添加新的layer ?
    caffe: test code Check failed: K_ == new_K (768 vs. 1024) Input size incompatible with inner product parameters.
    caffe: test code for PETA dataset
    matlab:对一个向量进行排序,返回每一个数据的rank 序号 。。。
    ant.design初探
    如何在react&webpack中引入图片?
    react&webpack使用css、less && 安装原则 --- 从根本上解决问题。
    如何制作高水平简历?&& 制作简历时需要注意的问题
    npm全局安装和局部文件安装区别
    职业人的基本素养
  • 原文地址:https://www.cnblogs.com/wsmrzx/p/9498005.html
Copyright © 2020-2023  润新知