• 网络爬虫之requests模块的使用+Github自动登入认证


       本篇博客将带领大家梳理爬虫中的requests模块,并结合Github的自动登入验证具体讲解requests模块的参数。

    一.引入:

        我们先来看如下的例子,初步体验下requests模块的使用:

    response = requests.get("http://dig.chouti.com/")
    print(type(response))
    print(response.status_code)
    print(response.encoding)
    print(response.cookies)

    打印结果如下: 

    <class 'requests.models.Response'>
    200
    UTF-8
    <RequestsCookieJar[<Cookie gpsd=b2ee6ddbe10a221eef5fb6584f9c6752 for .chouti.com/>, <Cookie JSESSIONID=aaaqP27NfnSMk7BRn76cw for dig.chouti.com/>, <Cookie route=37316285ff8286c7a96cd0b03d38e13b for dig.chouti.com/>]>

    以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

    二.Get请求

    1.基本get请求:只需要传入待访问的url地址即可访问,response.text返回的是网页的字符串源代码

    import requests
    response=requests.get('http://dig.chouti.com/')
    print(response.text, type(response.text))

    如果我们需要访问图片,音频,视频等二进制数据,那么就使用response.content即可。

    2.带参数的GET请求->params

    #在请求头内将自己伪装成浏览器,否则百度不会正常返回页面内容,这里使用headers参数;
    # 在实际生产环境下,我们通常使用一个开源的库:fake-useragent;
    使用方法如下:
    
    pip install fake-useragent或者pip3 install fake-useragent
    
    使用该库可以伪装成各大浏览器的请求:
    from fake_useragent import UserAgent
    
    ua = UserAgent()
    # ie浏览器的user agent
    print(ua.ie)
    
    # opera浏览器
    print(ua.opera)
    
    # Chrome浏览器
    print(ua.chrome)
    
    # firefox浏览器
    print(ua.firefox)
    
    # safri浏览器
    print(ua.safari)
    
    最实用的
    但我认为写爬虫最实用的是可以随意变换headers,一定要有随机性。在这里我写了三个随机生成user agent,三次打印都不一样,随机性很强,十分方便。
    
    from fake_useragent import UserAgent
    ua = UserAgent()
    print(ua.random)
    print(ua.random)
    print(ua.random)
    
    爬虫中具体使用方法
    
    import requests
    from fake_useragent import UserAgent
    ua = UserAgent()
    headers = {'User-Agent': ua.random}
    url = '待爬网页的url'
    resp = requests.get(url, headers=headers)
    #省略具体爬虫的解析代码,大家可以回去试试
    ...

    如果查询关键词是中文或者有其他特殊符号,则不得不进行url编码,例如我在百度中输入关键词美女,那么就要使用urllib模块的urlencode方法对文中进行编码了,如下所示:

    from urllib.parse import urlencode
    params = {
    'wd': '美女',
    }
    url = 'https://www.baidu.com/s?%s' % urlencode(params, encoding='utf-8')
    print(url) # 打印结果:https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3

     我们去浏览器中观察下,看是否满足我们的预期:

    实际上,requests模块已经帮我们封装好了上面的过程,直接使用params参数即可,继续看下面的代码,我们在百度中输入美女,然后向后翻页,观察此时浏览器中的地址变化:

     同时观察Chrome浏览器中Network的变化:

    通常在Query String Parameters里面的参数都是需要跟在url地址栏中的,这就是为什么我们刚才在浏览器中看到如下的地址:

    https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3&pn=10;pn=10表示我们向后翻到了第2页,针对这种情况,我们直接使用

    params参数,代码如下:

    import requests
    
    url = 'https://www.baidu.com/s?'
    response = requests.get(url, params={
        'wd': '美女',
        'pn': '10'
        }, headers={
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'
    })
    
    print(response.text)
    
    # 在这里将网页的源代码写入到文件中即可,然后我们打开test.html,结果证明与我们上面的截图是类似的 with open(
    "test.html", "w", encoding="utf-8") as file_obj: file_obj.write(response.text)

     3、带参数的GET请求->headers   # 注意清楚掉Chrom浏览器的cookie:Ctrl+Shift+Delete 快捷键

    #通常我们在发送请求时都需要带上请求头,请求头是将自身伪装成浏览器的关键,常见的有用的请求头如下:
    以下参数在Request Headers中: Host Referer #大型网站通常都会根据该参数判断请求的来源,主要是为了防止盗链
    该参数表示你访问我这个网站,那你是从哪个链接跳转过来的,一般通过该参数防止盗链接
    User-Agent #客户端,上面已经说过 Cookie #Cookie信息虽然包含在请求头里,但requests模块有单独的参数来处理他,headers={}内就不要放它了

    代码示例如下:

    #添加headers(服务器会识别请求头,不加可能会被拒绝访问,比如访问https://www.zhihu.com/explore)
    import requests
    response=requests.get('https://www.zhihu.com/explore')
    response.status_code #500
    
    #自己定制headers
    headers={
        'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.76 Mobile Safari/537.36',
    
    }
    respone=requests.get('https://www.zhihu.com/explore',
                         headers=headers)
    print(respone.status_code) #200

    4、带参数的GET请求->cookies

     我们以Github为例进行说明,输入正确的用户名和密码后,会跳转到github的首页,我们查看github.com的network选项,发现cookie中存在一个user_session,那么之后再进入github进行其他的操作就不用输入用户名和密码了。这里登入后,我们来查看笔者主页下面的star项目,然后判断知道创宇的爬虫题目在不在里面,只要能够正常拿到登入的cookie,那么我们就可以使用requests模块进行请求了,来看看如下的代码:

    reponse = requests.get('https://github.com/scalershare?tab=stars',
                           headers={
                               'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                           },
                           cookies={
                               'user_session': 'Ep7pf6npoofRzwWjUIFt7u8plrmYjFVPoOVy0-j8e9KtkvCM'
                           }
                           )
    
    print('知道创宇爬虫题目 持续更新版本' in reponse.text) # 打印结果为True
    表示我们直接拿到了正确登入的cookie,从而可以直接访问笔者的star项目

    那我们能不能借助于requests模块实现自动登入呢?这就需要使用到requests模块的post方法了。

    三.post请求

    1.我们首先来看看get请求与post请求的区别:

    #GET请求
    HTTP默认的请求方法就是GET
         * 没有请求体
         * 数据必须在1K之内!
         * GET请求数据会暴露在浏览器的地址栏中
    
    GET请求常用的操作:
           1. 在浏览器的地址栏中直接给出URL,那么就一定是GET请求
           2. 点击页面上的超链接也一定是GET请求
           3. 提交表单时,表单默认使用GET请求,但可以设置为POST
    
    
    #POST请求
    (1). 数据不会出现在地址栏中
    (2). 数据的大小没有上限
    (3). 有请求体
    (4). 请求体中如果存在中文,会使用URL编码!
    
    
    #!!!requests.post()用法与requests.get()完全一致,特殊的是requests.post()有一个data参数,用来存放请求体数据

    2、发送post请求,模拟浏览器的登录行为

    这里有一个非常重要的思路:对于模拟登入请求,我们采取的策略是先输入错误的信息,观察浏览器的包的具体情况,如果输对了正确的用户名和密码,那就无法分析包了,因为页面就直接跳转了。

    在上一步的基础上,我们首先退出github,同时清除掉Chrome浏览器的缓存,然后来一步步分析具体的登入流程:

    一 目标站点分析
        浏览器输入https://github.com/login
        然后输入错误的账号密码,抓包
        发现登录行为是post提交到:https://github.com/session,如下图所示:

    当输入错误的密码后,发现页面跳转到了session,请求头中而且带有cookie;并且抓包分析出有formdata,这是我们在form表单中输入的数据,如下:

    Formdata中的数据如下:

    commit:Sign in
    utf8:✓
    authenticity_token:Oiw0M00t+MhRG6ICWsQlDB8bjjqGq04zrOcXTmvSR2lHwmw+mf9yVshF4OIYh0SZJOa4u7CR6q0tc9bjEDqvhw==
    login:894808074@qq.com
    password:123456

    二 根据上面的流程,我们可以做出如下的分析:
    先GET:https://github.com/login拿到初始cookie与authenticity_token;这是我们的猜测,我们可以去login网页中搜寻下authenticity_token,看这个参数是否是服务器中给我们的,如下图所示:

     

    因此这里的authenticity_token就类似于我们Django中的csrf——token一样的作用,在客户端第一次访问登入页面时,服务器会返回给客户端浏览器;然后之后客户端再输入正确的用户名和密码,并且带上服务端返回给我们的authenticity_token参数一起发送给服务端。

    然后正常情况下,我们应该输入正确的用户名和密码,但是为了分析具体的页面走向,所以在这里我们故意输错密码,看页面具体往哪走,当输入错误密码后,返回POST:https://github.com/session;因此我们可以分析出来,当我们正确输入密码后,post提交数据的地址就是:https://github.com/session。

    第三步:我们输入正确的用户名和密码,然后点击登入,实际上,最终服务器判断时,会将先前的初始cookie,authenticity_token,用户名,密码等一起进行判断,只有都满足条件

    才会跳转到笔者github的首页,于是乎我们就可以拿到登入的cookie了,如下所示:

    注意:很多人在分析登入流程时,都喜欢输入正确的用户名和密码,然后分析网站的登入流程,实际上这种方法比较笨拙,一旦输入正确,页面就跳转了,我们无法观察。

    另外我们观察到当输入错误的密码后,页面除了跳转到session,而且请求头中出现了Refer参数,所以我们伪造时也要加上:

    根据上面的分析,我们通过requests模块来实现自动登入:

    import requests
    import re
    
    # 第一步:向https://github.com/login发送GET请求,拿到未授权的cookie,拿到服务器返回的authenticity_token
    response = requests.get('https://github.com/login',
                            headers={
                                'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                            },
                            )
    
    print(response.cookies)
    cookies = response.cookies.get_dict()  # 将cookie转换为字典
    print(cookies)
    authenticity_token = re.findall('name="authenticity_token".*?value="(.*?)"', response.text, re.S)[0]
    print(authenticity_token)
    
    # 第二步:带着未授权的cookie,authenticity_token,账号密码,向https://github.com/session发送POST请求,拿到输入正确用户名和密码后的授权的cookie
    response = requests.post('https://github.com/session',
                             cookies=cookies,
                             headers={
                                 'Referer': 'https://github.com/',
                                 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                             },
        # 注意Form表单中的数据,我们通过requests模块中的data参数来封装 data
    ={ 'commit': 'Sign in', 'utf8': '', 'authenticity_token': authenticity_token, 'login': '894808074@qq.com', 'password': 'xxxxxxx' # 输入你正确的github账号和密码 }, # allow_redirects=False ) # 因为cookies是浏览器返回给客户端的,所以我们可以从Http响应中拿到正确的cookie, # 当我们输入完正确的账号和密码后,服务端会生成一个cookie给我们,并将cookie绑定在response响应中返回给我们, # 所以我们可以使用response.cookies拿到服务端返回给我们的cookie login_cookies = response.cookies.get_dict() # print(response.status_code) # # print('Location' in response.headers) # # print(response.text) # print(response.history) # 第三步:带着cookie访问 reponse = requests.get('https://github.com/scalershare?tab=stars', cookies=login_cookies, headers={ 'Referer': 'https://github.com/', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36', }, ) print('知道创宇爬虫题目 持续更新版本' in reponse.text)

     打印结果如下:

    print(response.cookies)打印结果:
    <RequestsCookieJar[<Cookie logged_in=no for .github.com/>, <Cookie _gh_sess=eyJzZXNzaW9uX2lkIjoiOGU4YmM3NzFmZTI4ZmUyZjRlMDNlZTM1ZjE5ODdkZmQiLCJsYXN0X3JlYWRfZnJvbV9yZXBsaWNhcyI6MTUxNTQ4NjU3NTczNiwiX2NzcmZfdG9rZW4iOiJzem90U3hyNUpOUnJxcDdrWWJpRGcwWGtTTmtBQ0xUN1RMUTg4UkkyQy84PSIsImZsYXNoIjp7ImRpc2NhcmQiOltdLCJmbGFzaGVzIjp7ImFuYWx5dGljc19sb2NhdGlvbl9xdWVyeV9zdHJpcCI6InRydWUifX19--bccd9d2bde98b098f853735b0f2d47115c9d9f94 for github.com/>]>
    
    print(cookies)打印结果:
    {'_gh_sess': 'eyJzZXNzaW9uX2lkIjoiOGU4YmM3NzFmZTI4ZmUyZjRlMDNlZTM1ZjE5ODdkZmQiLCJsYXN0X3JlYWRfZnJvbV9yZXBsaWNhcyI6MTUxNTQ4NjU3NTczNiwiX2NzcmZfdG9rZW4iOiJzem90U3hyNUpOUnJxcDdrWWJpRGcwWGtTTmtBQ0xUN1RMUTg4UkkyQy84PSIsImZsYXNoIjp7ImRpc2NhcmQiOltdLCJmbGFzaGVzIjp7ImFuYWx5dGljc19sb2NhdGlvbl9xdWVyeV9zdHJpcCI6InRydWUifX19--bccd9d2bde98b098f853735b0f2d47115c9d9f94', 'logged_in': 'no'}
    False
    
    print(authenticity_token)打印结果
    QIYMXDRZNFNke3UkzLbKU79zR6B0GvZ6x+SkYKTVYWjKRxM/61wdH2coc1KPpvy43wAfNC39CpDdjnG7V7A08Q==

    根据上面的分析流程,我们来总结下整个Github的自动登入流程如下:

    1.浏览器中输入github的登入地址:https://github.com/login,向该地址发送一个GET请求,
    之所以要发送Get请求,是因为我们观察分析包的时候发现,第一次Request Headers中并没有cookie值;
    但是第二次当我们点击登入时候,发现Request Headers中居然有一个cookie值,既然我们都没有登入,居然有cookie
    我们就只能猜测这是服务器在我们第一次访问https://github.com/login时,随机发送给我们的;
    我们可以认为这是一个未授权的cookie,因为我们还没有登入,但是我们必须要拿到,下次我们向服务端
    请求登入时,会带着这个未经授权的cookie,这就是为什么要在第一步向https://github.com/login发送get请求的地址
    
    2.为了分析包的具体情况,我们首先错误的密码,观察浏览器中网址的跳转:https://github.com/session
    接着分析Request Headers中我们重点关注的三个参数:cookie,UA,Refer发现存在UA和Refer,因此得出结论
    我们在向https://github.com/session发送Post请求时,需要构造UA和Refer;同时发现观察到了
    form表单中的数据:Form Data,而且Form Data中多了一个authenticity_token的参数;因此猜想
    该参数应该是我们第一次向登入界面发送请求时,服务端发送给我们的,所以我们去login网页中搜寻authenticity_token参数,
    果然发现存在该参数,因此我们也需要将该参数封装到data参数中
    
    3.经过第二步,我们再输入正确的密码,然后点击登入即可跳转到笔者的Github首页,为了验证我们是否成功登入,所以我们让requests去请求
    https://github.com/scalershare?tab=stars地址,最终证明可以成功访问

     注意在做这个登入的实验时,一定要彻底清除掉cookie,要不然我们是无法实际看到Request Headers中的参数的,可以发现第一次访问login时,Request Headers中根本没有cookie,但是第二次我们还没有登入成功,它里面居然有cookie,所以我们才会认为这个cookie是服务端第一次发送给我们的。

    上面我们仔细分析了Github的自动登入流程,主要是怎么拿到cookie,其实requests已经帮我们封装好了,我们接着来看requests模块是怎么帮我们封装的:

    # requests帮我们处理cookies与session
    
    import requests
    import re
    
    session = requests.session()
    
    # 第一步:向 https://github.com/login发送GET请求,拿到未授权的cookie,拿到authenticity_token
    r1 = session.get('https://github.com/login',
                     headers={
                         'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                     },
                     )
    
    authenticity_token = re.findall('name="authenticity_token".*?value="(.*?)"', r1.text, re.S)[0]
    
    # 第二步:带着未授权的cookie,authenticity_token,账号密码,向https://github.com/session发送POST请求,拿到授权的cookie
    r2 = session.post('https://github.com/session',
                      headers={
                          'Referer': 'https://github.com/',
                          'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                      },
                      data={
                          'commit': 'Sign in',
                          'utf8': '',
                          'authenticity_token': authenticity_token,
                          'login': '894808074@qq.com',
                          'password': 'xxxxxxxxxx'
                      },
                      allow_redirects=False
                      )
    
    # 第三步:带着cookie访问
    r3 = session.get('https://github.com/settings/emails',
                     headers={
                         'Referer': 'https://github.com/',
                         'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
                     },
                     )
    
    print('知道创宇爬虫题目 持续更新版本' in r3.text)

    三.Requests中的编码问题

    有时候我们拿到的response.text不是utf-8的编码类型,尤其是当我们将爬取下来的内容保存到文件中时不指定文件编码,此时会出现错误,我们需要使用response.encoding指定下爬取内容的编码类型,来看下汽车之家的爬取例子:
    可以看到我们第一次访问汽车之家的网站时,Request Headers中是不会有cookie的,所有网站的第一次请求都是这样的:
    import requests
    
    response = requests.get('http://www.autohome.com/news')
    with open("autohome.html", 'w') as file_obj:
        file_obj.write(response.text)
    
    # 如果直接爬取汽车之家,会报错
    那是因为汽车之家网站返回的页面内容为gb2312编码的,而requests的默认编码为ISO-8859-1,如果不设置成gbk则中文乱码
    UnicodeEncodeError: 'gbk' codec can't encode character 'xa1' in position 76: illegal multibyte sequence
    
    因此我们设置爬取下来的response对象的编码类型为gbk
    import requests
    
    response = requests.get('http://www.autohome.com/news')
    response.encoding='gbk' 
    # print(response.text)
    with open("autohome.html", 'w') as file_obj:
        file_obj.write(response.text)
    
    然后打开autohome.html即可正常访问汽车之家的信息!

    四. requests中的二进制数据获取

    前面笔者提到过如果需要获取图片,视频,音频等二进制文件我们可以使用response.content来获取,但是如果视频比较大,例如10G,用response.content然后一下子写到文件中是不合理的,所以我们在这里需要借助于一个参数:stream;看如下的例子:

    import requests
    
    response = requests.get(
        'https://gss3.baidu.com/6LZ0ej3k1Qd3ote6lo7D0j9wehsv/tieba-smallvideo-transcode/1767502_56ec685f9c7ec542eeaf6eac93a65dc7_6fe25cd1347c_3.mp4',
        stream=True)
    
    with open(r'D:/b.mp4', 'wb') as f:
        for line in response.iter_content():  # 这里主要借助于iter_content方法,配合stream参数使用
            f.write(line)

    五.Requests中解析JSON

    先来看如下的例子:

    import requests
    response = requests.get('http://httpbin.org/get')
    print(response.text)

    打印结果如下,可以看到其是json格式的字符串

    {
      "args": {}, 
      "headers": {
        "Accept": "*/*", 
        "Accept-Encoding": "gzip, deflate", 
        "Connection": "close", 
        "Host": "httpbin.org", 
        "User-Agent": "python-requests/2.18.4"
      }, 
      "origin": "223.72.95.17", 
      "url": "http://httpbin.org/get"
    }

    如果我们想要使用,必须要使用json来反序列化,如下:

    import requests
    response = requests.get('http://httpbin.org/get')
    print(response.text, type(response.text)) # json字符串
    
    import json
    #
    res1 = json.loads(response.text)  # 太麻烦
    print(res1, type(res1)) # Python中的字典

    requests为我们提供了一种更加方便的操作:

    import requests
    response = requests.get('http://httpbin.org/get')
    import json
    res1 = json.loads(response.text)  # 太麻烦
    res2 = response.json()  # 直接获取json数据
    print(res1 == res2)  # True

    今天暂时整理到这里,后面我们继续整理!

     
  • 相关阅读:
    sql优化-mysql的慢查询
    LInux服务器防火墙-开放端口
    vim打开文件中文乱码解决方法总结
    查看指定文件夹或文件总的大小,文件夹下各个文件的大小
    grep -v 反选匹配内容(not操作)以及grep -E(or操作)
    查看Liunx服务器的磁盘使用情况df命令,以及查看磁盘分区lsblk命令
    top发现僵尸进程
    查看linux服务器内存使用情况
    GitHub 和 GitLab对比
    git与svn
  • 原文地址:https://www.cnblogs.com/pyspark/p/8195884.html
Copyright © 2020-2023  润新知