• Python爬虫模拟登录带验证码网站


    问题分析:

    1、爬取网站时经常会遇到需要登录的问题,这是就需要用到模拟登录的相关方法。python提供了强大的url库,想做到这个并不难。这里以登录学校教务系统为例,做一个简单的例子。

    2、首先得明白cookie的作用,cookie是某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据。因此我们需要用Cookielib模块来保持网站的cookie。

    3、这个是要登陆的地址 http://202.115.80.153/ 和验证码地址 http://202.115.80.153/CheckCode.aspx

    4、可以发现这个验证码是动态更新的每次打开都不一样,一般这种验证码和cookie是同步的。其次想识别验证码肯定是吃力不讨好的事,因此我们的思路是首先访问验证码页面,保存验证码、获取cookie用于登录,然后再直接向登录地址post数据。

    5、首先通过抓包工具或者火狐或者谷歌浏览器分析登录页面需要post的request和header信息。以谷歌浏览器为例。

    从中可以看出需要post的url并不是访问的页面,而是http://202.115.80.153/default2.aspx

    其中需要提交的表单数据中txtUserName和TextBox2分别用户名和密码。

    现在直接到关键部分 上代码!!

     1 import urllib2
     2 import cookielib
     3 import urllib
     4 import re
     5 import sys
     6 '''模拟登录'''
     7 reload(sys)
     8 sys.setdefaultencoding("utf-8")
     9 # 防止中文报错
    10 CaptchaUrl = "http://202.115.80.153/CheckCode.aspx"
    11 PostUrl = "http://202.115.80.153/default2.aspx"
    12 # 验证码地址和post地址
    13 cookie = cookielib.CookieJar()
    14 handler = urllib2.HTTPCookieProcessor(cookie)
    15 opener = urllib2.build_opener(handler)
    16 # 将cookies绑定到一个opener cookie由cookielib自动管理
    17 username = 'username'
    18 password = 'password123'
    19 # 用户名和密码
    20 picture = opener.open(CaptchaUrl).read()
    21 # 用openr访问验证码地址,获取cookie
    22 local = open('e:/image.jpg', 'wb')
    23 local.write(picture)
    24 local.close()
    25 # 保存验证码到本地
    26 SecretCode = raw_input('输入验证码: ')
    27 # 打开保存的验证码图片 输入
    28 postData = {
    29 '__VIEWSTATE': 'dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==',
    30 'txtUserName': username,
    31 'TextBox2': password,
    32 'txtSecretCode': SecretCode,
    33 'RadioButtonList1': '学生',
    34 'Button1': '',
    35 'lbLanguage': '',
    36 'hidPdrs': '',
    37 'hidsc': '',
    38 }
    39 # 根据抓包信息 构造表单
    40 headers = {
    41 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    42 'Accept-Language': 'zh-CN,zh;q=0.8',
    43 'Connection': 'keep-alive',
    44 'Content-Type': 'application/x-www-form-urlencoded',
    45 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',
    46 }
    47 # 根据抓包信息 构造headers
    48 data = urllib.urlencode(postData)
    49 # 生成post数据 ?key1=value1&key2=value2的形式
    50 request = urllib2.Request(PostUrl, data, headers)
    51 # 构造request请求
    52 try:
    53 response = opener.open(request)
    54 result = response.read().decode('gb2312')
    55 # 由于该网页是gb2312的编码,所以需要解码
    56 print result
    57 # 打印登录后的页面
    58 except urllib2.HTTPError, e:
    59 print e.code
    60 # 利用之前存有cookie的opener登录页面

    登录成功后便可以利用该openr访问其他需要登录才能访问的页面。

  • 相关阅读:
    Shell脚本 --- 正则表达式和文本处理工具
    python的eval、exec函数
    内置函数 Built-in Functions
    关于Python中的lambda
    Python中*args和**kwargs的区别
    Python基础-10-文件操作
    Python基础-09-内置函数
    Python基础-08-函数
    Python基础-07-集合
    Python基础-06-字典
  • 原文地址:https://www.cnblogs.com/wenhongyu/p/7280790.html
Copyright © 2020-2023  润新知