• python使用ip代理抓取网页


      在抓取一个网站的信息时,如果我们进行频繁的访问,就很有可能被网站检测到而被屏蔽,解决这个问题的方法就是使用ip代理 。在我们接入因特网进行上网时,我们的电脑都会被分配一个全球唯一地ip地址供我们使用,而当我们频繁访问一个网站时,网站也正是因为发现同一个ip地址访问多次而进行屏蔽的,所以这时候如果我们使用多个ip地址进行随机地轮流访问,这样被网站检测的概率就很小了,这时候如果我们再使用多个不同的headers,这时候就有多个ip+主机的组合,访问时被发现的概率又进一步减小了。

    关于代码中ip代理的使用,下面介绍一下:

    步骤:

    1、urllib2库中的ProxyHandler类,通过此类可以使用ip代理访问网页

    proxy_support=urllib2.ProxyHandler({}),其中参数是一个字典{‘类型':'代理ip:端口号'}

    2、定制、创建一个opener

    opener=urllib2.build_opener(proxy_support)

    3、(1)安装opener

              urlib2.install_opener(opener)

           (2)调用默认的opener

             opener.open(url)

    对于没有设置反爬虫机制的网站,我们只需要直接像上面引入ProxyHandler类进行处理,下面以访问csdn主页为例:

    [python] view plain copy
     
    1. import urllib  
    2.   
    3. url="http://www.csdn.net/"  
    4. for i in range(0,10000):  
    5.     html=urllib.urlopen(url)  
    6.     print html.info()  
    7.     print i  

    当使用上述代码时,当循环到20时,就会出现下面的错误

    Traceback (most recent call last):
      File "C:/Users/lenovo/PycharmProjects/untitled1/jt2/__init__.py", line 19, in <module>
        html=urllib.urlopen(url)
      File "C:Python27liburllib.py", line 87, in urlopen
        return opener.open(url)
      File "C:Python27liburllib.py", line 213, in open
        return getattr(self, name)(url)
      File "C:Python27liburllib.py", line 350, in open_http
        h.endheaders(data)
      File "C:Python27libhttplib.py", line 997, in endheaders
        self._send_output(message_body)
      File "C:Python27libhttplib.py", line 850, in _send_output
        self.send(msg)
      File "C:Python27libhttplib.py", line 812, in send
        self.connect()
      File "C:Python27libhttplib.py", line 793, in connect
        self.timeout, self.source_address)
      File "C:Python27libsocket.py", line 571, in create_connection
        raise err
    IOError: [Errno socket error] [Errno 10060] 

    这就是因为我们使用了计算机的单一ip进行频繁访问而被检测出来的。

    下面是使用了ip代理的代码:

    [python] view plain copy
     
    1. import urllib2  
    2. import random  
    3.   
    4. def getHtml(url,proxies):  
    5.     random_proxy = random.choice(proxies)  
    6.     proxy_support = urllib2.ProxyHandler({"http":random_proxy})  
    7.     opener = urllib2.build_opener(proxy_support)  
    8.     urllib2.install_opener(opener)  
    9.     html=urllib2.urlopen(url)  
    10.     return html  
    11.   
    12. url="http://www.csdn.net/"  
    13. proxies=["101.53.101.172:9999","171.117.93.229:8118","119.251.60.37:21387","58.246.194.70:8080"  
    14.         "115.173.218.224:9797","110.77.0.70:80"]  
    15. for i in range(0,10000):  
    16.     try:  
    17.         html=getHtml(url,proxies)  
    18.         print html.info()     #打印网页的头部信息,只是为了展示访问到了网页,可以自己修改成想显示的内容  
    19.         print i  
    20.     except:  
    21.         print "出现故障"  

           这个代码我测试是在1096次时被检测到了,要知道我的列表中只有6个ip,如果我们增加ip的个数,那么被发现的概率是不是又会更低了。对于上面的例子中的ip代理,有可能在过了一段时间后便不能用了,这个需要自己到网上搜索最新的ip代理,进行替换。还有程序中的异常处理是为了使程序能够处理ip代码访问时出现问题的情况,因为有些ip代理在访问的时候会出现故障的,这样做了可以使程序更加健壮。

    对于有反爬虫机制的网页,下面还是以访问csdn中的博客为例:

    [python] view plain copy
     
    1. #coding:utf-8  
    2. import urllib2  
    3. import random  
    4.   
    5. def get_html(url,headers,proxies):  
    6.   
    7.     random_userAget = random.choice(headers)  
    8.     random_proxy = random.choice(proxies)  
    9.   
    10.     #下面是模拟浏览器进行访问  
    11.     req = urllib2.Request(url)  
    12.     req.add_header("User-Agent", random_userAget)  
    13.     req.add_header("GET", url)  
    14.     req.add_header("Host", "blog.csdn.net")  
    15.     req.add_header("Referer", "http://blog.csdn.net/?&page=6")  
    16.   
    17.     #下面是使用ip代理进行访问  
    18.     proxy_support = urllib2.ProxyHandler({"http":random_proxy})  
    19.     opener = urllib2.build_opener(proxy_support)  
    20.     urllib2.install_opener(opener)  
    21.   
    22.   
    23.     html = urllib2.urlopen(req)  
    24.     return html  
    25.   
    26. url = "http://blog.csdn.net/?&page=3"  
    27. """ 
    28. 使用多个主机中的user_agent信息组成一个列表,当然这里面的user_agent都是残缺的,大家使用时可以自己找 
    29. 身边的小伙伴借呦 
    30. """  
    31. user_agents = [  
    32.     "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWe。。。hrome/45.0.2454.101 Safari/537.36",  
    33.     "Mozilla / 5.0(Windows NT 6.1) AppleWebKit / 537.。。。。likeGecko) Chrome / 45.0.2454.101Safari/ 537.36",  
    34.     "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit。。。。。Gecko) Chrome/50.0.2661.102 Safari/537.36",  
    35.     "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.3。。。。ML, like Gecko) Chrome/49.0.2623.112 Safari/537.36",  
    36.     "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) 。。。WebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586",  
    37.     "User-Agent: Mozilla/5.0 (Windows NT 10.0) AppleWebKi。。。。。36 (KHTML, like Gecko) Chrome/46.0.2486.0 Safari/537.36 Edge/13.10586",  
    38.     "Mozilla/5.0 (Windows NT 10.0; WOW64) Apple。。。。。KHTML, like Gecko) Chrome/50.0.2661.94 Safari/537.36"  
    39.     ]  
    40. #网上的ip有可能是不能用的,需要多做尝试  
    41. myproxies=["220.189.249.80:80","124.248.32.43:80"]  
    42. html = get_html(url,user_agents,myproxies)  
    43. print html.read()  

    对于上面代码中的关于模拟浏览器的部分可以参照我的上一篇博客:http://blog.csdn.net/qq_29883591/article/details/52006624

  • 相关阅读:
    CTF_论剑场-web26
    Bugku-never give up
    Bugku-你必须让他停下来
    Bugku-域名解析
    bugku-web3
    请允许我成为你的夏季——shiro、jdbcInsertall
    HTTP请求/响应报文结构
    SQL常用命令
    dialogs打开对话框选定文件夹,getopenfilename获取文件名
    fso文件夹操作用法实操
  • 原文地址:https://www.cnblogs.com/SofuBlue/p/8031812.html
Copyright © 2020-2023  润新知