• 【Python爬虫实战】微信爬虫


    所谓微信爬虫,即自动获取微信的相关文章信息的一种爬虫。
    微信对我们的限制是很多的,所以我们需要采取一些手段解决这些限制
    主要包括伪装浏览器、使用代理IP等方式
    http://weixin.sogou.com/

    微信网站的限制还是很多的,当你使用你自己的IP地址去爬取的时候,大概率会出现服务器的错误,那是因为你的IP被封了
    所以我们需要使用代理IP且伪装浏览器。
    首先也是同样对网址进行分析,分析之后就能得到query后面对应的是搜索的内容page 后面对应的是页码。
    然后分析源码就能构造出文章的正则,之后都和前面的淘宝爬取和千图网爬取是一样的原理操作。
    直接上代码

    import re
    import urllib.request
    import time
    import urllib.error
    
    #自定义函数,功能为使用代理服务器爬一个网址
    def use_proxy(proxy_addr,url):
        #建立异常处理机制
        try:
            req = urllib.request.Request(url)
            req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36")
            proxy = urllib.request.ProxyHandler({"http:":proxy_addr})
            opener = urllib.request.build_opener(proxy,urllib.request.HTTPHandler)
            urllib.request.install_opener(opener)
            data = urllib.request.urlopen(req).read()
            return data
        except urllib.error.URLError as e:
            if hasattr(e,"code"):
                print(e.code)
            if hasattr(e,"reason"):
                print(e.reason)
            #若为URLError异常,延时10秒执行
            time.sleep(10)
        except Exception as e:
            print("exception:"+str(e))
            #若为Exception异常,延时1秒执行
            time.sleep(1)
    
    #设置关键词
    key = "Python"
    #设置代理服务器  西刺
    proxy = "127.0.0.1:8888"
    #爬取多少页
    for i in range(1,10):
        key = urllib.request.quote(key)
        thispageurl = "http://weixin.sogou.com/weixin?query="+key+"&type=2&page="+str(i)
    
        thispagedata = use_proxy(proxy,thispageurl)
        print(len(str(thispagedata)))
        pat1 = '<a href="(.*?)"'
        rs1 = re.compile(pat1,re.S).findall(str(thispagedata))
        #re.S  .任意匹配模式
        if(len(rs1) == 0):
            print("此次("+str(i)+"页)没成功")
            continue
        for j in range(0,len(rs1)):
            thisurl = rs1[j]
            thisurl = thisurl.replace("amp;","")
            file = "E://pythoncode/weixin/第"+str(i)+"页第"+str(j)+"篇文章.html"
            thisdata = use_proxy(proxy,thisurl)
            try:
                fh = open(file,"wb")
                fh.write(thisdata)
                fh.close()
                print(""+str(i)+"页第"+str(j)+"篇文章成功")
            except Exception as e:
                print(e)
                print(""+str(i)+"页第"+str(j)+"篇文章失败")
    
    
    
     
  • 相关阅读:
    用才情绽放的幸福之花
    我的爱车,你在哪里
    爱在网络,有没有错
    假如能抱着美女写诗
    只想爱你
    创业者和爱因斯坦的10大共同点(不是不可比的)
    心的感谢
    成大事必备9种能力.9种手段.9种心态
    一颗新星在陨落
    C++/C学习笔记(九)
  • 原文地址:https://www.cnblogs.com/Liuyt-61/p/8040221.html
Copyright © 2020-2023  润新知