所谓微信爬虫,即自动获取微信的相关文章信息的一种爬虫。
微信对我们的限制是很多的,所以我们需要采取一些手段解决这些限制
主要包括伪装浏览器、使用代理IP等方式
http://weixin.sogou.com/
微信网站的限制还是很多的,当你使用你自己的IP地址去爬取的时候,大概率会出现服务器的错误,那是因为你的IP被封了
所以我们需要使用代理IP且伪装浏览器。
首先也是同样对网址进行分析,分析之后就能得到query后面对应的是搜索的内容page 后面对应的是页码。
然后分析源码就能构造出文章的正则,之后都和前面的淘宝爬取和千图网爬取是一样的原理操作。
直接上代码
import re
import urllib.request
import time
import urllib.error
#自定义函数,功能为使用代理服务器爬一个网址
def use_proxy(proxy_addr,url):
#建立异常处理机制
try:
req = urllib.request.Request(url)
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36")
proxy = urllib.request.ProxyHandler({"http:":proxy_addr})
opener = urllib.request.build_opener(proxy,urllib.request.HTTPHandler)
urllib.request.install_opener(opener)
data = urllib.request.urlopen(req).read()
return data
except urllib.error.URLError as e:
if hasattr(e,"code"):
print(e.code)
if hasattr(e,"reason"):
print(e.reason)
#若为URLError异常,延时10秒执行
time.sleep(10)
except Exception as e:
print("exception:"+str(e))
#若为Exception异常,延时1秒执行
time.sleep(1)
#设置关键词
key = "Python"
#设置代理服务器 西刺
proxy = "127.0.0.1:8888"
#爬取多少页
for i in range(1,10):
key = urllib.request.quote(key)
thispageurl = "http://weixin.sogou.com/weixin?query="+key+"&type=2&page="+str(i)
thispagedata = use_proxy(proxy,thispageurl)
print(len(str(thispagedata)))
pat1 = '<a href="(.*?)"'
rs1 = re.compile(pat1,re.S).findall(str(thispagedata))
#re.S .任意匹配模式
if(len(rs1) == 0):
print("此次("+str(i)+"页)没成功")
continue
for j in range(0,len(rs1)):
thisurl = rs1[j]
thisurl = thisurl.replace("amp;","")
file = "E://pythoncode/weixin/第"+str(i)+"页第"+str(j)+"篇文章.html"
thisdata = use_proxy(proxy,thisurl)
try:
fh = open(file,"wb")
fh.write(thisdata)
fh.close()
print("第"+str(i)+"页第"+str(j)+"篇文章成功")
except Exception as e:
print(e)
print("第"+str(i)+"页第"+str(j)+"篇文章失败")