看了下python爬虫用法,正则匹配过滤对应字段,这里进行最强外功:copy大法实践
一开始是直接从参考链接复制粘贴的,发现由于糗百改版导致失败,这里对新版html分析后进行了简单改进,把整理过程记录如下:
参考文章中是这样的:
截图参考中的html文件布局如下:
分析参考中的伪代码如下:
分析图中html布局伪代码:
<div> <div class=‘author’> <a> <img></img> “昵称” </a> </div> <div class=‘content’> “内容” </div> <div class=‘status’> <span></span> <span></span> <span></span> </div> </div>
进行匹配的正则表达式为:
'<div.*?author">.*?<a.*?<img.*?>(.*?)</a>.*?<div.*?' + 'content">(.*?)<!--(.*?)-->.*?</div>(.*?)<div class="stats.*?class="number">(.*?)</i>'
根据正则进行筛选过滤的python代码为:(python代码每次执行都一致,不同的事正则表达式,执行代码中的正则表达式替换为文字,复制上下文中的进行替换即可)
# -*- coding: UTF-8 -*- import urllib import urllib2 import re def qiubaiWithoutImageTest(): page = 1 url = 'http://www.qiushibaike.com/hot/page/' + str(page) user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = {'User-Agent': user_agent} try: request = urllib2.Request(url, headers=headers) response = urllib2.urlopen(request) content = response.read().decode('utf-8') # pattern = re.compile('<div.*?author">.*?<a.*?<img.*?>(.*?)</a>.*?<div.*?' + # 'content">(.*?)<!--(.*?)-->.*?</div>(.*?)<div class="stats.*?class="number">(.*?)</i>', # re.S) pattern = re.compile('正则表达式', re.S) items = re.findall(pattern, content) print items for item in items: print item[0],item[1],item[2],item[3] # haveImg = re.search("img", item[3]) # if not haveImg: # # print item # print item[0], item[1], item[2], item[4] except urllib2.URLError, e: if hasattr(e, "code"): print e.code if hasattr(e, "reason"): print e.reason #执行代码 qiubaiWithoutImageTest()
但是,听说但是之前的话都是废话。。。
但是因为糗百改版成如下图中的格式:
所以只能参考照猫画虎按照新格式进行正则表达式的修改了:
分析新的html伪代码格式如下:
<div> <div class=‘author’> <a><img></img></a> <a><h2>’昵称’</h2></a> <div>年龄</div> </div> <a class=‘contentHerf’> <div class=‘content’> <span>’内容’</span> </div> </a> <div class=‘status’> <span></span> <span></span> <span></span> </div> </div>
所以新版的正则表达式修改如下:
LZ正则水平有限,进行了多次尝试才匹配成功。。。,把各个版本记录如下 =======版本1(未通过) '<div.*?author">.*?<a.*?<img.*?>(.*?)</a>.*?<a.*?><h2.*?>(.*?)</h2>.*?</a>.*?<a.*?contentHerf">.*?<div.*?' + 'content”>(.*?)<span.*?>(.*?)</span>.*?<!--(.*?)-->.*?</div>(.*?)</a>.*?<div class="stats.*?class="number">(.*?)</i>' ========版本2(未通过) '<div.*?author">.*?<a.*?<img.*?>(.*?)</a>.*?<a.*?><h2.*?>(.*?)</h2>.*?</a>.*?<a.*?contentHerf">.*?<div.*?content">(.*?)<span.*?>(.*?)</span>.*?<!--(.*?)-->.*?</div>(.*?)</a>.*?<div class="stats.*?class="number">(.*?)</i>' =========版本3(未通过) '<div.*?author">.*?<a.*?<img.*?>(.*?)</a>.*?<a.*?>.*?<h2.*?>(.*?)</h2>.*?</a>.*?<a.*?contentHerf">.*?<div.*?content">(.*?)<span.*?>(.*?)</span>.*?</div>.*?</a>.*?<div class="stats.*?class="number">(.*?)</i>' =========版本4(通过仅有内容) '<div.*?content">(.*?)<span.*?>(.*?)</span>.*?</div>' =========版本5(通过:内容、昵称) '<div.*?author clearfix">.*?<a.*?<img.*?>(.*?)</a>.*?<a.*?<h2.*?>(.*?)</h2>.*?</a>.*?</div>.*?<div.*?content">(.*?)<span.*?>(.*?)</span>.*?</div>' =========版本6(通过:内容、昵称、年龄) '<div.*?author clearfix">.*?<a.*?<h2.*?>(.*?)</h2>.*?</a>.*?<div.*?articleGender manIcon">(.*?)</div>.*?</div>.*?<div.*?content">(.*?)<span.*?>(.*?)</span>.*?</div>'
最终终于看到了如下结果:
胖香娇喘助理 31 老妹单身很久了,一直没对象,那天跟我出去坐公交,身边站着一个小伙子,小婊砸一直往人小伙子身边蹭。<br/>突然,这小婊砸捂着头:“哎呦!我头晕,不行,晕了。。。”说着,顺势倒在人家小伙子怀里。<br/>小伙子吓坏了,摇了摇老妹:“大姐,大姐,您没事吧!”<br/>老妹一听,怒不可遏:“叫谁大姐呢?我有这么老吗?”说着,给了人家一个白眼,还没到站就下车了。<br/>剩我一脸蒙蔽。。这招几百年前就有人用了。 萌面大叔l 26 我对蝉说,他日再见要等来年!蝉对我说,他日重逢要等来生! 逍遥ベ假行僧 29 初闻不知曲中意,在听已是曲中人。 现知词意唯落泪,不见当年陪孤人。 既然亦是曲中人,为何还听曲中曲。 曲中思念今犹在,不见当年梦中人。 逆流而上669 26 一次历史考试,问:1966年至1999年发生了哪三件大事。一奇葩同学是这样回答的:“1969年,我爸出生了;1972年我妈出生了;1995年,一个晴天霹雳,神一般的人物——我诞生了!”然后这张试卷就在公告栏里挂了一个星期! 匿名用户 38 公司高层来我们基层调研,到我们单位的是位副总,笔杆子小李又开始嘚瑟着发报道,还把稿子发到我们单位群,其中有这几句话“某总深入基层调研一线生产生活情况,与一线职工同吃同住......”我@了他一下,说:“在职工前面加个女字就更好了。”就在这时,某副总@了我一下:“到我办公室来一下。”我擦,谁把副总拉群里来的?[哀怨][哀怨][哀怨] 匿名用户 0 没有更好的办法了 a金钊 24 男生用“没事,不疼。”欺骗了多少女生;女生用“啊,疼!”欺骗了多少男生。 青青子衿忧我心 24 甲:怎么了?看着你气色不太好<br/>乙:昨儿喝多了,也吐也泻<br/><br/>甲:喝多少啊?成这德行<br/>乙:喝了一打老酸奶。。。<br/>听得都TM醉了,,,, 请叫我小智 21 看懂绝逼是污神。 surepman 22 这真不是故意的 傻晴° 38 开会,女同事让我坐她旁边,我内心一阵激动。我坐定后,她拿出手机玩了起来,说:你坐这领导(在侧面)就看不见我了。 挖鼻孔的老虎 99 晚上回到家,老婆用手机边拍我边问:“不是说加班吗,怎么有酒味?”<br/>我面对摄像头有点不自在:“我,我口渴,路上买了瓶啤酒喝。”<br/>老婆拿着手机捣鼓了好一会儿,然后说:“我妈不信、我妹妹不信、我全体闺蜜不信,连我9岁的侄女都觉得你没加班只是去了喝酒。” 今狐小妖 30 二楼二楼,别拿着手机看了电话不会打来的 你的选择你的选择 35 这一家子拖鞋真会放,整齐,还有什么?
LZ是Python新手,水平有限,仅作为学习参考使用!
贴上后续参考中的进阶代码
# -*- coding: UTF-8 -*- import urllib import urllib2 import re import thread import time # 糗事百科爬虫类 class QSBK: # 初始化方法,定义一些变量 def __init__(self): self.pageIndex = 1 self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' # 初始化headers self.headers = {'User-Agent': self.user_agent} # 存放段子的变量,每一个元素是每一页的段子们 self.stories = [] # 存放程序是否继续运行的变量 self.enable = False # 传入某一页的索引获得页面代码 def getPage(self, pageIndex): try: url = 'http://www.qiushibaike.com/hot/page/' + str(pageIndex) # 构建请求的request request = urllib2.Request(url, headers=self.headers) # 利用urlopen获取页面代码 response = urllib2.urlopen(request) # 将页面转化为UTF-8编码 pageCode = response.read().decode('utf-8') # print pageCode return pageCode except urllib2.URLError, e: if hasattr(e, "reason"): print u"连接糗事百科失败,错误原因", e.reason return None # 传入某一页代码,返回本页不带图片的段子列表 def getPageItems(self, pageIndex): pageCode = self.getPage(pageIndex) if not pageCode: print "页面加载失败...." return None pattern = re.compile('<div.*?author clearfix">.*?<a.*?<h2.*?>(.*?)</h2>.*?</a>.*?<div.*?articleGender manIcon">(.*?)</div>.*?</div>.*?<div.*?content">(.*?)<span.*?>(.*?)</span>.*?</div>', re.S) items = re.findall(pattern, pageCode) # 用来存储每页的段子们 pageStories = [] # 遍历正则表达式匹配的信息 for item in items: for itemInItem in item: pageStories.append(itemInItem.strip()) print itemInItem # 是否含有图片 # haveImg = re.search("img", item[3]) # # 如果不含有图片,把它加入list中 # if not haveImg: # replaceBR = re.compile('<br/>') # text = re.sub(replaceBR, " ", item[1]) # # item[0]是一个段子的发布者,item[1]是内容,item[2]是发布时间,item[4]是点赞数 # pageStories.append([item[0].strip(), text.strip(), item[2].strip(), item[4].strip()]) return pageStories # 加载并提取页面的内容,加入到列表中 def loadPage(self): # 如果当前未看的页数少于2页,则加载新一页 if self.enable == True: if len(self.stories) < 2: # 获取新一页 pageStories = self.getPageItems(self.pageIndex) # 将该页的段子存放到全局list中 if pageStories: self.stories.append(pageStories) # 获取完之后页码索引加一,表示下次读取下一页 self.pageIndex += 1 # 调用该方法,每次敲回车打印输出一个段子 def getOneStory(self, pageStories, page): # 遍历一页的段子 for story in pageStories: # 等待用户输入 input = raw_input() # 每当输入回车一次,判断一下是否要加载新页面 self.loadPage() # 如果输入Q则程序结束 if input == "Q": self.enable = False return print u"第%d页 发布人:%s 发布时间:%s 赞:%s %s" % (page, story[0], story[2], story[3], story[1]) # 开始方法 def start(self): print u"正在读取糗事百科,按回车查看新段子,Q退出" # 使变量为True,程序可以正常运行 self.enable = True # 先加载一页内容 self.loadPage() # 局部变量,控制当前读到了第几页 nowPage = 0 while self.enable: if len(self.stories) > 0: # 从全局list中获取一页的段子 pageStories = self.stories[0] # 当前读到的页数加一 nowPage += 1 # 将全局list中第一个元素删除,因为已经取出 del self.stories[0] # 输出该页的段子 self.getOneStory(pageStories, nowPage) qbspider = QSBK() qbspider.start()#在log中敲入enter进行下一页数据展示,目前还有一些问题
参考链接: