代码git地址:https://github.com/DemonYan/spider_study
后续爬虫相关代码都会在git上进行更新,请持续关注
本文分享自己学爬虫的一个代码。该代码实现的是使用urllib2爬取http://www.neihanpa.com/article/网站的段子。
小编也正处于学习python的阶段,如有什么错误,欢迎留言指出。
一、实现环境
mac 10.13.2
python 2.7
使用模块:urllib2
二、实现源码
#!/usr/bin/env python
#-*- coding:utf-8 -*-
#author: Demon
import urllib2
import random
import re
import os
# 定义多个User-Agent
header_list = [
"Mozilla/5.0(Macintosh;U;IntelMacOSX10_6_8;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50"
"Mozilla/5.0(Macintosh;IntelMacOSX10.6;rv:2.0.1)Gecko/20100101Firefox/4.0.1"
"Opera/9.80(Macintosh;IntelMacOSX10.6.8;U;en)Presto/2.8.131Version/11.11"
"Mozilla/5.0(Macintosh;IntelMacOSX10_7_0)AppleWebKit/535.11(KHTML,likeGecko)Chrome/17.0.963.56Safari/535.11"
"Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;Trident/4.0;SE2.XMetaSr1.0;SE2.XMetaSr1.0;.NETCLR2.0.50727;SE2.XMetaSr1.0)"
]
def getRandomUserAgent():
"""
随机得到一个User-Agent
"""
return random.choice(header_list)
class Neihanpa:
def __init__(self):
# 网站的基础url
self.baseUrl = "http://www.neihanpa.com/article"
# 起始页码
self.page = 1
# 匹配每条段子的正则表达式
# 默认.在单行中进行匹配(.不匹配换行符)
# re.S 表示进行全文匹配,开启DOTALL模式,即使得. 也可以匹配换行符
# .* : 尽可能多匹配(贪婪模式)
# .*? : 尽可能少匹配
self.pattern_page_div = re.compile(r'<div class="text-column-item box box-790">(.*?)</div>', re.S)
# 由于由网站的列表页爬出来的段子是不完整的,需要根据里面的url点进去,才能看到完整的数据
# 匹配出每个段子中的请求链接,用于获取完整的段子
self.pattern_div_href = re.compile(r'/d+.html', re.S)
# 匹配完整的段子
# 由于根据列表页的url再次访问得到的页面,肯定只有一个段子,而且段子的每句话是由<p></p>标签分隔的
# 所以,这里不需要加re.S,就能拿到每个句子组成的一个list
self.pattern_p = re.compile(r'<p>(.*)</p>')
# 对最终的格式进行处理
# &(.*?) 匹配HTML里的一些实体字符,比如
# s 匹配空白字符和换行符
# ' '是一个全角空格,s不能匹配到
self.pattern_content = re.compile(r"&(.*?);|s| ")
# 定义存储所有段子的文件名
self.saved_filename = "duanzi.txt"
def dealPage(self, html):
"""
处理从网站列表页中获取到的每个段子
从而获取能得到完整段子的url列表
"""
div_list = self.pattern_page_div.findall(html)
url_list = []
for div_content in div_list:
href_list = self.pattern_div_href.findall(div_content)
for href in href_list:
url_list.append(href)
return url_list
def loadPage(self, url):
"""
根据url爬取页面
如果爬取发生错误,直接过滤
"""
try:
request = urllib2.Request(url)
request.add_header("User-Agent", getRandomUserAgent())
response = urllib2.urlopen(request)
return response.read()
except urllib2.HTTPError, e:
return ""
def writePage(self, content_list):
"""
将获取到的段子写入文件
"""
with open(self.saved_filename, "a") as f:
for content in content_list:
deal_content = self.pattern_content.sub("", content)
f.write(deal_content)
f.write("
")
f.write("
")
def spider(self):
"""
处理页码信息并调用相关方法
"""
if self.page == 1:
url = self.baseUrl + "/index.html"
# 当爬取第一页时,判断文件是否存在
if os.path.exists(self.saved_filename):
# print "removed" # 调试
os.remove(self.saved_filename)
else:
url = self.baseUrl + "/index_%s.html" % (self.page)
self.page+=1
html = self.loadPage(url)
if html == "":
return
duanziUrl_list = self.dealPage(html)
for duanziUrl in duanziUrl_list:
print "段子%s爬取成功!" % (duanziUrl)
duanziHtml = self.loadPage(self.baseUrl + duanziUrl)
duanzi_list = self.pattern_p.findall(duanziHtml)
self.writePage(duanzi_list)
def main():
neihanpa = Neihanpa()
while True:
operation = raw_input("输入Q退出,输入回车继续:")
if operation.lower() == 'q':
break
neihanpa.spider()
if __name__ == "__main__":
main()
三、代码解释
首先,刚开始接触Python爬虫,所以使用的是urlib2+正则表达式的方式来对爬取的数据进行的处理。当然有更好更方便的方式,后续会对这个代码进行持续的更新。比如改用request模块等
其次,这个网站,在显示段子列表页里,只显示了段子的一部分内容,所以在代码里爬取列表页获取到部分段子,通过对获取到的部分段子进行处理,拿到能得到完整段子的url,再进行进一步的爬取
最近刚配置了一下vim编辑器,使它可以显示行号,代码能自动提示,同时能显示文档结构。然后更改了主题(程序员对这种暗黑色的代码主题都情有独钟啊)。配置过程遇到很多问题,有时间会再总结下相关操作。
我的配置效果如下图所示: