• python笔记——爬虫练习


    网络爬虫的基本工作流程如下:

    • 首先选取一部分精心挑选的种子 URL
    • 将种子 URL 加入任务队列
    • 从待抓取 URL 队列中取出待抓取的 URL,解析 DNS,并且得到主机的 ip,并将 URL 对应的网页下载下来,存储进已下载网页库中。此外,将这些 URL 放进已抓取 URL 队列。
    • 分析已抓取 URL 队列中的 URL,分析其中的其他 URL,并且将 URL 放入待抓取 URL 队列,从而进入下一个循环。
    • 解析下载下来的网页,将需要的数据解析出来。
    • 数据持久话,保存至数据库中。

    在爬虫系统中,待抓取 URL 队列是很重要的一部分。待抓取 URL 队列中的 URL 以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面。而决定这些 URL 排列顺序的方法,叫做抓取策略。下面重点介绍几种常见的抓取策略:

    • 深度优先策略(DFS)
    • 深度优先策略是指爬虫从某个 URL 开始,一个链接一个链接的爬取下去,直到处理完了某个链接所在的所有线路,才切换到其它的线路。
    • 此时抓取顺序为:A -> B -> C -> D -> E -> F -> G -> H -> I -> J
    • 广度优先策略(BFS)
    • 宽度优先遍历策略的基本思路是,将新下载网页中发现的链接直接插入待抓取 URL 队列的末尾。也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。
    • 此时抓取顺序为:A -> B -> E -> G -> H -> I -> C -> F -> J -> D

     技术思路

    • requests 人性化的请求发送
    • Bloom Filter 布隆过滤器,用于判重
    • XPath 解析 HTML 内容
    • murmurhash
    • Anti crawler strategy 反爬虫策略
    • MySQL 用户数据存储

    基本实现

    下面是一个伪代码

    1. import Queue
    2. initial_page = 'https://www.zhihu.com/people/gaoming623'
    3. url_queue = Queue.Queue()
    4. seen = set()
    5. seen.insert(initial_page)
    6. url_queue.put(initial_page)
    7. while(True): #一直进行
    8. if url_queue.size()>0:
    9. current_url = url_queue.get() #拿出队例中第一个的 url
    10. store(current_url) #把这个 url 代表的网页存储好
    11. for next_url in extract_urls(current_url): #提取把这个 url 里链向的 url
    12. if next_url not in seen:
    13. seen.put(next_url)
    14. url_queue.put(next_url)
    15. else:
    16. break

    如果你直接加工一下上面的代码直接运行的话,你需要很长的时间才能爬下整个知乎用户的信息,毕竟知乎有 6000 万月活跃用户。更别说 Google 这样的搜索引擎需要爬下全网的内容了。那么问题出现在哪里?

    布隆过滤器

    需要爬的网页实在太多太多了,而上面的代码太慢太慢了。设想全网有 N 个网站,那么分析一下判重的复杂度就是 N*log(N),因为所有网页要遍历一次,而每次判重用 set 的话需要 log(N) 的复杂度。OK,我知道 python 的 set 实现是 hash——不过这样还是太慢了,至少内存使用效率不高。

    通常的判重做法是怎样呢?Bloom Filter. 简单讲它仍然是一种 hash 的方法,但是它的特点是,它可以使用固定的内存(不随 url 的数量而增长)以 O(1) 的效率判定 url 是否已经在 set 中。可惜天下没有白吃的午餐,它的唯一问题在于,如果这个 url 不在 set 中,BF 可以 100%确定这个 url 没有看过。但是如果这个 url 在 set 中,它会告诉你:这个 url 应该已经出现过,不过我有 2%的不确定性。注意这里的不确定性在你分配的内存足够大的时候,可以变得很小很少。

    1. # bloom_filter.py
    2. BIT_SIZE = 5000000
    3. class BloomFilter:
    4. def __init__(self):
    5. # Initialize bloom filter, set size and all bits to 0
    6. bit_array = bitarray(BIT_SIZE)
    7. bit_array.setall(0)
    8. self.bit_array = bit_array
    9. def add(self, url):
    10. # Add a url, and set points in bitarray to 1 (Points count is equal to hash funcs count.)
    11. # Here use 7 hash functions.
    12. point_list = self.get_postions(url)
    13. for b in point_list:
    14. self.bit_array[b] = 1
    15. def contains(self, url):
    16. # Check if a url is in a collection
    17. point_list = self.get_postions(url)
    18. result = True
    19. for b in point_list:
    20. result = result and self.bit_array[b]
    21. return result
    22. def get_postions(self, url):
    23. # Get points positions in bit vector.
    24. point1 = mmh3.hash(url, 41) % BIT_SIZE
    25. point2 = mmh3.hash(url, 42) % BIT_SIZE
    26. point3 = mmh3.hash(url, 43) % BIT_SIZE
    27. point4 = mmh3.hash(url, 44) % BIT_SIZE
    28. point5 = mmh3.hash(url, 45) % BIT_SIZE
    29. point6 = mmh3.hash(url, 46) % BIT_SIZE
    30. point7 = mmh3.hash(url, 47) % BIT_SIZE
    31. return [point1, point2, point3, point4, point5, point6, point7]

    建表

    用户有价值的信息包括用户名、简介、行业、院校、专业及在平台上活动的数据比如回答数、文章数、提问数、粉丝数等等。

    用户信息存储的表结构如下:

    1. CREATE DATABASE `zhihu_user` /*!40100 DEFAULT CHARACTER SET utf8 */;
    2. -- User base information table
    3. CREATE TABLE `t_user` (
    4. `uid` bigint(20) unsigned NOT NULL AUTO_INCREMENT,
    5. `username` varchar(50) NOT NULL COMMENT '用户名',
    6. `brief_info` varchar(400) COMMENT '个人简介',
    7. `industry` varchar(50) COMMENT '所处行业',
    8. `education` varchar(50) COMMENT '毕业院校',
    9. `major` varchar(50) COMMENT '主修专业',
    10. `answer_count` int(10) unsigned DEFAULT 0 COMMENT '回答数',
    11. `article_count` int(10) unsigned DEFAULT 0 COMMENT '文章数',
    12. `ask_question_count` int(10) unsigned DEFAULT 0 COMMENT '提问数',
    13. `collection_count` int(10) unsigned DEFAULT 0 COMMENT '收藏数',
    14. `follower_count` int(10) unsigned DEFAULT 0 COMMENT '被关注数',
    15. `followed_count` int(10) unsigned DEFAULT 0 COMMENT '关注数',
    16. `follow_live_count` int(10) unsigned DEFAULT 0 COMMENT '关注直播数',
    17. `follow_topic_count` int(10) unsigned DEFAULT 0 COMMENT '关注话题数',
    18. `follow_column_count` int(10) unsigned DEFAULT 0 COMMENT '关注专栏数',
    19. `follow_question_count` int(10) unsigned DEFAULT 0 COMMENT '关注问题数',
    20. `follow_collection_count` int(10) unsigned DEFAULT 0 COMMENT '关注收藏夹数',
    21. `gmt_create` datetime NOT NULL COMMENT '创建时间',
    22. `gmt_modify` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '最后一次编辑',
    23. PRIMARY KEY (`uid`)
    24. ) ENGINE=MyISAM AUTO_INCREMENT=1 DEFAULT CHARSET=utf8 COMMENT='用户基本信息表';

    网页下载后通过 XPath 进行解析,提取用户各个维度的数据,最后保存到数据库中。

    反爬虫策略应对-Headers

    一般网站会从几个维度来反爬虫:用户请求的 Headers,用户行为,网站和数据加载的方式。从用户请求的 Headers 反爬虫是最常见的策略,很多网站都会对 Headers 的 User-Agent 进行检测,还有一部分网站会对 Referer 进行检测(一些资源网站的防盗链就是检测 Referer)。

    如果遇到了这类反爬虫机制,可以直接在爬虫中添加 Headers,将浏览器的 User-Agent 复制到爬虫的 Headers 中;或者将 Referer 值修改为目标网站域名。对于检测 Headers 的反爬虫,在爬虫中修改或者添加 Headers 就能很好的绕过。

    1. cookies = {
    2. 'd_c0': 'AECA7v-aPwqPTiIbemmIQ8abhJy7bdD2VgE=|1468847182',
    3. 'login': 'NzM5ZDc2M2JkYzYwNDZlOGJlYWQ1YmI4OTg5NDhmMTY=|1480901173|9c296f424b32f241d1471203244eaf30729420f0',
    4. 'n_c': '1',
    5. 'q_c1': '395b12e529e541cbb400e9718395e346|1479808003000|1468847182000',
    6. 'l_cap_id': 'NzI0MTQwZGY2NjQyNDQ1NThmYTY0MjJhYmU2NmExMGY=|1480901160|2e7a7faee3b3e8d0afb550e8e7b38d86c15a31bc',
    7. 'd_c0': 'AECA7v-aPwqPTiIbemmIQ8abhJy7bdD2VgE=|1468847182',
    8. 'cap_id': 'N2U1NmQwODQ1NjFiNGI2Yzg2YTE2NzJkOTU5N2E0NjI=|1480901160|fd59e2ed79faacc2be1010687d27dd559ec1552a'
    9. }
    10. headers = {
    11. 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.98 Safari/537.3',
    12. 'Referer': 'https://www.zhihu.com/'
    13. }
    14. r = requests.get(url, cookies = cookies, headers = headers)

    反爬虫策略应对-代理 IP 池

    还有一部分网站是通过检测用户行为,例如同一 IP 短时间内多次访问同一页面,或者同一账户短时间内多次进行相同操作。

    大多数网站都是前一种情况,对于这种情况,使用 IP 代理就可以解决。这样的代理 ip 爬虫经常会用到,最好自己准备一个。有了大量代理 ip 后可以每请求几次更换一个 ip,这在 requests 或者 urllib2 中很容易做到,这样就能很容易的绕过第一种反爬虫。目前知乎已经对爬虫做了限制,如果是单个 IP 的话,一段时间系统便会提示异常流量,无法继续爬取了。因此代理 IP 池非常关键。网上有个免费的代理 IP API: http://api.xicidaili.com/free2016.txt

    1. import requests
    2. import random
    3. class Proxy:
    4. def __init__(self):
    5. self.cache_ip_list = []
    6. # Get random ip from free proxy api url.
    7. def get_random_ip(self):
    8. if not len(self.cache_ip_list):
    9. api_url = 'http://api.xicidaili.com/free2016.txt'
    10. try:
    11. r = requests.get(api_url)
    12. ip_list = r.text.split('rn')
    13. self.cache_ip_list = ip_list
    14. except Exception as e:
    15. # Return null list when caught exception.
    16. # In this case, crawler will not use proxy ip.
    17. print e
    18. return {}
    19. proxy_ip = random.choice(self.cache_ip_list)
    20. proxies = {'http': 'http://' proxy_ip}
    21. return proxies

    https://www.cnblogs.com/cpselvis/p/7001137.html

  • 相关阅读:
    axios取消请求
    echarts常用图表配置
    Vue指令限制输入框输入整数小数
    小程序商品飞入购物车组件
    webpack按测试和生产环境进行编译
    地图画线添加标签
    vue-element-admin 动态侧边栏
    html2canvas 和浏览器打印
    echarts 指定某段曲线颜色
    列出表结构
  • 原文地址:https://www.cnblogs.com/MT-IT/p/11124945.html
Copyright © 2020-2023  润新知