• Scrapy框架基于CrawlSpider爬数据,基于scrapy-redis的分布式爬虫,增量式爬虫


    一.scrapy框架基于CrawlSpider的全站数据爬取

    1.使用

      1.创建scrapy工程:scrapy startproject projectName

      2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com

    生成的爬虫文件

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    
    class ChoutiSpider(CrawlSpider):
        # name = 'chouti'
        # # allowed_domains = ['www.xxx.com']
        # start_urls = ['https://dig.chouti.com/r/scoff/hot/1']
        #
        # #连接提取器:
        # #allow:表示的就是链接提取器提取连接的规则(正则)
        # link = LinkExtractor(allow=r'/r/scoff/hot/d+')
        #
        # rules = (
        #     #规则解析器:将链接提取器提取到的连接所对应的页面数据进行指定形式的解析
        #     Rule(link, callback='parse_item', follow=True),
        #     # 让连接提取器继续作用到链接提取器提取到的连接所对应的页面中
        # )
        #
        # def parse_item(self, response):
        #     print(response)
    
        name = 'qiubai'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['https://www.qiushibaike.com/pic/']
    
        # 连接提取器:
        # allow:表示的就是链接提取器提取连接的规则(正则)/pic/page/3?s=5172496
        link = LinkExtractor(allow=r'/pic/page/d+?s=d+')
        link1 = LinkExtractor(allow=r'/pic/$')
        # link1 = LinkExtractor(allow=r'')
        rules = (
            # 规则解析器:将链接提取器提取到的连接所对应的页面数据进行指定形式的解析
            Rule(link, callback='parse_item', follow=True),
            # 让连接提取器继续作用到链接提取器提取到的连接所对应的页面中
    
            Rule(link1, callback='parse_item', follow=True),
        )
    
        def parse_item(self, response):
            print(response)

    LinkExtractor:顾名思义,链接提取器。

    LinkExtractor(

      allow=r'Items/',# 满足括号中“正则表达式”的值会被提取,如果为空,则全部匹配。

      deny=xxx,  # 满足正则表达式的则不会被提取。

      restrict_xpaths=xxx, # 满足xpath表达式的值会被提取

      restrict_css=xxx, # 满足css表达式的值会被提取

      deny_domains=xxx, # 不会被提取的链接的domains。 

        )

    作用:提取response中符合规则的链接。

    Rule : 规则解析器。根据链接提取器中提取到的链接,根据指定规则提取解析器链接网页中的内容。

      Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True)

         参数介绍:

          参数1:指定链接提取器

          参数2:指定规则解析器解析数据的规则(回调函数)

          参数3:是否将链接提取器继续作用到链接提取器提取出的链接网页中。当callback为None,参数3的默认值为true。

    rules=( ):指定不同规则解析器。一个Rule对象表示一种提取规则。

    CrawlSpider整体爬取流程:

       a)爬虫文件首先根据起始url,获取该url的网页内容

       b)链接提取器会根据指定提取规则将步骤a中网页内容中的链接进行提取

       c)规则解析器会根据指定解析规则将链接提取器中提取到的链接中的网页内容根据指定的规则进行解析

       d)将解析数据封装到item中,然后提交给管道进行持久化存储

    示例:

      爬取糗事百科糗图板块的所有页码数据

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    
    class CrawldemoSpider(CrawlSpider):
        name = 'qiubai'
        #allowed_domains = ['www.qiushibaike.com']
        start_urls = ['https://www.qiushibaike.com/pic/']
    
        #连接提取器:会去起始url响应回来的页面中提取指定的url
        link = LinkExtractor(allow=r'/pic/page/d+?') #s=为随机数
        link1 = LinkExtractor(allow=r'/pic/$')#爬取第一页
        #rules元组中存放的是不同的规则解析器(封装好了某种解析规则)
        rules = (
            #规则解析器:可以将连接提取器提取到的所有连接表示的页面进行指定规则(回调函数)的解析
            Rule(link, callback='parse_item', follow=True),
            Rule(link1, callback='parse_item', follow=True),
        )
    
        def parse_item(self, response):
            print(response)

      爬虫文件

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from qiubaiBycrawl.items import QiubaibycrawlItem
    import re
    class QiubaitestSpider(CrawlSpider):
        name = 'qiubaiTest'
        #起始url
        start_urls = ['http://www.qiushibaike.com/']
    
        #定义链接提取器,且指定其提取规则
        page_link = LinkExtractor(allow=r'/8hr/page/d+/')
        
        rules = (
            #定义规则解析器,且指定解析规则通过callback回调函数
            Rule(page_link, callback='parse_item', follow=True),
        )
    
        #自定义规则解析器的解析规则函数
        def parse_item(self, response):
            div_list = response.xpath('//div[@id="content-left"]/div')
            
            for div in div_list:
                #定义item
                item = QiubaibycrawlItem()
                #根据xpath表达式提取糗百中段子的作者
                item['author'] = div.xpath('./div/a[2]/h2/text()').extract_first().strip('
    ')
                #根据xpath表达式提取糗百中段子的内容
                item['content'] = div.xpath('.//div[@class="content"]/span/text()').extract_first().strip('
    ')
    
                yield item #将item提交至管道

      item.py

    import scrapy
    
    
    class QiubaibycrawlItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        author = scrapy.Field() #作者
        content = scrapy.Field() #内容

      管道文件

    class QiubaibycrawlPipeline(object):
        
        def __init__(self):
            self.fp = None
            
        def open_spider(self,spider):
            print('开始爬虫')
            self.fp = open('./data.txt','w')
            
        def process_item(self, item, spider):
            #将爬虫文件提交的item写入文件进行持久化存储
            self.fp.write(item['author']+':'+item['content']+'
    ')
            return item
        
        def close_spider(self,spider):
            print('结束爬虫')
            self.fp.close()

    二.基于scrapy-redis的分布式爬虫

      scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。

    实现方法:

      基于该组件的RedisSpider类

      基于该组件的RedisCrawlSpider类

    分布式实现流程

      下载scrapy-redis组件:pip install scrapy-redis

      redis配置文件的配置:

    注释该行:bind 127.0.0.1,表示可以让其他ip访问redis
    
    将yes该为no:protected-mode no,表示可以让其他ip操作redis

      在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的管道

    ITEM_PIPELINES = {
        'scrapy_redis.pipelines.RedisPipeline': 400
    }

      在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的调度器

    # 使用scrapy-redis组件的去重队列
    DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
    # 使用scrapy-redis组件自己的调度器
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    # 是否允许暂停
    SCHEDULER_PERSIST = True

      在配置文件中进行爬虫程序链接redis的配置:

    REDIS_HOST = 'redis服务的ip地址'
    REDIS_PORT = 6379
    REDIS_ENCODING = ‘utf-8’
    REDIS_PARAMS = {‘password’:’123456’}

      启动

     开启redis服务器:redis-server 配置文件
    
     开启redis客户端:redis-cli
    
    运行爬虫文件:scrapy runspider SpiderFile
    
    向调度器队列中扔入一个起始url(在redis客户端中操作):lpush redis_key属性值 起始url
    - 为什么原生的scrapy不能实现分布式?
        - 调度器不能被共享
        - 管道无法被共享
    
    - scrapy-redis组件的作用是什么?
        - 提供了可以被共享的调度器和管道
    
    - 分布式爬虫实现流程
    1.环境安装:pip install scrapy-redis
    2.创建工程
    3.创建爬虫文件:RedisCrawlSpider  RedisSpider
        - scrapy genspider -t crawl xxx www.xxx.com
    4.对爬虫文件中的相关属性进行修改:
        - 导报:from scrapy_redis.spiders import RedisCrawlSpider
        - 将当前爬虫文件的父类设置成RedisCrawlSpider
        - 将起始url列表替换成redis_key = 'xxx'(调度器队列的名称)
    5.在配置文件中进行配置:
        - 使用组件中封装好的可以被共享的管道类:
            ITEM_PIPELINES = {
                'scrapy_redis.pipelines.RedisPipeline': 400
                }
        - 配置调度器(使用组件中封装好的可以被共享的调度器)
            # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
            DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
            # 使用scrapy-redis组件自己的调度器
            SCHEDULER = "scrapy_redis.scheduler.Scheduler"
            # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
            SCHEDULER_PERSIST = True
    
         - 指定存储数据的redis:
            REDIS_HOST = 'redis服务的ip地址'
            REDIS_PORT = 6379
    
         - 配置redis数据库的配置文件
            - 取消保护模式:protected-mode no
            - bind绑定: #bind 127.0.0.1
    
         - 启动redis
    
    6.执行分布式程序
        scrapy runspider xxx.py
    
    7.向调度器队列中仍入一个起始url:
        在redis-cli中执行:

    三.增量式爬虫

    1.定义

      通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据。

    2.如何进行增量式的爬取工作

      在发送请求之前判断这个URL是不是之前爬取过

      在解析内容后判断这部分内容是不是之前爬取过

      写入存储介质时判断内容是不是已经在介质中存在

    示例:

      爬取糗事百科中的段子和作者数据。

    爬虫文件

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from incrementByDataPro.items import IncrementbydataproItem
    from redis import Redis
    import hashlib
    class QiubaiSpider(CrawlSpider):
        name = 'qiubai'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['https://www.qiushibaike.com/text/']
    
        rules = (
            Rule(LinkExtractor(allow=r'/text/page/d+/'), callback='parse_item', follow=True),
            Rule(LinkExtractor(allow=r'/text/$'), callback='parse_item', follow=True),
        )
        #创建redis链接对象
        conn = Redis(host='127.0.0.1',port=6379)
        def parse_item(self, response):
            div_list = response.xpath('//div[@id="content-left"]/div')
    
            for div in div_list:
                item = IncrementbydataproItem()
                item['author'] = div.xpath('./div[1]/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first()
                item['content'] = div.xpath('.//div[@class="content"]/span/text()').extract_first()
    
                #将解析到的数据值生成一个唯一的标识进行redis存储
                source = item['author']+item['content']
                source_id = hashlib.sha256(source.encode()).hexdigest()
                #将解析内容的唯一表示存储到redis的data_id中
                ex = self.conn.sadd('data_id',source_id)
    
                if ex == 1:
                    print('该条数据没有爬取过,可以爬取......')
                    yield item
                else:
                    print('该条数据已经爬取过了,不需要再次爬取了!!!')

    管道文件

    from redis import Redis
    class IncrementbydataproPipeline(object):
        conn = None
    
        def open_spider(self, spider):
            self.conn = Redis(host='127.0.0.1', port=6379)
    
        def process_item(self, item, spider):
            dic = {
                'author': item['author'],
                'content': item['content']
            }
            # print(dic)
            self.conn.lpush('qiubaiData', dic)
            return item

      爬取4567tv网站中所有的电影详情数据。

    爬虫文件

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    from redis import Redis
    from incrementPro.items import IncrementproItem
    class MovieSpider(CrawlSpider):
        name = 'movie'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['http://www.4567tv.tv/frim/index7-11.html']
    
        rules = (
            Rule(LinkExtractor(allow=r'/frim/index7-d+.html'), callback='parse_item', follow=True),
        )
        #创建redis链接对象
        conn = Redis(host='127.0.0.1',port=6379)
        def parse_item(self, response):
            li_list = response.xpath('//li[@class="p1 m1"]')
            for li in li_list:
                #获取详情页的url
                detail_url = 'http://www.4567tv.tv'+li.xpath('./a/@href').extract_first()
                #将详情页的url存入redis的set中
                ex = self.conn.sadd('urls',detail_url)
                if ex == 1:
                    print('该url没有被爬取过,可以进行数据的爬取')
                    yield scrapy.Request(url=detail_url,callback=self.parst_detail)
                else:
                    print('数据还没有更新,暂无新数据可爬取!')
    
        #解析详情页中的电影名称和类型,进行持久化存储
        def parst_detail(self,response):
            item = IncrementproItem()
            item['name'] = response.xpath('//dt[@class="name"]/text()').extract_first()
            item['kind'] = response.xpath('//div[@class="ct-c"]/dl/dt[4]//text()').extract()
            item['kind'] = ''.join(item['kind'])
            yield item

    管道文件

    from redis import Redis
    class IncrementproPipeline(object):
        conn = None
        def open_spider(self,spider):
            self.conn = Redis(host='127.0.0.1',port=6379)
        def process_item(self, item, spider):
            dic = {
                'name':item['name'],
                'kind':item['kind']
            }
            print(dic)
            self.conn.lpush('movieData',dic)
            return item

    参考:https://www.cnblogs.com/bobo-zhang/p/10373942.html

  • 相关阅读:
    MySQL max_allowed_packet设置及问题
    centos 7 编译安装mysql 详细过程
    如何快速查看mysql数据文件存放路径?
    centos yum 库更新
    centos 7 ifconfig 命令找不到
    http协议
    前端那些事儿
    C++接口的定义与实现的详细过程
    List转为字符串
    spring cloud spring boot JPA 克隆对象修改属性后 无法正常的执行save方法进行保存或者更新
  • 原文地址:https://www.cnblogs.com/chenxi67/p/10479237.html
Copyright © 2020-2023  润新知