• 基于scrapy-redis两种形式的分布式爬虫


    redis分布式部署

    1.scrapy框架是否可以自己实现分布式?

    - 不可以。原因有二。

    其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url。(多台机器无法共享同一个调度器)

    其二:多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久化存储。(多台机器无法共享同一个管道)

    2.基于scrapy-redis组件的分布式爬虫

    - scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。

            - 实现方式:

                1.基于该组件的RedisSpider类

                2.基于该组件的RedisCrawlSpider类

    3.分布式实现流程:上述两种不同方式的分布式实现流程是统一的

        - 3.1 下载scrapy-redis组件:pip install scrapy-redis

            - 3.2 redis配置文件的配置:

    - 注释该行:bind 127.0.0.1,表示可以让其他ip访问redis
    
    - 将yes改为no: protected-mode no,表示可以让其他ip操作redis

        3.3 修改爬虫文件中的相关代码:

                - 将爬虫类的父类修改成基于RedisSpider或者RedisCrawlSpider。注意:如果原始爬虫文件是基于Spider的,则应该将父类修改成RedisSpider,如果原始爬虫文件是基于CrawlSpider的,则应该将其父类修改成RedisCrawlSpider。

                - 注释或者删除start_urls列表,且加入redis_key属性,属性值为scrpy-redis组件中调度器队列的名称

            3.4 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的管道

    ITEM_PIPELINES = {
        'scrapy_redis.pipelines.RedisPipeline': 400
    }

       3.5 在配置文件中进行相关配置,开启使用scrapy-redis组件中封装好的调度器

    # 使用scrapy-redis组件的去重队列
    DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
    # 使用scrapy-redis组件自己的调度器
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    # 是否允许暂停  
    SCHEDULER_PERSIST = True

      3.6 在配置文件中进行爬虫程序链接redis的配置:

    REDIS_HOST = 'redis服务的ip地址'
    REDIS_PORT = 6379
    REDIS_ENCODING = ‘utf-8’
    REDIS_PARAMS = {‘password’:’123456’}

       3.7 开启redis服务器:redis-server 配置文件

            3.8 开启redis客户端:redis-cli

            3.9 运行爬虫文件:scrapy runspider SpiderFile

            3.10 向调度器队列中扔入一个起始url(在redis客户端中操作):lpush redis_key属性值 起始url

    分布式编码流程

    一.环境安装
        - pip install scrapy_redis
    二.导包:from scrapy_redis.spiders import RedisCrawlSpider
    三.修改spider爬虫文件
        - 将爬虫类的父类修改成RedisCrawlSpider
        - 删除allowed_domains和start_urls这两个属性
        - 添加一个新属性:redis_key = 'xxx'(调度器队列的名称)
    四.配置使用指定的调度器和管道(在配置文件中增加如下配置)
        # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
        DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
        # 使用scrapy-redis组件自己的调度器
        SCHEDULER = "scrapy_redis.scheduler.Scheduler"
        # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
        SCHEDULER_PERSIST = True
    
        ITEM_PIPELINES = {
            'scrapy_redis.pipelines.RedisPipeline': 400
        }
    
    五.指定持久化存储对应redis的服务器:
        REDIS_HOST = '127.0.0.1' # 将这句注释掉
        REDIS_PORT = 6379
    六.redis配置:(redis.windows.conf)
        - # bind 127.0.0.1
        - 关闭保护模式:protected-mode no
    七.开启redis的服务端和客户端
    八.运行工程:
        - scrapy runspider spiderFilePath
    九.向调度器的队列中仍入一个起始的url:
        - 在redis的客户端执行:lpush xxx www.xxx.com
  • 相关阅读:
    实验四: Android程序设计
    实验三 敏捷开发与XP实践-1
    mini dc课堂练习补交
    20155216 2016-2017-2 《Java程序设计》第十周学习总结
    第十二周课上练习
    20155210 潘滢昊 Java第三次实验
    20155210 2016-2017-2 《Java程序设计》第10周学习总结
    20155210 潘滢昊2016-2017-2 《Java程序设计》第9周学习总结
    20155210潘滢昊 Java第二次试验
    20155210潘滢昊 2016-2017-2 《Java程序设计》第8周学习总结
  • 原文地址:https://www.cnblogs.com/zwq-/p/10595798.html
Copyright © 2020-2023  润新知