• scrapy_redis settings配置


    DOWNLOAD_DELAY = 5
    # The download delay setting will honor only one of:
    
    # 指定使用scrapy-redis的调度器
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    
    # 指定使用scrapy-redis的去重
    DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter'
    # 指定排序爬取地址时使用的队列,
    # 默认的 按优先级排序(Scrapy默认),由sorted set实现的一种非FIFO、LIFO方式。
    SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.SpiderPriorityQueue'
    # 可选的 按先进先出排序(FIFO)
    # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.SpiderQueue'
    # 可选的 按后进先出排序(LIFO)
    # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.SpiderStack'
    # 在redis中保持scrapy-redis用到的各个队列,从而允许暂停和暂停后恢复,也就是不清理redis queues
    SCHEDULER_PERSIST = True
    # 只在使用SpiderQueue或者SpiderStack是有效的参数,指定爬虫关闭的最大间隔时间
    # SCHEDULER_IDLE_BEFORE_CLOSE = 10
    
    # 通过配置RedisPipeline将item写入key为 spider.name : items 的redis的list中,供后面的分布式处理item
    # 这个已经由 scrapy-redis 实现,不需要我们写代码
    ITEM_PIPELINES = {
        #'distribute_country_tecah.pipelines.DistributeCountryPipeline':300,
        'scrapy_redis.pipelines.RedisPipeline': 400
    }
    
    # 指定redis数据库的连接参数
    # REDIS_PASS是我自己加上的redis连接密码(默认不做)
    REDIS_HOST = '127.0.0.1'
    REDIS_PORT = 6379
    #REDIS_PASS = 'redisP@ssw0rd'
    
    # LOG等级
    LOG_LEVEL = 'DEBUG'
    
    #默认情况下,RFPDupeFilter只记录第一个重复请求。将DUPEFILTER_DEBUG设置为True会记录所有重复的请求。
    DUPEFILTER_DEBUG =True
  • 相关阅读:
    图像
    链接
    列表
    常见的文本标签
    注释有哪些作用?你会用使用注释来做什么?
    如何使用浏览器查看源代码?查看源码的快捷方式是什么?
    编辑HTML源代码
    <html>,<head>,<body>,<title>的作用
    HTML中的标签和属性
    记录Git的安装过程
  • 原文地址:https://www.cnblogs.com/542684416-qq/p/11307102.html
Copyright © 2020-2023  润新知