• 爬虫之scrapy核心组件


    Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。

    Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。整体架构大致如下

    Components:

      1. 引擎(EGINE)

        引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

      2. 调度器(SCHEDULER)
        用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
      3. 下载器(DOWLOADER)
        用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的
      4. 爬虫(SPIDERS)
        SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求
      5. 项目管道(ITEM PIPLINES)
        在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
      6. 下载器中间件(Downloader Middlewares)
        位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,你可用该中间件做以下几件事
        1. process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
        2. change received response before passing it to a spider;
        3. send a new Request instead of passing received response to a spider;
        4. pass response to a spider without fetching a web page;
        5. silently drop some requests.
      7. 爬虫中间件(Spider Middlewares)
        位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)
  • 相关阅读:
    url 百分号解密
    16.UA池和代理池
    15.scrapy框架之日志等级、请求传参、提高scrapy框架的爬取效率
    14. scrip框架之5大核心组件和post请求
    13.scrapy 框架之递归解析(手动发送请求),
    12. scrapy 框架持续化存储
    11.scrapy框架简介和基础应用
    10. 移动端数据爬取
    09.python之网络爬虫之selenium、phantomJs和谷歌无头浏览器的自动化操作
    08 python之网络爬虫之乱码问题
  • 原文地址:https://www.cnblogs.com/qq631243523/p/10534806.html
Copyright © 2020-2023  润新知