• scrapy框架简介和基础应用


    scrapy框架简介个基础应用

     

    简介

    一.什么是Scrapy?

      Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍。

      所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等)的具有很强通用性的项目模板。

      对于框架的学习,重点是要学习其框架的特性、各个功能的用法即可。

    二.安装

      Linux:

          pip3 install scrapy

      Windows:

          a. pip3 install wheel

          b. 下载twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

          c. 进入下载目录,执行 pip3 install Twisted‑17.1.0‑cp35‑cp35m‑win_amd64.whl

          d. pip3 install pywin32

          e. pip3 install scrapy

    基础使用

    1.创建项目:scrapy startproject 项目名称

        项目结构:

    project_name/
       scrapy.cfg:
       project_name/
           __init__.py
           items.py
           pipelines.py
           settings.py
           spiders/
               __init__.py
    
    scrapy.cfg 项目的主配置信息。(真正爬虫相关的配置信息在settings.py文件中) items.py 设置数据存储模板,用于结构化数据,如:Django的Model pipelines 数据持久化处理 settings.py 配置文件,如:递归的层数、并发数,延迟下载等 spiders 爬虫目录,如:创建文件,编写爬虫解析规则

    2.创建爬虫应用程序:

          cd project_name(进入项目目录)

          scrapy genspider 应用名称 爬取网页的起始url (例如:scrapy genspider qiubai www.qiushibaike.com)

    3.编写爬虫文件:在步骤2执行完毕后,会在项目的spiders中生成一个应用名的py爬虫文件,文件源码如下:

    # -*- coding: utf-8 -*-
    import scrapy
    
    class FirstSpider(scrapy.Spider):
        name = 'first' #应用名称
        #允许爬取的域名(如果遇到非该域名的url则爬取不到数据)
        allowed_domains = ['https://www.baidu.com/']
        #起始爬取的url
        start_urls = ['https://www.baidu.com/']
    
         #访问起始URL并获取结果后的回调函数,该函数的response参数就是向起始的url发送请求后,获取的响应对象.该函数返回值必须为可迭代对象或者NUll 
         def parse(self, response):
            print(response.text) #获取字符串类型的响应内容
            print(response.body)#获取字节类型的相应内容

    4.设置修改settings.py配置文件相关配置:

    修改内容及其结果如下:
    19行:USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36' #伪装请求载体身份
    
    22行:ROBOTSTXT_OBEY = False  #可以忽略或者不遵守robots协议

    5.执行爬虫程序:scrapy crawl  应用名称  / scrapy crawl  应用名称 www.baidu.com(爬取的起始url)

     

    对scrapy框架的工作流程以及各个组件功能的介绍

    Scrapy目前已经可以很好的在python3上运行
    Scrapy使用了Twisted作为框架,Twisted有些特殊的地方是它是事件驱动的,并且比较适合异步的代码。

    对于会阻塞线程的操作包含访问文件、数据库或者Web、产生新的进程并需要处理新进程的输出(如运行shell命令)、执行系统层次操作的代码(如等待系统队列),Twisted提供了允许执行上面的操作但不会阻塞代码执行的方法。

    Scrapy data flow(流程图)

    Scrapy数据流是由执行的核心引擎(engine)控制,流程是这样的:
    1、爬虫引擎ENGINE获得初始请求开始抓取。 
    2、爬虫引擎ENGINE开始请求调度程序SCHEDULER,并准备对下一次的请求进行抓取。 
    3、爬虫调度器返回下一个请求给爬虫引擎。 
    4、引擎请求发送到下载器DOWNLOADER,通过下载中间件下载网络数据。 
    5、一旦下载器完成页面下载,将下载结果返回给爬虫引擎ENGINE。 
    6、爬虫引擎ENGINE将下载器DOWNLOADER的响应通过中间件MIDDLEWARES返回给爬虫SPIDERS进行处理。 
    7、爬虫SPIDERS处理响应,并通过中间件MIDDLEWARES返回处理后的items,以及新的请求给引擎。 
    8、引擎发送处理后的items到项目管道,然后把处理结果返回给调度器SCHEDULER,调度器计划处理下一个请求抓取。 
    9、重复该过程(继续步骤1),直到爬取完所有的url请求。

    各个组件介绍

    爬虫引擎(ENGINE)
    爬虫引擎负责控制各个组件之间的数据流,当某些操作触发事件后都是通过engine来处理。

    调度器(SCHEDULER)
    调度接收来engine的请求并将请求放入队列中,并通过事件返回给engine。

    下载器(DOWNLOADER)
    通过engine请求下载网络数据并将结果响应给engine。

    Spider
    Spider发出请求,并处理engine返回给它下载器响应数据,以items和规则内的数据请求(urls)返回给engine。

    管道项目(item pipeline)
    负责处理engine返回spider解析后的数据,并且将数据持久化,例如将数据存入数据库或者文件。

    下载中间件
    下载中间件是engine和下载器交互组件,以钩子(插件)的形式存在,可以代替接收请求、处理数据的下载以及将结果响应给engine。

    spider中间件
    spider中间件是engine和spider之间的交互组件,以钩子(插件)的形式存在,可以代替处理response以及返回给engine items及新的请求集。

    如何创建Scrapy项目

    创建Scrapy项目

    创建scrapy项目的命令是scrapy startproject 项目名,创建一个爬虫
    进入到项目目录scrapy genspider 爬虫名字 爬虫的域名,例子如下:

    scrapy startproject test1
    
    scrapy genspider shSpider hshfy.sh.cn
    

    scrapy项目结构

    items.py 负责数据模型的建立,类似于实体类。
    middlewares.py 自己定义的中间件。
    pipelines.py 负责对spider返回数据的处理。
    settings.py 负责对整个爬虫的配置。
    spiders目录 负责存放继承自scrapy的爬虫类。
    scrapy.cfg scrapy基础配置

  • 相关阅读:
    docker 第六篇 dockerfile
    docker 第五篇 存储
    8.4总结
    消失之物,分治
    NOIP模拟9
    卡特兰数总结
    【洛谷】P3537 [POI2012]SZA-Cloakroom
    0915 N校联考
    [树链剖分]BZOJ3589动态树
    0905膜你赛测试
  • 原文地址:https://www.cnblogs.com/xiao-xue-di/p/10250515.html
Copyright © 2020-2023  润新知