• 基础的爬虫框架及运行流程


    爬虫框架的基础和运行流程

    基本的框架流程

    基础爬虫框架主要包括五大模块、分别为爬虫调度器、URL管理器、HTML下载器、HTML解析器、数据存储器。功能分析如下:

    爬虫调度器主要负责统筹其他四个模块的协调工作。

    URL管理器负责URL链接的管理,维护已经爬取的URL集合和未爬取的URL集合,提供获取新URL链接的接口。

    HTML下载器用于从URL管理器中获取未爬取的URL链接并下载HTML网页。

    HTML解析器用于从HTML下载器中获取已经下载的HTML页面,并从中解析出新的URL链接交给URL管理器,解析出有效数据交给数据存储器。

    数据存储器用于将HTML解析器解析出来的数据通过文件或者数据库的形式存储起来。

    运行流程

    1.1URL管理器

      URL管理器主要包括两个变量,一个是已爬取URL的集合,另一个是未爬取URL的集合。采用Python中的set类型,主要是使用set的去重复功能,防止链接重复爬取,因为爬取连接重复时容易造成死循环。链接去重复在Python爬虫开发中是必备的功能,解决方案主要有三种:

    1.内存去重

    2.关系数据库去重

    3.缓存数据库去重

    大型的成熟的爬虫基本上采用缓存数据库的去重方案,尽可能避免内存大小的限制,又比关系型数据库去重性能高很多。由于基础爬虫的爬取数量较小,因此我们可以使用Python中set这个内存去重方式。

      URL管理器除了具有两个URL集合,还需要提供一下接口,用于配合其他模块使用,接口如下:

      判断是否有待取的URL,方法定义为has_new_url()。

      添加新的URL到未爬取集合中,方法定义为add_new_url(url),add_new_urls(urls)。

      获取一个未爬取的URL,方法定义为get_new_url()。

      获取未爬取URL集合的大小,方法定义为new_url_size()。

      获取已经爬取的URL集合的大小,方法定义为old_url_size()

    1.2 HTML下载器

    HTML下载器用来下载网页,这时候需要注意网页的编码,以保证下载的网页没有乱码。

    下载器需要用到Requests模块,里面只需要实现一个接口即可:download(url)。

    1.3 HTML解析器

    这里使用的是BeautifulSoup4进行HTML解析。需要解析的部分主要分为提取相关词条页面的URL和提取当前词条的标题和摘要信息。

    1.4 数据存储器

    1.5 爬虫调度器

  • 相关阅读:
    Linux 设备驱动--- Poll 方法 --- Select【转】
    Linux 设备驱动--- 阻塞型字符设备驱动 --- O_NONBLOCK --- 非阻塞标志【转】
    一篇不错的v4l2入门文档【转】
    戴文的Linux内核专题:03 驱动程序【转】
    戴文的Linux内核专题:02 源代码【转】
    使用 Python 开始你的机器学习之旅【转】
    双缓冲(Double Buffer)原理和使用【转】
    内核中的内存申请:kmalloc、vmalloc、kzalloc、kcalloc、get_free_pages【转】
    几种常见的YUV格式--yuv422:yuv420【转】
    C程序编译过程浅析【转】
  • 原文地址:https://www.cnblogs.com/zcfx/p/9529020.html
Copyright © 2020-2023  润新知