• Scrapy官网程序执行示例


    Windows 10家庭中文版本,Python 3.6.4,Scrapy 1.5.0,

    Scrapy已经安装很久了,前面也看了不少Scrapy的资料,自己尝试使其抓取微博的数据时,居然连登录页面(首页)都进不去,后又在前几日补充学习了re、requests、urllib3、bs4.BeautifulSoup的一些知识后,今天正式开始学习Scrapy爬虫框架。希望通过学习和实践,可以开发出分布式爬虫程序,可以抓取各种网站的数据,包括微博的,包括不熟悉的暗网的。

    本文介绍了运行Scrapy官网的示例的过程。

    由于孤的系统安装了Python 2.7和Python 3.6,因此,在第一次运行时居然出错了。

    1.在Eclipse中编写程序(有自动提示)

    2.打开命令行执行程序

    第一次输入的是官网的命令:scrapy runspider scrapy0.py,结果执行错误——默认使用了Python 2.7的解释器。

    更改执行命令为:python3 -m scrapy runspider scrapy0.py,再次执行,成功:

    显示抓取到的数据:

    执行scrapy runspider命令后发生了什么呢?在官文Scrapy at a glance中有介绍。

    3.在命令行中结束程序:Ctrl+C

    4.其它

    4.1. 源码解读

    其实,在编写爬虫程序之前,首先应该分析网站的数据的,然后再根据网站的数据指定抓取规则。

    在官网示例中,抓取的是https://blog.scrapinghub.com中的文章的标题,这个标题位于class为entry-title的<h2>标签中,但这个标题的文字又被一个<a>标签包含,因此,才有了parse函数中的解析语法:

    response.css('h2.entry-title')

    title.css('a ::text').extract_first()

    因为一个页面上有多个文章引用,因此,首先用for循环打印此本页的所有标题,

    然后,执行【翻页】,去新的页面找到新的标题,于是有了parse中的第二个for循环。

    但孤对第二个for循环中的response.follow(...)函数了解有限,还需阅读官网,大概的功能就是 跳转到新页面——<a>标签对象,指定解析函数——还是这个parse函数。

    4.2. 网页分析——重难点

    其实,开发爬虫程序前,首先要确定源网站的数据格式,需要对源网站进行网页结构、数据分析等工作,而且这个工作会在网页改版后立即调整——调整会导致爬虫【短时间】失效,也可能【长时间】失效。

    下面是https://blog.scrapinghub.com的分析(这个比较简单,之前看的文章都是拿知乎、微博、博客园做例子,非常“凶残”):使用了Chrome浏览器的Developer Tool(F2 或 Ctrl + Shift + J打开)

    4.3. 继续改进

    Scrapy首页中是在命令行执行程序,其实,可以在Eclipse中直接执行,需要写更多代码,还需dig;

    Scrapy首页还提到了部署,可以试试部署到云平台或自己的服务器;

    之前看资料讲,需要设定爬虫的运行周期或频率,不一定要每时每刻运行,也是可以在Scrapy中配置吧?或者要外部程序?

    本示例的抓取结果是输出到命令行窗口,之前看的资料提示可以结合Mongodb、Redis将抓取的数据存储到本地,那么,这就会涉及到更多内容了,比如,重复抓取数据、抓取数据的页面/图片保存、数据量太大、制定关键字抓取等,一个一个来解决;

    5.示例启动过程

    5.1. 启动

    INFO: Scrapy 1.5.0 started (bot: scrapybot)

    INFO: Versions: lxml 4.2.1.0, ...

    INFO: Enabled extensions: ...

    INFO: Enabled downloader middlewares: ...

    INFO: Enabled spider middlewares: ...

    INFO: Enabled item pipelines: ...

    INFO: Spider opened

    INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)

    DEBUG: Crawled (200) <GET https://blog.scrapinghub.com> (referer: None)

    ...数据来了...

    5.2. 结束

    INFO: Dumping Scrapy stats: 

    {

    ...

     'finish_reason': 'shutdown',

     'finish_time': datetime.datetime(2018, 6, 26, 1, 13, 42, 25259),

     'request_depth_max': 4,

    ...

     'start_time': datetime.datetime(2018, 6, 26, 1, 13, 36, 126224)}

    INFO: Spider closed (shutdown)

    6.后记

    之前看爬虫资料时,觉得自己可以做一个系统给每个人提供 个性化的爬虫(自行指定关键词)。在和朋友聊过后发现,原来,今日头条就是这个干的啊。哈,谁让自己不早点学习呢。

  • 相关阅读:
    关于公允价值计量
    财务成本按标准工时核算
    什么是行权
    稀释每股收益
    注销库存股不影响基本每股收益
    代写spss modeler通过apriori关联规则数据挖掘我们能从股市数据得到什么
    【大数据部落】R语言代写实现:混合正态分布EM最大期望估计法
    R语言代写如何找到患者数据中具有差异的指标?(PLS—DA分析)
    windows中用命令行执行R语言命令
    R 语言代写绘制功能富集泡泡图
  • 原文地址:https://www.cnblogs.com/luo630/p/9227834.html
Copyright © 2020-2023  润新知