• 【python】【scrapy】使用方法概要(一)


    【请初学者作为参考,不建议高手看这个浪费时间】

    工作中经常会有这种需求,需要抓取互联网上的数据。笔者就经常遇到这种需求,一般情况下会临时写个抓取程序,但是每次遇到这种需求的时候,都几乎要重头写,特别是面临需要抓取大数量网页,并且被抓取网站有放抓取机制的时候,处理起来就会很麻烦。

    无意中接触到了一个开源的抓取框架scrapy,按照introduction做了第一个dirbot爬虫,觉得很方便,就小小研究了一下,并在工作中用到过几次。

    scrapy的文档是英文的,网上相关的说明很少,使用的过程中也遇到过很多问题,大部分都是在 stack overflow 上找到的解答,看来这个工具国外的同行们用的会更多些。鉴于国内关于scrapy的文章甚少,笔者希望能用自己的一些浅显的经验希望帮助大家更快对scrapy入门,作为笔者的第一篇分享文章,很难一气呵成完成,本文将分为几个部分,按照我自己的学习曲线作为组织,如果有错误,希望大家指正。

    首先简要终结一下我认为scrapy最便利的几个地方:

    1. 代码分工明确,一个抓取任务只需要在几个位置固定的地方增加代码,很容易就能写出基本的抓取功能。

    2. 框架隐藏了很多抓取细节,如任务调度,重试机制,但并不是说框架不够灵活,例如框架支持以添加中间件的方式更改隐藏的细节,满足特殊需要,如使用代理ip池进行抓取,防止服务器封掉ip。

    好啦,下面正式开始,从安装开始

    笔者的运行环境是:linux python2.5

    包管理使用的是:apt-get

    安装流程:

    1. 首先去官方网站下载源码

    https://github.com/scrapy/scrapy/tarball/0.14

    2. 安装scrapy以来的python库

    sudo apt-get install python-twisted python-libxml2 python-pyopenssl python-simplejson

    3. 安装 

    tar zxf Scrapy-X.X.X.tar.gz
    cd Scrapy-X.X.X
    sudo python setup.py install
    4. 执行
    scrapy  
    如果出现
    image 
    恭喜你,安装成功。
    【未完待续~~~~~】
    喜欢一起简单,实用的东西,拒绝复杂花哨,我不是GEEK.
  • 相关阅读:
    ES7 cat API的小结
    zabbix5.0 使用elasticsearch7.6按日期索引存储历史数据
    Archlinux爬坑指南
    ArchLinux安装常用软件QQ、TIM、微信等常用软件(三)
    ArcnLinux安装KDE桌面环境(二)
    ArchLinux安装步骤(一)
    DDD领域驱动及落地方案
    Text Classification with Keras
    Mattermost Server安装及配置AD/LADP
    使用队列问题
  • 原文地址:https://www.cnblogs.com/igloo1986/p/2645902.html
Copyright © 2020-2023  润新知