• scrapy的全局命令和项目命令


    全局命令

    startproject
    genspider
    settings
    runspider
    shell
    fetch
    view
    version

    这些全局命令就是不依托项目存在的,也就是不管你有没有项目都能够运行

    startproject

    创建项目
    scrapy startproject quotetutorial

    genspider

    列出所有模板
    scrapy genspider -l 创建一个spider蜘蛛(默认用的basic) scrapy genspider quotes quotes.toscrape.com 创建一个指定的模板的spider scrapy genspider
    -t crawl zhihu www.zhihu.com

    settings

    查看你对你的scrapy设置了哪些参数

    通过scrapy settings -h 来获取这个命令的所有帮助信息,不常用

    获得蜘蛛的下载延迟
    scrapy settings --get DOWNLOAD_DELAY
    
    得到蜘蛛项目的名称
    scrapy settings --get BOT_NAME

    如果没有获取结果则返回none

    runspider

    这个命令基于文件运行蜘蛛,

    也就是 说你按照scrapy的蜘蛛格式编写了一个py文件,不想创建项目,可以用到runspider

    scrapy runspider scrapy_cn.py
    • 如果你要用runspider运行项目下的spider,要进入项目下的spider目录下运行,命令后面的是spider的文件名

    shell

    这个命令主要用于调试,穿入一个url,进入一个交互环境

    scrapy shell http://www.baidu.com

    通过css选择器以及xpath选择器来获取我们想要的内容

    fetch

    在项目外面,相当于一次请求,返回一些日志信息和网站源代码

    scrapy fetch http://www.baidu.com
    选项
    --nolog 忽略日志xinxi
    scrapy fetch --nolog http://www.baidu.com
    
    --headers 输出请求头信息
    scrapy fetch --nolog --headers http://www.baidu.com
    
    --no-redirect 禁止重定向
    scrapy fetch --nolog --no-redirect http://www.baidu.com

    view

    和fetch类似都是查看蜘蛛看到的是否和你看到的一致,便于排错,
    请求一个url,把网页源代码保存成一个文件,并用浏览器打开

    scrapy view http://www.baidu.com

    version

    查看版本信息
    scrapy version
    查看依赖库信息
    scrapy version -v

    接下来我们看一下项目命令

    crawl
    check
    list
    edit
    parse
    bench

    crawl

    运行spider,spider名称不是文件名

    scrapy crawl spider名称

    check

    检查蜘蛛,排错,查找错误

    scrapy check spider名称

    list

    显示项目中的所有蜘蛛

    scrapy list
  • 相关阅读:
    Dictionary(二)
    LoveTao项目源码共享
    小功能天气预报
    对XML的收集3
    小小练习:对XML的处理
    对XML的收集4
    对XML的收集2
    小小练习:测试获取用户信息接口
    大学生免费自学各种技术网址大全 不要再报班了
    DevComponents.AdvTree 相关笔记
  • 原文地址:https://www.cnblogs.com/sunlizhao/p/9564237.html
Copyright © 2020-2023  润新知