• Scrapy框架基础使用


    1、流程框架
     
    2、在命令行中输入scrapy,会有scrapy常见命令参数
    在命令中输入scrapy startproject quote创建一个叫quote的项目
    cd到创建好的项目目录中,然后执行scrapy genspider quotes quotes.toscrape.com,创建spider,指定spider名称--->quotes,
    指定spider抓取的网址-->quotes.toscrape.com
     

    这是一个scrapy框架默认目录结构
    scrapy.cfg --> 配置文件,指定settings配置文件路径
    quote/ ---> 该项目的python模块,之后您将在此加入代码。
    quote/items.py --> 用来保存数据接口
    quote/middlewares.py --> 存储中间件
    quote/pipelines.py --> 项目中的pipelines文件
    quote/settings.py --> 定义一些配置信息
    quote/spiders/ --> 放置spider代码的目录
     
    3、在命令行中输入scrapy crawl quotes,会输出一些配置信息
    scrapy还有一个命令行调试模式,直接在命令行执行scrapy shell quotes.toscrape.com
    extract_first是输入第一个匹配的,是字符串,extract是匹配有多个结果的,输出列表类型
    执行scrapy crawl quotes -o quotes.json可以保持到本地文件,还支持quotes.jl .csv ,还有支持向ftp传输数据
    scrapy crawl -o ftp://user:password@ftp.server.com/path/quotes.csv
    使用-o是可以指定保持需要的文件格式,这个保持方法scrapy都已经集成好了
     
    4、抓取了一个网址先测试scrapy,具体代码请参考GitHub
    https://github.com/watchxu/python/tree/master/ScrapyQuotes
     

  • 相关阅读:
    20180925-5 代码规范,结对要求
    20180925-6 四则运算试题生成
    20180925-7 规格说明书-吉林市2日游
    第二周例行报告
    第二周博客作业
    【杨老师粉丝群】第一周立会报告第四次
    20180925-1 每周例行报告
    规格说明书——吉林市两日游
    效能分析
    四则运算试题生成
  • 原文地址:https://www.cnblogs.com/watchslowly/p/9238048.html
Copyright © 2020-2023  润新知