• Django+Scrapy结合使用并爬取数据入库


    1. 创建django项目,并编写models.py,启动django项目

    2. 配置Django嵌入
      Django项目根目录下创建Scrapy项目(这是scrapy-djangoitem所需要的配置)
      配置Django嵌入,在Scrapy的settings.py中加入以下代码:

    import os
    import sys
    sys.path.append(os.path.dirname(os.path.abspath('.')))
    os.environ['DJANGO_SETTINGS_MODULE'] = '子app.settings'
    # 手动初始化Django:
    import django
    django.setup()

    3.编写爬虫

    4.item.py中引入Django模型类

    import scrapy
        
    from scrapy_djangoitem import DjangoItem
    from 子app import models
    class TalksItem(DjangoItem):
        django_model = models.表名

    5.pipelines.py中调用save()

    class TalksPipeline(object):
        def process_item(self, item, spider):
            print('打开数据库')
            item.save() # 数据将会自动添加到指定的表
            print('关闭数据库')
            return item

    6.启动爬虫:scrapy crawl 爬虫名

    7.刷新admin后台,此时数据已经入库了!

    开不开心!

  • 相关阅读:
    C++中struct和class的区别
    关于LBP特征等价模式的解释
    常用的颜色模型
    flask类装饰器
    flask的方法视图
    flask standrad class 使用
    flask add_url_rule的使用
    模板的继承
    模板变量设置 set 和 with
    模版include的用法
  • 原文地址:https://www.cnblogs.com/kitshenqing/p/11059636.html
Copyright © 2020-2023  润新知