• scrapy


    第3章学习笔记:

    Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。
    其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。

    Scrapy 使用了 Twisted异步网络库来处理网络通讯。

    Scrapy主要包括了以下组件:

    • 引擎(Scrapy)
      用来处理整个系统的数据流处理, 触发事务(框架核心)
    • 调度器(Scheduler)
      用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
    • 下载器(Downloader)
      用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)
    • 爬虫(Spiders)
      爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面
    • 项目管道(Pipeline)
      负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
    • 下载器中间件(Downloader Middlewares)
      位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
    • 爬虫中间件(Spider Middlewares)
      介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
    • 调度中间件(Scheduler Middewares)
      介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

    Scrapy运行流程大概如下:

    引擎从调度器中取出一个链接(URL)用于接下来的抓取

    引擎把URL封装成一个请求(Request)传给下载器

    下载器把资源下载下来,并封装成应答包(Response)

    爬虫解析Response

    解析出实体(Item),则交给实体管道进行进一步的处理

    解析出的是链接(URL),则把URL交给调度器等待抓取

    windows安装scrapy
    (1)安装twisted
    a. pip3 install wheel
    b. 下载twisted https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
    c. 进入下载目录,执行pip3 install Twisted-xxx.whl
    (2)安装scrapy
    d. pip3 install scrapy -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
    (3)安装pywin32
    e. pip3 install pywin32 -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

    本质
    sk = socket()
    # 阻塞
    sk.connect(('www.cnblogs.com',80))
    
    sk.sendall(b"GET /wupeiqi http1.1
    .....
    
    ")
    sk.sendall(b"POST /wupeiqi http1.1
    .....
    
    user=alex&pwd=123")
    
    # 阻塞
    data = sk.recv(8096)
    
    sk.close()

    IO多路复用:

      监听多个socket是否发生变化

    IO多路复用的作用:

      1.select,内部循环检测socket是否发生变化;最多只能检测1024个socket

      2.poll,内部循环检测socket是否发生变化;检测socket数不限

      3.epoll,通过回调的方式检测socket是否发生变化;检测socket数不限

    什么是异步非阻塞?

    非阻塞:

       不等待(可能会报错,捕捉异常)
       代码:
        sk = socket.socket()
        sk.setblocking(False)
    异步:
      回调,当达到某个指定的状态之后,自动调用特定函数。

    如何自定义异步非阻塞模块?   

    本质:socket+IO多路复用

      基于socket设置setblocking和IO多路复用来实现。
      爬虫发送Http请求本质创建socket对象;
      IO多路复用"循环"监听socket是否发生变化,一旦发生变化, 我们可以自定义操作(触发某个函数的执行)

    协程

      1. 是“微线程”,不存在;是由程序员人为创造出来并控制程序:先执行某段代码、再跳到某处执行某段代码
      2.如果遇到非IO请求来回切换:性能更低

      3. 如果遇到IO(耗时)请求来回切换:性能高、实现并发(本质上利用IO等待的过程,再去干一些其他的事

     通过yield实现一个协程:

    def func1():
                            
                            print('adsfasdf')
                            print('adsfasdf')
                            print('adsfasdf')
                            yield 1
                            print('adsfasdf')
                            print('adsfasdf')
                            print('adsfasdf')
                            
                            yield 2
                            yield 3
                            yield 4
                            
                        def func2():
                            print('adsfasdf')
                            print('adsfasdf')
                            print('adsfasdf')
                            yield 11
                            yield 12
                            yield 19
                            
                            
                        g1=func1()
                        g2=func2()
                        
                        g1.send(None)
                        g1.send(None)
                        g2.send(None)
    通过greenlet模块实现一个协程:
    from greenlet import greenlet
         
    
                        def test1():
                            print 12
                            gr2.switch()
                            print 34
                            gr2.switch()
                         
                         
                        def test2():
                            print 56
                            gr1.switch()
                            print 78
                         
                        gr1 = greenlet(test1)
                        gr2 = greenlet(test2)
                        gr1.switch()
    Python内置以及第三方模块提供异步IO请求模块,使用简便大大提高效率,而对于异步IO请求的本质则是【非阻塞Socket】+【IO多路复用】:
    import asyncio
    import requests
    
    @asyncio.coroutine
    def fetch_async(func, *args):
        loop = asyncio.get_event_loop()
        future = loop.run_in_executor(None, func, *args)
        response = yield from future
        print(response.url, response.content)
    
    tasks = [
        fetch_async(requests.get, 'http://www.cnblogs.com/wupeiqi/'),
        fetch_async(requests.get, 'http://dig.chouti.com/pic/show?nid=4073644713430508&lid=10273091')
    ]
    
    loop = asyncio.get_event_loop()
    results = loop.run_until_complete(asyncio.gather(*tasks))
    loop.close()
    
    
    2222
    import gevent
    import requests
    from gevent import monkey
    
    monkey.patch_all()
    
    def fetch_async(method, url, req_kwargs):
        print(method, url, req_kwargs)
        response = requests.request(method=method, url=url, **req_kwargs)
        print(response.url, response.content)
    
    发送请求 
    gevent.joinall([
        gevent.spawn(fetch_async, method='get', url='https://www.python.org/', req_kwargs={}),
        gevent.spawn(fetch_async, method='get', url='https://www.yahoo.com/', req_kwargs={}),
        gevent.spawn(fetch_async, method='get', url='https://github.com/', req_kwargs={}),
    ])
    
    #发送请求 协程池控制最大协程数量
    # from gevent.pool import Pool
    # pool = Pool(None)
    # gevent.joinall([
    #     pool.spawn(fetch_async, method='get', url='https://www.python.org/', req_kwargs={}),
    #     pool.spawn(fetch_async, method='get', url='https://www.yahoo.com/', req_kwargs={}),
    #     pool.spawn(fetch_async, method='get', url='https://www.github.com/', req_kwargs={}),
    # ])
    
    333
    from twisted.web.client import getPage, defer from twisted.internet import reactor def all_done(arg): reactor.stop() def callback(contents): print(contents) d_list = [] url_list = ['http://www.bing.com', 'http://www.baidu.com', ] for url in url_list: d = getPage(bytes(url, encoding='utf8')) d.addCallback(callback) d_list.append(d) # 用于检查是否页面已经全部下载完成,如果已下载完成那么,就停止循环。 dlist = defer.DeferredList(d_list) dlist.addBoth(all_done) # reactor.run()

      

  • 相关阅读:
    Linux 文件查询
    Linux 文件与目录的权限
    Linux查看文件内容
    Linux文件与目录管理
    Linux的文件权限
    java 源码编译
    jvm 字节码执行 (二)动态类型支持与基于栈的字节码解释执行
    jvm 字节码执行 (一)方法调用
    玩转mongodb(七):索引,速度的引领(全文索引、地理空间索引)
    玩转mongodb(六):索引,速度的引领(普通索引篇)
  • 原文地址:https://www.cnblogs.com/zhange000/p/9304210.html
Copyright © 2020-2023  润新知