• python基础之多线程与多进程(二)


    上课笔记整理:

    守护线程的作用,起到监听的作用
    一个函数连接数据库
    一个做守护线程,监听日志
    
    
    两个线程同时取一个数据
    
    线程---->线程安全---->线程同时进行操作数据.
    
    
    IO操作---->time.sleep(0.001操作)  线程切换到另外一个线程
    线程操作,时间越短,线程越不可控(或者不安全)
    
    GIL:解释器加锁
    
    自己加锁:lock=threading.Lock()
    
    func1() 
    
    多线程  ---- 》 并发
    
    线程安全时,串行比较安全
    
    
    
    同步锁
    
    递归锁:基于同步锁加了一个计数器,可以用多次
    
    event  相当于Flag
    作用于线程之间的通信
    
    
    信号量:允许多个线程同时进入,相当于停车场的停车位
    线程最大连接数
    
    
    每运行一个.py文件,都要有一个python.exe运行它
    
    
    协程:
    yield 起到一个状态保存的作用
    send一次,yield接收,程序员自己控制
        监听IO操作,
    1、单线程,不存在切换;
    2、不存在锁的问题6
    
    MySQL    1000个线程连MySQL数据库,设置成连接池20个,相当于20个线程同时连
    
    
    
    IO操作
    time.sleep
    input()
    print()
    socket.accept()
    socket.close()
    sleep()
    
    
    
    greentlet模块时协程的基础
    
    gevent和threading相似
    View Code

    同步锁:

    同步锁也叫互斥锁。

    import time
    import threading
    
    def addNum():
        global num #在每个线程中都获取这个全局变量
        # num-=1
    
        temp=num
        time.sleep(0.1)
        num =temp-1  # 对此公共变量进行-1操作
    
    num = 100  #设定一个共享变量
    
    thread_list = []
    
    for i in range(100):
        t = threading.Thread(target=addNum)
        t.start()
        thread_list.append(t)
    
    for t in thread_list: #等待所有线程执行完毕
        t.join()
    
    print('Result: ', num)
    '''Result:  99'''
    在0.1秒钟期间,100个线程实现了快速切换,分别减去1,得到99

    锁通常被用来实现对共享资源的同步访问。为每一个共享资源创建一个Lock对象,当你需要访问该资源时,调用acquire方法来获取锁对象(如果其它线程已经获得了该锁,则当前线程需等待其被释放),待资源访问完后,再调用release方法释放锁:

    import threading
    
    R=threading.Lock()
    
    R.acquire()
    '''
    对公共数据的操作
    '''
    R.release()
    import time
    import threading
    
    def addNum():
        global num #在每个线程中都获取这个全局变量
        # num-=1
        print("ok")
        lock.acquire()
        temp=num
        time.sleep(0.1)
        num =temp-1  # 对此公共变量进行-1操作
        lock.release()
    num = 100  #设定一个共享变量
    thread_list = []
    lock=threading.Lock()
    for i in range(100):
        t = threading.Thread(target=addNum)
        t.start()
        thread_list.append(t)
    for t in thread_list: #等待所有线程执行完毕
        t.join()
    
    print('Result: ', num)
    #串行
    加锁(lock.acquire()和lock.release())操作

    一共有两把锁,一个是解释器级别的,一个是用户级别的。

    扩展思考

    '''
    1、为什么有了GIL,还需要线程同步?
    
    多线程环境下必须存在资源的竞争,那么如何才能保证同一时刻只有一个线程对共享资源进行存取?
    
    加锁, 对, 加锁可以保证存取操作的唯一性, 从而保证同一时刻只有一个线程对共享数据存取.
    
    通常加锁也有2种不同的粒度的锁:
    
        coarse-grained(粗粒度): python解释器层面维护着一个全局的锁机制,用来保证线程安全。
                                内核级通过GIL实现的互斥保护了内核的共享资源。
    
        fine-grained(细粒度):   那么程序员需要自行地加,解锁来保证线程安全,
                                用户级通过自行加锁保护的用户程序的共享资源。
    
     2、GIL为什么限定在一个进程上?
     
     你写一个py程序,运行起来本身就是一个进程,这个进程是有解释器来翻译的,所以GIL限定在当前进程;
     如果又创建了一个子进程,那么两个进程是完全独立的,这个字进程也是有python解释器来运行的,所以
     这个子进程上也是受GIL影响的                
    '''

    死锁与递归锁:

    所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去。此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进程称为死锁进程。

    import threading
    import time
    
    mutexA = threading.Lock()
    mutexB = threading.Lock()
    
    class MyThread(threading.Thread):
    
        def __init__(self):
            threading.Thread.__init__(self)
    
        def run(self):
            self.fun1()
            self.fun2()
    
        def fun1(self):
    
            mutexA.acquire()  # 如果锁被占用,则阻塞在这里,等待锁的释放
    
            print ("I am %s , get res: %s---%s" %(self.name, "ResA",time.time()))
    
            mutexB.acquire()
            print ("I am %s , get res: %s---%s" %(self.name, "ResB",time.time()))
            mutexB.release()
    
            mutexA.release()
    
    
        def fun2(self):
    
            mutexB.acquire()
            print ("I am %s , get res: %s---%s" %(self.name, "ResB",time.time()))
            time.sleep(0.2)
    
            mutexA.acquire()
            print ("I am %s , get res: %s---%s" %(self.name, "ResA",time.time()))
            mutexA.release()
    
            mutexB.release()
    
    if __name__ == "__main__":
    
        print("start---------------------------%s"%time.time())
    
        for i in range(0, 10):
            my_thread = MyThread()
            my_thread.start()
    死锁

    在Python中为了支持在同一线程中多次请求同一资源,python提供了可重入锁RLock。这个RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次require。直到一个线程所有的acquire都被release,其他的线程才能获得资源。上面的例子如果使用RLock代替Lock,则不会发生死锁:

    Rlock内部维护着一个计数器。

    使用递归锁,使用串行方式。

    Rlock=threading.RLock()

    import threading
    import time
    
    # mutexA = threading.Lock()
    # mutexB = threading.Lock()
    
    Rlock=threading.RLock()
    
    class MyThread(threading.Thread):
    
        def __init__(self):
            threading.Thread.__init__(self)
    
        def run(self):
    
            self.fun1()
            self.fun2()
    
        def fun1(self):
    
            Rlock.acquire()  # 如果锁被占用,则阻塞在这里,等待锁的释放
    
            print ("I am %s , get res: %s---%s" %(self.name, "ResA",time.time()))
    
            Rlock.acquire()  # count=2
            print ("I am %s , get res: %s---%s" %(self.name, "ResB",time.time()))
            Rlock.release()   #count-1
    
            Rlock.release()   #count-1 =0
    
    
        def fun2(self):
            Rlock.acquire()  # count=1
            print ("I am %s , get res: %s---%s" %(self.name, "ResB",time.time()))
            time.sleep(0.2)
    
            Rlock.acquire()  # count=2
            print ("I am %s , get res: %s---%s" %(self.name, "ResA",time.time()))
            Rlock.release()
    
            Rlock.release()   # count=0
    
    
    if __name__ == "__main__":
    
        print("start---------------------------%s"%time.time())
    
        for i in range(0, 10):
    
            my_thread = MyThread()
            my_thread.start()
    '''A-B-B-A'''
    递归锁Rlock

    应用场景:抢票软件中。

    Event对象:

    线程的一个关键特性是每个线程都是独立运行且状态不可预测。如果程序中的其 他线程需要通过判断某个线程的状态来确定自己下一步的操作,这时线程同步问题就 会变得非常棘手。为了解决这些问题,我们需要使用threading库中的Event对象。 对象包含一个可由线程设置的信号标志,它允许线程等待某些事件的发生。在 初始情况下,Event对象中的信号标志被设置为假。如果有线程等待一个Event对象, 而这个Event对象的标志为假,那么这个线程将会被一直阻塞直至该标志为真。一个线程如果将一个Event对象的信号标志设置为真,它将唤醒所有等待这个Event对象的线程。如果一个线程等待一个已经被设置为真的Event对象,那么它将忽略这个事件, 继续执行

     可以考虑一种应用场景(仅仅作为说明),例如,我们有多个线程从Redis队列中读取数据来处理,这些线程都要尝试去连接Redis的服务,一般情况下,如果Redis连接不成功,在各个线程的代码中,都会去尝试重新连接。如果我们想要在启动时确保Redis服务正常,才让那些工作线程去连接Redis服务器,那么我们就可以采用threading.Event机制来协调各个工作线程的连接操作:主线程中会去尝试连接Redis服务,如果正常的话,触发事件,各工作线程会尝试连接Redis服务。

    def worker(event):
        while not event.is_set():
            logging.debug('Waiting for redis ready...')
            event.wait(2)
        logging.debug('redis ready, and connect to redis server and do some work [%s]', time.ctime())
        time.sleep(1)
    View Code
    import threading
    import time
    import logging
    
    logging.basicConfig(level=logging.DEBUG, format='(%(threadName)-10s) %(message)s',)
    
    
    def worker(event):
        logging.debug('Waiting for redis ready...')
    
        while not event.isSet():
            logging.debug("wait.......")
            event.wait(3)   # if flag=False阻塞,等待flag=true继续执行
    
    
        logging.debug('redis ready, and connect to redis server and do some work [%s]', time.ctime())
        time.sleep(1)
    
    def main():
    
        readis_ready = threading.Event()  #  flag=False
        t1 = threading.Thread(target=worker, args=(readis_ready,), name='t1')
        t1.start()
    
        t2 = threading.Thread(target=worker, args=(readis_ready,), name='t2')
        t2.start()
    
        logging.debug('first of all, check redis server, make sure it is OK, and then trigger the redis ready event')
    
        time.sleep(6) # simulate the check progress
        readis_ready.set()  # flag=Ture
    
    
    if __name__=="__main__":
        main()
    
    '''
    (t1        ) Waiting for redis ready...
    (t1        ) wait.......
    (t2        ) Waiting for redis ready...
    (t2        ) wait.......
    (MainThread) first of all, check redis server, make sure it is OK, and then trigger the redis ready event
    (t1        ) wait.......
    (t2        ) wait.......
    (t1        ) wait.......
    (t2        ) wait.......
    (t1        ) redis ready, and connect to redis server and do some work [Wed May 10 16:04:57 2017]
    (t2        ) redis ready, and connect to redis server and do some work [Wed May 10 16:04:57 2017]
    '''
    练习

    这样,我们就可以在等待Redis服务启动的同时,看到工作线程里正在等待的情况。

     Semaphore(信号量):

    Semaphore管理一个内置的计数器,
    每当调用acquire()时内置计数器-1;
    调用release() 时内置计数器+1;
    计数器不能小于0;当计数器为0时,acquire()将阻塞线程直到其他线程调用release()。

    实例:(同时只有5个线程可以获得semaphore,即可以限制最大连接数为5):

    import threading
    import time
    
    semaphore = threading.Semaphore(5)
    
    def func():
        if semaphore.acquire():
            print (threading.currentThread().getName() + ' get semaphore')
            time.sleep(2)
            semaphore.release()
    
    for i in range(20):
      t1 = threading.Thread(target=func)
      t1.start()
    #停车场一次停五辆车
    '''
    Thread-1 get semaphore
    Thread-2 get semaphore
    Thread-3 get semaphore
    Thread-4 get semaphore
    Thread-5 get semaphore
    Thread-7 get semaphore
    Thread-6 get semaphore
    Thread-8 get semaphore
    Thread-9 get semaphore
    Thread-10 get semaphore
    Thread-12 get semaphore
    Thread-11 get semaphore
    Thread-13 get semaphore
    Thread-15 get semaphore
    Thread-14 get semaphore
    Thread-16 get semaphore
    Thread-17 get semaphore
    Thread-18 get semaphore
    Thread-19 get semaphore
    Thread-20 get semaphore
    '''
    Semaphore(信号量)这里相当于停车场

    应用:连接池

    思考:与Rlock的区别?

    队列(queue)

    queue方法:

    queue is especially useful in threaded programming when information must be exchanged safely between multiple threads.

    创建一个“队列”对象
    import Queue
    q = Queue.Queue(maxsize = 10)
    Queue.Queue类即是一个队列的同步实现。队列长度可为无限或者有限。可通过Queue的构造函数的可选参数maxsize来设定队列长度。如果maxsize小于1就表示队列长度无限。
    
    将一个值放入队列中
    q.put(10)
    调用队列对象的put()方法在队尾插入一个项目。put()有两个参数,第一个item为必需的,为插入项目的值;第二个block为可选参数,默认为
    1。如果队列当前为空且block为1,put()方法就使调用线程暂停,直到空出一个数据单元。如果block为0,put方法将引发Full异常。
    
    将一个值从队列中取出
    q.get()
    调用队列对象的get()方法从队头删除并返回一个项目。可选参数为block,默认为True。如果队列为空且block为True,
    get()就使调用线程暂停,直至有项目可用。如果队列为空且block为False,队列将引发Empty异常。
    
    Python Queue模块有三种队列及构造函数:
    1、Python Queue模块的FIFO队列先进先出。   class queue.Queue(maxsize)
    2、LIFO类似于堆,即先进后出。               class queue.LifoQueue(maxsize)
    3、还有一种是优先级队列级别越低越先出来。        class queue.PriorityQueue(maxsize)
    
    此包中的常用方法(q = Queue.Queue()):
    q.qsize() 返回队列的大小
    q.empty() 如果队列为空,返回True,反之False
    q.full() 如果队列满了,返回True,反之False
    q.full 与 maxsize 大小对应
    q.get([block[, timeout]]) 获取队列,timeout等待时间
    q.get_nowait() 相当q.get(False)
    非阻塞 q.put(item) 写入队列,timeout等待时间
    q.put_nowait(item) 相当q.put(item, False)
    q.task_done() 在完成一项工作之后,q.task_done() 函数向任务已经完成的队列发送一个信号
    q.join() 实际上意味着等到队列为空,再执行别的操作

    应用 生产者消费者模型:

    为什么要使用生产者和消费者模式

    在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

    什么是生产者消费者模式

    生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

    这就像,在餐厅,厨师做好菜,不需要直接和客户交流,而是交给前台,而客户去饭菜也不需要不找厨师,直接去前台领取即可,这也是一个结耦的过程。

    import time,random
    import queue,threading
    
    q = queue.Queue()
    
    def Producer(name):
      count = 0
      while count <10:
        print("making........")
        time.sleep(random.randrange(3))
        q.put(count)
        print('Producer %s has produced %s baozi..' %(name, count))
        count +=1
        #q.task_done()
        #q.join()
        print("ok......")
    def Consumer(name):
      count = 0
      while count <10:
        time.sleep(random.randrange(4))
        if not q.empty():
            data = q.get()
            #q.task_done()
            #q.join()
            print(data)
            print('33[32;1mConsumer %s has eat %s baozi...33[0m' %(name, data))
        else:
            print("-----no baozi anymore----")
        count +=1
    
    p1 = threading.Thread(target=Producer, args=('A',))
    c1 = threading.Thread(target=Consumer, args=('B',))
    # c2 = threading.Thread(target=Consumer, args=('C',))
    # c3 = threading.Thread(target=Consumer, args=('D',))
    p1.start()
    c1.start()
    # c2.start()
    # c3.start()
    View Code

    multiprocessing模块

    Multiprocessing is a package that supports spawning processes using an API similar to the threading module. The multiprocessing package offers both local and remote concurrency,effectively side-stepping the Global Interpreter Lock by using subprocesses instead of threads. Due to this, the multiprocessing module allows the programmer to fully leverage multiple processors on a given machine. It runs on both Unix and Windows.

    由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。

    multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。

    python的进程调用:

    # 
    from multiprocessing import Process
    import time
    
    class MyProcess(Process):
        def __init__(self):
            super(MyProcess, self).__init__()
            # self.name = name
    
        def run(self):
    
            print ('hello', self.name,time.ctime())
            time.sleep(1)
    
    
    if __name__ == '__main__':
        p_list=[]
        for i in range(3):
            p = MyProcess()
            p.start()
            p_list.append(p)
    
        for p in p_list:
            p.join()
    
        print('end')
    
    
    '''hello MyProcess-2 Wed May 10 16:10:21 2017
    hello MyProcess-1 Wed May 10 16:10:21 2017
    hello MyProcess-3 Wed May 10 16:10:21 2017
    end
    '''
    进程调用(继承Process类调用)

    process类:

    构造方法:

    Process([group [, target [, name [, args [, kwargs]]]]])

      group: 线程组,目前还没有实现,库引用中提示必须是None; 
      target: 要执行的方法; 
      name: 进程名; 
      args/kwargs: 要传入方法的参数。

    实例方法:

      is_alive():返回进程是否在运行。

      join([timeout]):阻塞当前上下文环境的进程程,直到调用此方法的进程终止或到达指定的timeout(可选参数)。

      start():进程准备就绪,等待CPU调度

      run():strat()调用run方法,如果实例进程时未制定传入target,这star执行t默认run()方法。

      terminate():不管任务是否完成,立即停止工作进程

    属性:

      daemon:和线程的setDeamon功能一样

      name:进程名字。

      pid:进程号。

    from multiprocessing import Process
    import os
    import time
    def info(name):
    
    
        print("name:",name)
        print('parent process:', os.getppid())
        print('process id:', os.getpid())
        print("------------------")
        time.sleep(1)
    
    def foo(name):
    
        info(name)
    
    if __name__ == '__main__':
    
        info('main process line')
    
    
        p1 = Process(target=info, args=('alvin',))
        p2 = Process(target=foo, args=('egon',))
        p1.start()
        p2.start()
    
        p1.join()
        p2.join()
    
        print("ending")
    
    
    '''
    name: main process line
    parent process: 9668    #pycharm进程号
    process id: 37652       #python.exe进程号
    ------------------
    name: egon
    name: alvin
    parent process: 37652
    process id: 40800
    ------------------
    parent process: 37652
    process id: 35668
    ------------------
    ending
    '''
    View Code

    协程:

    协程的好处:
    1、由于单线程,不能再切换。
    2、不再有任何锁的概念。

    yield与协程:

    import time
    
    """
    传统的生产者-消费者模型是一个线程写消息,一个线程取消息,通过锁机制控制队列和等待,但一不小心就可能死锁。
    如果改用协程,生产者生产消息后,直接通过yield跳转到消费者开始执行,待消费者执行完毕后,切换回生产者继续生产,效率极高。
    """
    # 注意到consumer函数是一个generator(生成器):
    # 任何包含yield关键字的函数都会自动成为生成器(generator)对象
    
    def consumer():
        r = ''
        while True:
            # 3、consumer通过yield拿到消息,处理,又通过yield把结果传回;
            #    yield指令具有return关键字的作用。然后函数的堆栈会自动冻结(freeze)在这一行。
            #    当函数调用者的下一次利用next()或generator.send()或for-in来再次调用该函数时,
            #    就会从yield代码的下一行开始,继续执行,再返回下一次迭代结果。通过这种方式,迭代器可以实现无限序列和惰性求值。
            n = yield r
            if not n:
                return
            print('[CONSUMER] ←← Consuming %s...' % n)
            time.sleep(1)
            r = '200 OK'
    def produce(c):
        # 1、首先调用c.next()启动生成器
        next(c)
        n = 0
        while n < 5:
            n = n + 1
            print('[PRODUCER] →→ Producing %s...' % n)
            # 2、然后,一旦生产了东西,通过c.send(n)切换到consumer执行;
            cr = c.send(n)
            # 4、produce拿到consumer处理的结果,继续生产下一条消息;
            print('[PRODUCER] Consumer return: %s' % cr)
        # 5、produce决定不生产了,通过c.close()关闭consumer,整个过程结束。
        c.close()
    if __name__=='__main__':
        # 6、整个流程无锁,由一个线程执行,produce和consumer协作完成任务,所以称为“协程”,而非线程的抢占式多任务。
        c = consumer()
        produce(c)
        
        
    '''
    result:
    
    [PRODUCER] →→ Producing 1...
    [CONSUMER] ←← Consuming 1...
    [PRODUCER] Consumer return: 200 OK
    [PRODUCER] →→ Producing 2...
    [CONSUMER] ←← Consuming 2...
    [PRODUCER] Consumer return: 200 OK
    [PRODUCER] →→ Producing 3...
    [CONSUMER] ←← Consuming 3...
    [PRODUCER] Consumer return: 200 OK
    [PRODUCER] →→ Producing 4...
    [CONSUMER] ←← Consuming 4...
    [PRODUCER] Consumer return: 200 OK
    [PRODUCER] →→ Producing 5...
    [CONSUMER] ←← Consuming 5...
    [PRODUCER] Consumer return: 200 OK
    '''
    View Code

    greenlet:

    greenlet 是最底层的库。gevent库和eventlet库,都是在greenlet库得基础上继续封装。

    greenlet机制的主要思想是:生成器函数或者协程函数中的yield语句挂起函数的执行,直到稍后使用next()或send()操作进行恢复为止。可以使用一个调度器循环在一组生成器函数之间协作多个任务。greentlet是python中实现我们所谓的"Coroutine(协程)"的一个基础库.

    from greenlet import greenlet
    
    
    def test1():
        print(12)
        gr2.switch()
        print(34)
        gr2.switch()
    
    
    def test2():
        print(56)
        gr1.switch()
        print(78)
    
    
    gr1 = greenlet(test1)
    gr2 = greenlet(test2)
    gr1.switch()
    '''
    12
    56
    34
    78
    '''
    View Code

    基于greenlet的框架:

    gevent模块实现协程

    Python通过yield提供了对协程的基本支持,但是不完全。而第三方的gevent为Python提供了比较完善的协程支持。

    gevent是第三方库,通过greenlet实现协程,其基本思想是:

    当一个greenlet遇到IO操作时,比如访问网络,就自动切换到其他的greenlet,等到IO操作完成,再在适当的时候切换回来继续执行。由于IO操作非常耗时,经常使程序处于等待状态,有了gevent为我们自动切换协程,就保证总有greenlet在运行,而不是等待IO。

    由于切换是在IO操作时自动完成,所以gevent需要修改Python自带的一些标准库,这一过程在启动时通过monkey patch完成:

    import gevent
    import time
    
    def foo():
        print("running in foo")
        gevent.sleep(2)
        print("switch to foo again")
    
    def bar():
        print("switch to bar")
        gevent.sleep(5)
        print("switch to bar again")
    
    start=time.time()
    
    gevent.joinall(
        [gevent.spawn(foo),
        gevent.spawn(bar)]
    )
    
    print(time.time()-start)
    '''
    running in foo
    switch to bar
    switch to foo again
    switch to bar again
    5.016380071640015
    '''
    View Code

    当然,实际代码里,我们不会用gevent.sleep()去切换协程,而是在执行到IO操作时,gevent自动切换,代码如下:

    from gevent import monkey
    monkey.patch_all()
    import gevent
    from urllib import request
    import time
    
    def f(url):
        print('GET: %s' % url)
        resp = request.urlopen(url)
        data = resp.read()
        print('%d bytes received from %s.' % (len(data), url))
    
    start=time.time()
    
    gevent.joinall([
            gevent.spawn(f, 'https://itk.org/'),
            gevent.spawn(f, 'https://www.github.com/'),
            gevent.spawn(f, 'https://zhihu.com/'),
    ])
    
    # f('https://itk.org/')
    # f('https://www.github.com/')
    # f('https://zhihu.com/')
    
    print(time.time()-start)
    
    。。。。。输出。。。。。。。。
    '''
    GET: https://itk.org/
    GET: https://www.github.com/
    GET: https://zhihu.com/
    8885 bytes received from https://zhihu.com/.
    92572 bytes received from https://www.github.com/.
    12323 bytes received from https://itk.org/.
    5.976895570755005
    '''
    View Code

    扩展:

    gevent是一个基于协程(coroutine)的Python网络函数库,通过使用greenlet提供了一个在libev事件循环顶部的高级别并发API。

    主要特性有以下几点:

    <1> 基于libev的快速事件循环,Linux上面的是epoll机制

    <2> 基于greenlet的轻量级执行单元

    <3> API复用了Python标准库里的内容

    <4> 支持SSL的协作式sockets

    <5> 可通过线程池或c-ares实现DNS查询

    <6> 通过monkey patching功能来使得第三方模块变成协作式

    gevent.spawn()方法spawn一些jobs,然后通过gevent.joinall将jobs加入到微线程执行队列中等待其完成,设置超时为2秒。执行后的结果通过检查gevent.Greenlet.value值来收集。

  • 相关阅读:
    git 存储stash 唏嘘
    Postman请求接口无响应解决案例(Could not send request) 唏嘘
    mybatis if判断字符串 唏嘘
    Mybatis if判断Integer类型的值 唏嘘
    mysql 按照中文首字母排序 唏嘘
    git add命令 唏嘘
    git stash drop stash@{0} error: unknown switch `e‘(window10) 唏嘘
    【原】3D游戏中的算法MMO游戏全视角3D相机,全地形中视觉障碍物自动缩进调整
    work diary
    高中物理错题本
  • 原文地址:https://www.cnblogs.com/bingabcd/p/6833525.html
Copyright © 2020-2023  润新知