• python之进程


    1,什么是进程呢?

    进程(Process)是计算机中的关于某数据集合上的一次运算,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。进程是程序的实体。

    动态性:进程的实质是程序在多道程序系统中的一次执行过程,进程是动态产生,动态消亡的。
    并发性:任何进程都可以同其他进程一起并发执行
    独立性:进程是一个能独立运行的基本单位,同时也是系统分配资源和调度的独立单位;
    异步性:由于进程间的相互制约,使进程具有执行的间断性,即进程按各自独立的、不可预知的速度向前推进
    结构特征:进程由程序、数据和进程控制块三部分组成。
    多个不同的进程可以包含相同的程序:一个程序在不同的数据集里就构成不同的进程,能得到不同的结果;但是执行过程中,程序不能发生改变。
    进程的特征
    程序是指令和数据的有序集合,其本身没有任何运行的含义,是一个静态的概念。
    而进程是程序在处理机上的一次执行过程,它是一个动态的概念。
    程序可以作为一种软件资料长期存在,而进程是有一定生命期的。
    程序是永久的,进程是暂时的。
    程序与进程的区别

    同一个程序执行两次,就会在操作系统中出现两个进程,可以同时运行一个软件,分别做不同的事情也不会混乱。

    2,进程调度

    要想多个进程交替运行,操作系统必须对这些进程进行调度,需要进程调度算法。

    (1)先来先服务调度算法

    (2)短作业优先调度算法

    (3)时间片轮转发

    (4)多级反馈队列:设置多个就绪队列,为各个队列赋予不同优先级。优先级逐个降低,当一个程序在时间片仍未执行完,便加入到下一对列,直到执行完。每当有新进程进来,优先执行。

    3,进程的并行与并发

    并行:并行是指两者同时执行,例:比赛,两个人都在不停的往前跑(资源够用。比如三个线程,四核的cpu)

    并发:并发是指在资源有限的情况下,两者交替轮流使用资源。(单核cpu)A走一段hou

    ,让B走一段,B用完后在给A,交替使用。

    区别:

    并行:是从微观上,就是在一个精确的时间片刻,有不同的程序在执行,要求必须有多个处理器。

    并发:是从宏观上,在一个时间段可以看出同时执行的,比如一个服务器同时处理多个session

    4,同步异步阻塞非阻塞

    操作系统调度算法控制时,程序会进入几个状态:就绪,运行,阻塞。

    (1)同步与异步

    同步:完成一个任务需要依赖另一个任务,只等别依赖的任务完成后,才能执行自己的。

    异步:不需要等待依赖任务完后成,只需通知被依赖的任务执行。

    (2)阻塞非阻塞

    阻塞:程序停止不在执行

    5,进程的创建与结束

    multiprocess模块

    (1)

    Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)
    
    强调:
    1. 需要使用关键字的方式来指定参数
    2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
    
    参数介绍:
    1 group参数未使用,值始终为None
    2 target表示调用对象,即子进程要执行的任务
    3 args表示调用对象的位置参数元组,args=(1,2,'egon',)
    4 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
    5 name为子进程的名称
    View Code
    1 p.start():启动进程,并调用该子进程中的p.run() 
    2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法  
    3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
    4 p.is_alive():如果p仍然运行,返回True
    5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程 
    方法
    1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
    2 p.name:进程的名称
    3 p.pid:进程的pid
    4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
    5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
    属性
    在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。
    注意事项
    # from  multiprocessing import Process
    # import os
    # def func(i):
    #     print('%d:子进程%d干的事,父进程:%d'%(i,os.getpid(),os.getppid()))
    #
    # if __name__=='__main__':
    #     p_lst=[]
    #     for i in range(10):
    #         p=Process(target=func,args=(i,))
    #         p.start()
    #         p_lst.append(p)
    #     # p.join()                         #等子进程执行完,才执行下面的
    #     for p in p_lst:p.join()
    #     print('---主进程---')

    多进程同时运行,子进程的执行顺序不是根据启动顺序决定的。

    (2)通过继承Process类开启进程。

    import os
    from multiprocessing import Process
    
    
    class MyProcess(Process):
        def __init__(self,name):
            super().__init__()
            self.name=name
        def run(self):                                 #必须有run方法
            print(os.getpid())
            print('%s 正在和女主播聊天' %self.name)
    
    p1=MyProcess('wupeiqi')
    p2=MyProcess('yuanhao')
    p3=MyProcess('nezha')
    
    p1.start() #start会自动调用run
    p2.start()
    # p2.run()
    p3.start()
    
    
    p1.join()
    p2.join()
    p3.join()
    
    print('主线程')

    注:进程之间的数据不是共享的(数据的隔离问题)

    from multiprocessing import Process
    
    def work():
        global n
        n=0
        print('子进程内: ',n)
    
    
    if __name__ == '__main__':
        n = 100
        p=Process(target=work)
        p.start()
        print('主进程内: ',n)

    5,守护进程

    子进程会随主进程的结束而结束。

    主进程创建守护进程

           其一:守护进程会在主进程代码执行结束后终止

           其二:守护进程内无法再开子进程,否则抛异常。

    # start  开启一个进程
    # join   用join可以让主进程等待子进程结束
    
    # 守护进程
    # 守护进程会随着主进程的代码执行结束而结束
    # 正常的子进程没有执行完的时候主进程要一直等着
    import time
    from multiprocessing import Process
    def func():
        print('--'*10)
        time.sleep(15)
        print('--'*10)
    
    def cal_time():
        while True:
            time.sleep(1)
            print('过去了1秒')
    
    if __name__ == '__main__':
        p = Process(target=cal_time)
        p.daemon = True     # 一定在开启进程之前设置
        p.start()
        p2 = Process(target=func)  # 15s
        p2.start()
        for i in range(100):    # 10s
            time.sleep(0.1)
            print('*'*i)
        p2.join()
    
    # 守护进程的进程的作用:
        # 会随着主进程的代码执行结束而结束,不会等待其他子进程
    # 守护进程 要在start之前设置
    # 守护进程中 不能再开启子进程
    View Code

    6,锁

      当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题

    from multiprocessing import Lock

    import time
    import json
    import random
    from multiprocessing import Lock
    from multiprocessing import Process
    
    def search(i):
        with open('ticket') as f:
            print(i,json.load(f)['count'])
    
    def get(i):
        with open('ticket') as f :
            ticket_num=json.load(f)['count']
        time.sleep(random.random())
        if ticket_num>0:
            with open('ticket','w') as f:
                json.dump({'count':ticket_num-1},f)
            print('%s买到票了'%i)
        else:
            print('%s没买到票'%i)
    def task(i,lock):
        search(i)
        lock.acquire()   #锁,钥匙
        get(i)
        lock.release()   #还钥匙
    
    if __name__=='__main__':
        lock=Lock()
        for i in range(20):
            p=Process(target=task,args=(i,lock))
            p.start()
    抢票的例子
    #加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
    虽然可以用文件共享数据实现进程间通信,但问题是:
    1.效率低(共享数据基于文件,而文件是硬盘上的数据)
    2.需要自己加锁处理
    
    #因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
    队列和管道都是将数据存放于内存中
    队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
    我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

    7,信号量(from multiprocessing import Semaphore)

    信号量基于内部的计数器,可以有多个锁钥匙。

    import random
    import time
    from multiprocessing import Process
    from multiprocessing import Semaphore
    
    def sing(i,sem):
        sem.acquire()
        print('%s :进去 ktv '%i)
        time.sleep(random.randint(2,8))
        print('%s : 离开 ktv'%i)
        sem.release()
    
    if __name__=='__main__':
        sem=Semaphore(5)          #钥匙数,参数可以设置
        for i in range(20):
            Process(target=sing,args=(i,sem)).start()
    例子

    8,事件(from multiprocessing import Event)

    python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。
    
        事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。
    
    clear:将“Flag”设置为False
    set:将“Flag”设置为True
    介绍
    # import time
    # import random
    # from multiprocessing import Process
    # from multiprocessing import Event
    #
    # def traffic_light(e):
    #     while True:
    #         if e.is_set():         # e.is_set()是否阻塞 True就是绿灯 False就是红灯
    #             time.sleep(3)
    #             print('红灯亮')
    #             e.clear()        
    #         else:
    #             time.sleep(3)
    #             print('绿灯亮')
    #             e.set()
    # def car(i,e):
    #     e.wait()
    #     print('%s车通过'%i)
    #
    # if __name__=='__main__':
    #     e=Event()
    #     tra=Process(target=traffic_light,args=(e,))
    #     tra.start()
    #     for i in range(100):
    #         if i%6 == 0:
    #             time.sleep(random.randint(1,3))
    #         car_pro=Process(target=car,args=(i,e))
    #         car_pro.start()
    例子

    9,队列(from multiprocessing import Queue)

    创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

    Queue([maxsize]) 
    创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。 
    Queue的实例q具有以下方法:
    
    q.get( [ block [ ,timeout ] ] ) 
    返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。
    
    q.get_nowait( ) 
    同q.get(False)方法。
    
    q.put(item [, block [,timeout ] ] ) 
    将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。
    
    q.qsize() 
    返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。
    
    
    q.empty() 
    如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。
    
    q.full() 
    如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。
    方法介绍
    #1.进程之间通信 可以使用multiprocessing 的 Queue模块
    #2.队列有两种创建方式 第一种不传参数 这个队列就没有长度限制 ;传参数,创建一个有最大长度限制的队列
    #3.提供两个重要方法;put get
    #4.qsize
    
    from multiprocessing import Process
    from multiprocessing import Queue
    
    # def q_put(q):
    #     q.put('hello')
    #
    # def q_get(q):
    #     print(q.get())
    #
    # if __name__ =='__main__':
    #     q = Queue()
    #     p = Process(target=q_put,args=(q,))
    #     p.start()
    #     p1 = Process(target=q_get, args=(q,))
    #     p1.start()
    View Code

    生产者消费者模型

    # 通过队列实现了 主进程与子进程的通信   子进程与子进程之间的通信
    # 生产者消费者模型
    
    # 我要生产一个数据 然后 给一个函数 让这个函数依赖这个数据进行运算  拿到结果  —— 同步过程
    
    # 做包子 和 吃包子
    import time
    def producer(q):  # 生产者
        for i in  range(100):
            q.put('包子%s'%i)
    
    def consumer(q): #  消费者
        for i in range(100):
            time.sleep(1)
            print(q.get())
    
    if __name__ == '__main__':
        q = Queue(10)   # 托盘
        p = Process(target=producer,args=(q,))
        p.start()
        c1 = Process(target=consumer, args=(q,))
        c2 = Process(target=consumer, args=(q,))
        c1.start()
        c2.start()
    
    # 首先 对于内存空间来说 每次只有很少的数据会在内存中
    # 对于生产与消费之间的不平衡来说
        # 增加消费者或者增加生产者来调节效率
    View Code
  • 相关阅读:
    redis qps监控
    不要对md5file.read()计算md5值
    Kubernetes-基于helm安装部署高可用的Redis及其形态探索(二)
    Kubernetes-基于helm安装部署高可用的Redis及其形态探索
    mongodb replication set 主从切换
    使用packstack安装pike版本的openstack
    redis性能测试方法
    mysql与mariadb性能测试方法
    Mongodb集群形式探究-一主一从一仲裁。
    Python元类
  • 原文地址:https://www.cnblogs.com/glf1160/p/8406014.html
Copyright © 2020-2023  润新知