• 并发编程3


    线程——理论部分
    进程:资源单位
    线程:执行单位
    线程才是真正干活的人,干活的过程中需要的资源由线程所在的进程提供

    每一个进程肯定都自带一个线程

    同一个进程内可以创建多个线程


    开进程
    申请内存空间 
    ”拷贝代码“
    消耗资源较大
    开线程
    同一个进程内创建多个线程 无需上述两部操作,消耗资源相对较小
    开启线程的两种方式(与开启进程类似)
    # from multiprocessing import Process
    # from threading import Thread
    # import time
    #
    #
    # def task(name):
    #     print('%s is running'%name)
    #     time.sleep(1)
    #     print('%s is over'%name)
    #
    #
    # # 开启线程不需要在main下面执行代码 直接书写就可以
    # # 但是我们还是习惯性的将启动命令写在main下面
    # t = Thread(target=task,args=('egon',))
    # # p = Process(target=task,args=('jason',))
    # # p.start()
    # t.start() # 创建线程的开销非常小 几乎是代码一执行线程就已经创建了
    # print('主')



    from threading import Thread
    import time


    class MyThead(Thread):
        def __init__(self, name):
            """
           针对刷个下划线开头双下滑线结尾(__init__)的方法 统一读成 双下 init
           """
            # 重写了别人的方法 又不知道别人的方法里有啥 你就调用父类的方法
           super().__init__()
            self.name = name

        def run(self):
            print('%s is running'%self.name)
            time.sleep(1)
            print('egon DSB')


    if __name__ == '__main__':
        t = MyThead('egon')
        t.start()
        print('主')
    如何在TCP服务端实现并发的(效果)

    服务端

    from multiprocessing import Process
    from threading import Thread
    import socket
    import time

    # TCP 服务端实现并发的效果

    server = socket.socket()
    server.bind(('127.0.0.1', 8083))
    server.listen(5)


    # 通信循环
    def talk(conn):
       while 1:
           try:
               data = conn.recv(1024)
               if len(data) == 0: break
               print(data.decode('utf-8'))
               conn.send(data.upper())
           except Exception as e:
               print(e)
               break
       conn.close()


    while 1:
       conn, addr = server.accept()
       # t = Process(target=talk,args=(conn,))
       t = Thread(target=talk, args=(conn,))
       t.start()

    客户端

    import socket
    import time

    # 客户端
    # 不输入默认是TCP协议
    client = socket.socket()
    client.connect(('127.0.0.1', 8083))

    while 1:
       client.send(b'hello world')
       data = client.recv(1024)
       print(data.decode('utf-8'))
    线程对象的join方法
    from threading import Thread
    import time


    def task(name):
        print('%s is running'%name)
        time.sleep(3)
        print('%s is over'%name)


    if __name__ == '__main__':
        t = Thread(target=task,args=('egon',))
        t.start()
        t.join()  # 主线程等待子线程运行结束再执行
        print('主')
    同一个进程下的多个线程数据共享

    实验

    from threading import Thread
    import time


    money = 100


    def task():
        global money
        money = 666
        print(money)


    if __name__ == '__main__':
        t = Thread(target=task)
        t.start()
        t.join()
        print(money)
    线程对象属性及其方法
    from threading import Thread, active_count, current_thread
    import os,time


    def task(n):
        # print('hello world',os.getpid())
        print('hello world',current_thread().name)
        time.sleep(n)


    if __name__ == '__main__':
        t = Thread(target=task,args=(1,))
        t1 = Thread(target=task,args=(2,))
        t.start()
        t1.start()
        t.join()
        print('主',active_count())  # 统计当前正在活跃的线程数
       # print('主',os.getpid())
        # print('主',current_thread().name) # 获取线程名字
    守护线程
    """
    主线程运行结束之后不会立刻结束 会等待所有其他非守护线程结束才会结束
      因为主线程的结束意味着所在的进程的结束
    """
    # from threading import Thread
    # import time
    #
    #
    # def task(name):
    #     print('%s is running'%name)
    #     time.sleep(1)
    #     print('%s is over'%name)
    #
    #
    # if __name__ == '__main__':
    #     t = Thread(target=task,args=('egon',))
    #     t.daemon = True
    #     t.start()
    #     print('主')

    线程互斥锁
    from threading import Thread,Lock
    import time


    money = 100
    mutex = Lock()


    def task():
        global money
        mutex.acquire()
        tmp = money
        time.sleep(0.1)
        money = tmp - 1
        mutex.release()


    if __name__ == '__main__':

        t_list = []
        for i in range(100):
            t = Thread(target=task)
            t.start()
            t_list.append(t)
        for t in t_list:
            t.join()
        print(money)

    GIL全局解释器锁

    """
    In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple
    native threads from executing Python bytecodes at once. This lock is necessary mainly
    because CPython’s memory management is not thread-safe. (However, since the GIL
    exists, other features have grown to depend on the guarantees that it enforces.)
    """
    """
    python解释器其实有多个版本
    Cpython
    Jpython
    Pypypython
    但是普遍使用的都是CPython解释器

    在CPython解释器中GIL是一把互斥锁,用来阻止同一个进程下的多个线程的同时执行
    同一个进程下的多个线程无法利用多核优势!!!
    疑问:python的多线程是不是一点用都没有???无法利用多核优势

    因为cpython中的内存管理不是线程安全的
    内存管理(垃圾回收机制)
    1.应用计数
    2.标记清楚
    3.分代回收

    """

    """
    重点:
    1.GIL不是python的特点而是CPython解释器的特点
    2.GIL是保证解释器级别的数据的安全
    3.GIL会导致同一个进程下的多个线程的无法同时执行即无法利用多核优势(******)
    4.针对不同的数据还是需要加不同的锁处理
    5.解释型语言的通病:同一个进程下多个线程无法利用多核优势
    """
    GIL与普通互斥锁的区别
    from threading import Thread,Lock
    import time


    mutex = Lock()
    money = 100


    def task():
        global money
        # with mutex:
        #     tmp = money
        #     time.sleep(0.1)
        #     money = tmp -1
        mutex.acquire()
        tmp = money
        time.sleep(0.1# 只要你进入IO了 GIL会自动释放
       money = tmp - 1
        mutex.release()


    if __name__ == '__main__':
        t_list = []
        for i in range(100):
            t = Thread(target=task)
            t.start()
            t_list.append(t)
        for t in t_list:
            t.join()
        print(money)



    """
    100个线程起起来之后 要先去抢GIL
    我进入io GIL自动释放 但是我手上还有一个自己的互斥锁
    其他线程虽然抢到了GIL但是抢不到互斥锁
    最终GIL还是回到你的手上 你去操作数据
    """
    同一个进程下的多线程无法利用多核优势,是不是就没有用了
    """
    多线程是否有用要看具体情况
    单核:四个任务(IO密集型计算密集型)
    多核:四个任务(IO密集型计算密集型)
    """
    # 计算密集型   每个任务都需要10s
    单核(不用考虑了)
    多进程:额外的消耗资源
     多线程:介绍开销
    多核
    多进程:总耗时 10+
      多线程:总耗时 40+
    # IO密集型 
    多核
    多进程:相对浪费资源
      多线程:更加节省资源
    代码验证
    # 计算密集型
    # from multiprocessing import Process
    # from threading import Thread
    # import os,time
    #
    #
    # def work():
    #     res = 0
    #     for i in range(10000000):
    #         res *= i
    #
    # if __name__ == '__main__':
    #     l = []
    #     print(os.cpu_count()) # 获取当前计算机CPU个数
    #     start_time = time.time()
    #     for i in range(12):
    #         p = Process(target=work) # 1.4679949283599854
    #         t = Thread(target=work) # 5.698534250259399
    #         t.start()
    #         # p.start()
    #         # l.append(p)
    #         l.append(t)
    #     for p in l:
    #         p.join()
    #     print(time.time()-start_time)



    # IO密集型
    from multiprocessing import Process
    from threading import Thread
    import os,time


    def work():
        time.sleep(2)

    if __name__ == '__main__':
        l = []
        print(os.cpu_count())  # 获取当前计算机CPU个数
       start_time = time.time()
        for i in range(4000):
            # p = Process(target=work) # 21.149890184402466
            t = Thread(target=work# 3.007986068725586
            t.start()
            # p.start()
            # l.append(p)
            l.append(t)
        for p in l:
            p.join()
        print(time.time()-start_time)

    总结

    """
    多进程和多线程都有各自的优势
    并且我们后面在写项目的时候通常可以
    多进程下面再开设多线程
    这样的话既可以利用多核也可以介绍资源消耗
    """

  • 相关阅读:
    机器学习面试
    网易有道2017内推编程题2道
    老曹眼中的网络编程基础
    MySQL索引背后的数据结构及算法原理
    [oracle] oracle-ibatis-整理
    [oracle] oracle-myibatis-整理
    [mysql] mysql-myibatis-整理
    [JS] selector 背景选择器
    [android] AndroidManifest.xml 详解
    [Eclipse] 项目编码
  • 原文地址:https://www.cnblogs.com/bailongcaptain/p/12778888.html
Copyright © 2020-2023  润新知