• Python IO模型


    操作系统是什么?

    比如,你新买了一台电脑,我们开机发现,连运行都运行不了,我们买的只是一堆硬件,要想让电脑运行起来,

    靠的就是操作系统,操作系统就是操作软件的软件,不仅能操作软件,还能操控硬件。

    内核态,用户态?

    内核态,就是留给操作系统专用,而用户的进程是不可以在,内核里运行的。

    而用户态就是,我们的进程了,比如360,qq,pycharm

    比如,你有4个G的RAM,你什么都没有运行,RAM却只有2个多G了,那1个多G去哪了?

    没错,就是被操作系统站住了。

    缓存I/O

    缓存 I/O 又被称作标准 I/O,大多数文件系统的默认 I/O 操作都是缓存 I/O。在 Linux 的缓存 I/O 机制中,操作系统会将 I/O 的数据缓存在文件系统的页缓存( page cache )中。

    那为什么不知放在用户区呢?

    我们到知道,用户程序是不可直接操作硬件(CUP,ROM等),而是通过操作系统进行,让操作系统操作硬件。

    也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。用户空间没法直接访问内核空间的,内核态到用户态的数据拷贝 。

    I/O可以分为几类

    IO可以大致分为:阻塞IO,非阻塞IO,IO多路复用,异步IO等。

    blocking IO (阻塞IO)

    在linux中,默认情况下所有的socket都是blocking,一个典型的读操作流程大概是这样:

          当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据。对于network io来说,很多时候数据在一开始还没有到达(比如,还没有收到一个完整的UDP包),这个时候kernel就要等待足够的数据到来。而在用户进程这边,整个进程会被阻塞。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来。
    所以,blocking IO的特点就是在IO执行的两个阶段都被block了。

    non-blocking IO(非阻塞IO)

    linux下,可以通过设置socket使其变为non-blocking。当对一个non-blocking socket执行读操作时,流程是这个样子:

          从图中可以看出,当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲 ,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是它可以再次发送read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它马上就将数据拷贝到了用户内存,然后返回。
    所以,用户进程其实是需要不断的主动询问kernel数据好了没有。

     注意:

          在网络IO时候,非阻塞IO也会进行recvform系统调用,检查数据是否准备好,与阻塞IO不一样,”非阻塞将大的整片时间的阻塞分成N多的小的阻塞, 所以进程不断地有机会 ‘被’ CPU光顾”。即每次recvform系统调用之间,cpu的权限还在进程手中,这段时间是可以做其他事情的,

          也就是说非阻塞的recvform系统调用调用之后,进程并没有被阻塞,内核马上返回给进程,如果数据还没准备好,此时会返回一个error。进程在返回之后,可以干点别的事情,然后再发起recvform系统调用。重复上面的过程,循环往复的进行recvform系统调用。这个过程通常被称之为轮询。轮询检查内核数据,直到数据准备好,再拷贝数据到进程,进行数据处理。需要注意,拷贝数据整个过程,进程仍然是属于阻塞的状态。

    IO multiplexing(IO多路复用)

          IO multiplexing这个词可能有点陌生,但是如果我说select,epoll,大概就都能明白了。有些地方也称这种IO方式为event driven IO。我们都知道,select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select/epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。它的流程如图:

          当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。
    这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。(多说一句。所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)
    在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

    注意1:select函数返回结果中如果有文件可读了,那么进程就可以通过调用accept()或recv()来让kernel将位于内核中准备到的数据copy到用户区。

    注意2: select的优势在于可以处理多个连接,不适用于单个连接

    Asynchronous I/O(异步IO)

    linux下的asynchronous IO其实用得很少。先看一下它的流程:

    用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。

    select

    使用select,实现socket并发

    import socket
    import select
    
    sk = socket.socket()
    sk.bind(('127.0.0.1',8888))
    sk.listen()
    sk_list = [sk]
    
    while 1:
        r,w,x =  select.select(sk_list,[],[])
        for i in r:
            try:
                if i == sk:
                    conn,addr = i.accept()
                    sk_list.append(conn)
                else:
                    recv = i.recv(1024)
                    print(recv.decode('utf8'))
                    inputs = input('>>>')
                    i.send(inputs.encode('utf8'))
            except:
                sk_list.remove(i)
    server
    import socket
    sk = socket.socket()
    sk.connect(('127.0.0.1',8888))
    while True:
        inputs = input('>>>')
        sk.send(inputs.encode('utf8'))
        recv = sk.recv(1024)
        print(recv.decode('utf8'))
    client
  • 相关阅读:
    Data Race Patterns in Go https://eng.uber.com/dataracepatternsingo/
    To Push or Pull Data into Kafka Connect? 3 Ways to Send Data to Kafka
    企业服务总线建设之道的探索与研究
    云音乐低代码:基于 CodeSandbox 的沙箱性能优化
    并发渲染优化:让文件树的渲染又快又稳 https://mp.weixin.qq.com/s/3yy9V5HMDWPFwEf1cyLlw
    Redis缓存异常及处理方案总结
    控制grpc 流量 GRPC 性能 管理gRPC协议示例流量
    对各种异步回调都使用try catch错误上报
    技术 Leader 的思考方式
    从Redis7.0发布看Redis的过去与未来
  • 原文地址:https://www.cnblogs.com/py-peng/p/11248962.html
Copyright © 2020-2023  润新知