• 内存篇-Linux内存是怎么工作的?


    问题:应用进程到底怎样访问内存?
    大多数计算机的内存都是动态随机访问内存(DRAM)。只有内核才可以直接访问物理内存。那么,进程要访问内存时,该怎么办呢?

    Linux 内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存。虚拟地址空间的内部又被分为内核空间和用户空间两部分,不同字长(也就是单个 CPU 指令可以处理数据的最大长度)的处理器,地址空间的范围也不同。比如最常见的 32 位和 64 位系统,我画了两张图来分别表示它们的虚拟地址空间,如下所示:

    MMU 并不以字节为单位来管理内存,而是规定了一个内存映射的最小单位,也就是页,通常是 4 KB 大小。这样,每一次内存映射,都需要关联 4 KB 或者 4KB 整数倍的内存空间。

    问题:为什么TLB会影响CPU的内存访问性能?
    TLB(Translation Lookaside Buffer,转译后备缓冲器)会影响 CPU 的内存访问性能, TLB其实就是 MMU 中页表的高速缓存。由于进程的虚拟地址空间是独立的,而 TLB 的访问速度又比 MMU 快得多,所以,通过减少进程的上下文切换,减少 TLB 的刷新次数,就可以提高 TLB 缓存的使用率,进而提高 CPU 的内存访问性能。

    问题:为什么需要多级页表和大页?
    页的大小只有 4 KB ,导致的一个问题就是,整个页表会变得非常大。比方说,仅 32 位系统就需要 100 多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。为了解决页表项过多的问题,Linux 提供了两种机制,也就是多级页表和大页(HugePage)。

    问题:具体到一个 Linux 进程中,虚拟内存又是怎么使用的呢?

    通过这张图可以看到,用户空间内存,从低到高分别是五种不同的内存段。只读段,包括代码和常量等。数据段,包括全局变量等。堆,包括动态分配的内存,从低地址开始向上增长。文件映射段,包括动态库、共享内存等,从高地址开始向下增长。栈,包括局部变量和函数调用的上下文等。栈的大小是固定的,一般是 8 MB。在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用 C 标准库的 malloc() 或者 mmap() ,就可以分别在堆和文件映射段动态分配内存。

    问题:linux内存究竟是怎么分配的呢?
    malloc() 是 C 标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即 brk() 和 mmap()。
    小块内存(小于128KB)用brk()在堆段上分配,使用完之后不会立即归还系统,而是会缓存起来,供重复使用。
    大块内存(大于128KB)用mmap()在文件映射段,分配一块内存出来。
    两种实现方式的优缺点如下:
    brk() 方式的缓存,可以减少缺页异常的发生,提高内存访问效率。不过,由于这些内存没有归还系统,在内存工作繁忙时,频繁的内存分配和释放会造成内存碎片。//造成内存碎片会怎样?
    mmap() 方式分配的内存,会在释放时直接归还系统,所以每次 mmap 都会发生缺页异常。在内存工作繁忙时,频繁的内存分配会导致大量的缺页异常,使内核的管理负担增大。这也是 malloc 只对大块内存使用 mmap 的原因。
    (了解这两种调用方式后,我们还需要清楚一点,那就是,当这两种调用发生后,其实并没有真正分配内存。这些内存,都只在首次访问时才分配,也就是通过缺页异常进入内核中,再由内核来分配内存。)

    问题:伙伴系统管理内存是什么意思?
    整体来说,Linux 使用伙伴系统来管理内存分配。前面我们提到过,这些内存在 MMU 中以页为单位进行管理,伙伴系统也一样,以页为单位来管理内存,并且会通过相邻页的合并,减少内存碎片化(比如 brk 方式造成的内存碎片)。

    问题:遇到比页更小的对象,比如不到 1K 的时候,该怎么分配内存呢?
    实际系统运行中,确实有大量比页还小的对象,如果为它们也分配单独的页,那就太浪费内存了。所以,在用户空间,malloc 通过 brk() 分配的内存,在释放时并不立即归还系统,而是缓存起来重复利用。在内核空间,Linux 则通过 slab 分配器来管理小内存。你可以把 slab 看成构建在伙伴系统上的一个缓存,主要作用就是分配并释放内核中的小对象。

    问题:内存紧张时,系统回收内存的三种方式是什么?
    回收缓存,比如使用 LRU(Least Recently Used)算法,回收最近使用最少的内存页面;
    回收不常访问的内存,把不常用的内存通过交换分区直接写到磁盘中;
    杀死进程,内存紧张时系统还会通过 OOM(Out of Memory),直接杀掉占用大量内存的进程。

    问:OOM的工作机制是怎样的?
    OOM(Out of Memory),其实是内核的一种保护机制。它监控进程的内存使用情况,并且使用 oom_score 为每个进程的内存使用情况进行评分:一个进程消耗的内存越大,oom_score 就越大;一个进程运行占用的 CPU 越多,oom_score 就越小。这样,进程的 oom_score 越大,代表消耗的内存越多,也就越容易被 OOM 杀死,从而可以更好保护系统。当然,为了实际工作的需要,管理员可以通过 /proc 文件系统,手动设置进程的 oom_adj ,从而调整进程的 oom_score。oom_adj 的范围是 [-17, 15],数值越大,表示进程越容易被 OOM 杀死;数值越小,表示进程越不容易被 OOM 杀死,其中 -17 表示禁止 OOM。比如用下面的命令,你就可以把 sshd 进程的 oom_adj 调小为 -16,这样, sshd 进程就不容易被 OOM 杀死。
    echo -16 > /proc/$(pidof sshd)/oom_adj

  • 相关阅读:
    QtCreator 常用快捷键
    Qt 键值对照表
    数据管理类设计与实现
    linux free 命令下free/available区别
    Google “战败”后,C++20 用微软的提案进入协程时代!
    怎么看源代码?
    一文教你如何高效使用C语言
    用 gdb 学 C 语言
    Java中 BigDecimal,80%的人都用错了....
    C++11 实现的 100行 线程池
  • 原文地址:https://www.cnblogs.com/abcdef/p/12026966.html
Copyright © 2020-2023  润新知