• linux性能调优总结


    系统性能一直是个热门话题。做运维这几年也一直在搞性能调优,写这个文章也算是对工作的总结。

    讲调优第一步是,要讲为什么要调优?也就是系统分析,分析还需要有指标,做好性能监控的情况下,看到确实需要调优才能进行。不能为了调优而 “调优“ 那不是调优,那是破坏。

    性能分析的目的

    找出系统性能瓶颈
    为以后的优化提供方案或者参考
    达到良好利用资源的目的。硬件资源和软件配置。

    影响性能的因素

    想确定有哪些因素,首先确定你的应用是什么类型的?
    例如:

    1. cpu密集型
      例如web服务器像nginx node.js需要CPU进行批处理和数学计算都属于此类型
    2. io密集型
      例如数据库常见的mysql,大量消耗内存和存储系统,对CPU和网络要求不高,这种应用使用CPU来发起IO请求,然后进入sleep状态。

    确定了应用类型就开始分析有哪些情况能影响性能:

    大量的网页请求会填满运行队列、大量的上下文切换,中断
    大量的磁盘些请求
    网卡大量的吞吐
    以及内存耗尽等。

    归结起来就是4个方面

    cpu
    memory
    i/o
    network

    系统检测的工具

    我们知道了这四大块影响着我们的性能,那我们有什么工具进行检测呢?

    在工作中常用到的有:
    htop vmstat iotop sar strace iftop ss lsof ethtool mtr等
    
    另外推荐阿里的tsar以及glances进行系统性能监控。

    CPU 性能监控以及调优

    我们可以 通过检查cpu使用量,通过工具观测上下文切换、中断以及代码调用等方面来进行优化。

    首先明确几个术语:
    缓存:为了提供内存i/o性能cpu提供硬件级缓存。查看缓存可以用过 lscpu -p命令来查看

    [root@master ~]# lscpu
    L1d 缓存:          32K
    L1i 缓存:          32K
    L2 缓存:           256K
    L3 缓存:           3072K

    1级缓存为静态缓存,分为数据缓存和指令缓存。
    2级和3级缓存为动态缓存,其中2级缓存为共享缓存。

    为了提高cpu缓存命中率我们通常的做法是把cpu绑定在某一个核上,也就是”cpu亲和性”
    linux下我们可以通过”taskset”命令来实现

    [root@master ~]# taskset -pc 0 6552
    pid 6552's current affinity list: 0
    pid 6552's new affinity list: 0

    但是这样还是有问题。例如不能保证本地内存分配,所以这时候我们需要使用numa来解决问题

    NUMA:非一致性内存访问机制。每个屋里核心都有一段自己使用的内存成为本地节点,都有自己的内存控制器,距离最近的内存节点成称为邻均节点。

    上图为numa的简单的拓扑,来源于互联网。

    numactl可以将程序绑定到特定的numa节点

    # numactl --show #查看当前的numa配置
    policy: default
    preferred node: current
    physcpubind: 0 
    cpubind: 0 
    nodebind: 0 
    membind: 0 

    注:数据库服务器不要用numa,如果要使用请在数据库启动请使用numactl —interleave=all。作为运维可能都被坑过。

    cpu调度策略

    1. 实时调度策略
      • SCHED_FIFO 静态调度策略,一旦占用cpu则一直运行,一直运行直到有更高优先级任务到达或自己放弃。
      • SCHED_RR 时间轮询策略,当进程的时间片用完,系统将重新分配时间片,并置于就绪队列尾。放在队列尾保证了所有具有相同优先级的RR任务的调度公平。
        实时调度策略作用值为1-99,数字越大优先级越高。
    2. 一般策略
      • SCHED_OTHER 默认调度策略通过nice和counter值决定权值,nice越小,counter越大,被调度的概率越大,也就是曾经使用了cpu最少的进程将会得到优先调度。作用值为100-139,数字越小优先级越高。
      • SCHED_BATCH
      • SCHED_IDLE

    chrt 修改实时优先级,生产中一般不要修改,默认是rr调度

    SCHED_OTHER 使用nice、renice修改。
    另外other支持动态调整,如果手动直接nice修改即可。

    context switches:上下文切换

    linux内核将每一个core当作一个独立的处理器。一个内核可以同时运行50~50000个进程。每个线程将会分配一个时间片,直到这个线程的时间片用完,或是被更高优先级的线程抢占,它才会被重新放回cpu队列。切换线程的过程就是context switch。context switch越高,则内核调度的工作负担越大。

    vmstat 既可以看到 cs的高低

    run queue 运行队列

    每个cpu都有一个运行队列。线程,要么在sleep状态(阻塞并等待IO),要么在运行状态。运行队列越长,则等待cpu处理这个线程的时间越长。运行队列是全局的会被所有CPU共享

    load就是用来描述运行队列的。它的值等于当前正在处理的线程+运行队列里面的线程。

    比如当前系统核数是2,有两个线程正在执行行,还有4个线程在运行队列里面,那么它的load=2+4。

    vmstat w uptime 都可以观测运行队列负载情况。

    cpu性能监控

    说了这么多,那正常情况下需要观察哪些值呢?
    首先numa 以及算法都是特殊情况下优化的,一般情况下不会去动这些,需要根据你的业务场景来进行绑定调整,像虚拟化,云计算等可能就需要进行调整。

    那么我们日常需要观测的性能点是:

    1. cpu利用率
      • us 60%-70%
      • sy 30%-35%
      • id 0%-5%
    2. cs上下文切换
      • cs和cpu利用率相关,如果能保持上面所说的利用率大量的切换可以接受
    3. 运行队列
      • 小于等于4最好

    例子:

    # vmstat 1 5
    procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
     r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
     3  0 1150840 271628 260684 5530984    0    0     2     1    0    0 22  4 73  0  0
     5  0 1150840 270264 260684 5531032    0    0     0     0 5873 6085 13 13 73  0  0
     5  0 1150840 263940 260684 5531040    0    0     0     4 6721 7507 15 13 72  0  0
     4  0 1150840 263320 260684 5531068    0    0     0     0 6111 7117 10 13 76  0  0
     4  0 1150840 262328 260684 5531072    0    0     0     0 6854 7673 18 13 68  0  0

    例子中cpu中断(in)以及上下文切换(cs)都比较高,说明内核不得不来回切换进程,同时in也是比较高说明cpu一直在请求资源。

    内存memory

    术语
    MMU:
    CPU是不能与硬盘打交道的,只有数据被载入到内存中才可以被CPU调用。cpu在访问内存的时候需要先像内存监控程序请求,由监控程序控制和分配内存的读写请求,这个监控程序叫做MMU(内存管理单元)

    线性地址到物理地址的映射,如果按照1个字节1个字节映射的话,需要一张非常大的表,这种转换关系会非常的复杂。因此把内存空间又划分成了另外一种存储单元格式,通常为4K。

    每个进程如果需要访问内存的时候都需要去查找page table的话需要借助缓冲器TLB,但每次产找tlb没有或者大量查找还是会造成缓慢,所以又有了page table的分级目录。page table可以分为1级目录,2级目录和偏移量。

    另外让系统管理大量内存有两种方法:

    1. 增加硬件内存管理单元中页表数
    2. 增大页面大小
      第一种方法不太现实,所有我们考虑第二种方法。即:大页面。
      32位系统4m大页框64位系统2m大页框,页框越粗浪费越严重。
      查看系统的大页面:

      cat /proc/meminfo

      AnonHugePages: 309248 kB
      HugePages_Total: 0
      HugePages_Free: 0
      HugePages_Rsvd: 0
      HugePages_Surp: 0
      Hugepagesize: 2048 kB
      DirectMap4k: 6144 kB
      DirectMap2M: 1042432 kB
      DirectMap1G: 0 kB
      AnonHugePages:透明大页面,THP是一个提取层,可自动创建、管理和使用超大页面的大多数方面。
      另外HP必须在引导时设置。
      手动设置大页面的页数:
      sysctl vm.nr_hugepages = 20

    DMA:直接读取内存
    在实现DMA传输时,是由DMA控制器直接掌管总线,因此,存在着一个总线控制权转移问题。即DMA传输前,CPU要把总线控制权交给DMA控制器,而在结束DMA传输后,DMA控制器应立即把总线控制权再交回给CPU。一个完整的DMA传输过程必须经过DMA请求、DMA响应、DMA传输、DMA结束4个步骤。

    虚拟内存:
    32位的系统上每一个进程在访问内存的时候,每一个进程都当做自己有4个G的内存空间可用,这叫虚拟内存(地址),虚拟内存转化成物理内存是通过MMU来完成的。生产中我们尽量不使用虚拟内存。

    影响系统性能的几个内存参数:

    1. overcommit_memory 过量使用内存
      • 0 默认设置系统决定是否过量使用。
      • 1 不过量使用
      • 2 过量使用但有一定的比例默认百分值五十由overcommit_ratio决定(他就是默认的50),举个例子物理内存8g,swap4g,可以过量使用10g。
        注:生产中尽量避免过量使用,例如redis要关闭过量使用。
    2. spappines
      -将不活跃的进程换进swap。注:尽量不去使用swap。
      生产中设置:
      echp 10 > /proc/sys/vm/swappines
    3. 回收内存
      • 这个值设定为 1、2 或者 3 让内核放弃各种页缓存和 slab 缓存的各种组合。
        1 系统无效并释放所有页缓冲内存即buffers
        2 系统释放所有未使用的 slab 缓冲内存。即cached
        3 系统释放所有页缓冲和 slab 缓冲内存。
        生产中使用:
        1.运行sync
      1. echo 3>/proc/sys/vm/drop_caches

    i/o

    IO子系统一般是linux系统中最慢的部分。一个原因是它距离CPU的距离,另一个原因是它的物理结构。因此尽量要减少磁盘IO。

    磁盘调度策略:

    [root@master ~]# cat /sys/block/sda/queue/scheduler 
    noop [deadline] cfq 

    其中当前使用cfq策略。
    cfq:完全公平调度。在其时间片段中,进程每次最多可有八个请求(默
    认)。调度程序会尝试根据历史数据估计某个程序是否会在近期发出更多 I/O,然后 CFQ 会闲置,等待那个
    I/O,即使有其他进程正在等待发出 I/O
    deadline:每一个请求在指定的期限前必须得到服务。
    noop:没有策略
    anticipatory:已被抛弃,写多读少的场景使用。

    linux内核以page为单位访问磁盘IO,一般为4K。
    查看page: /usr/bin/time -v date

    MPF
    linux会将内存物理地址空间映射到虚拟内存,内核仅会映射需要的内存页。当应用启动时,内核依次搜索CPU cache和物理内存,查找是否有相应的内存页,如果不存在,则内核将会发起一次MPF(major page fault),将磁盘中的数据读出并缓存到内存中。

    如果在buffer cache找到了对应的内存页,则将会产生一个MnPF(minor page fault).

    /usr/bin/time -v helloworld
    第一次执行会发现大部分是MPF
    第二次执行会发现大部分是MnPF

    The File Buffer Cache

    file buffer cache用来减少MPF,增加MnPF,它将会持续增长,直到可用内存比较少或是内核需要为其它应用来释放一些内存。free内存比较少,并不能说明系统内存紧张,只能说明linux系统充分使用内存来做cache.

    [root@master ~]# cat /proc/meminfo 
    MemTotal:         995896 kB
    MemFree:          715976 kB
    MemAvailable:     719832 kB
    Buffers:            3140 kB

    将数据页写回磁盘
    可以使用fsync()或是sync()立即写回,如果没有直接调用这些函数,pdflush会定期刷回磁盘。

    iotop可以显示所有进程的IO占用情况
    lsof可以查看所有的调用并打开的文件

    其他命令:
    vmstat sar iostat top htop等

  • 相关阅读:
    【springcloud alibaba】配置中心之nacos
    【springcloud alibaba】注册中心之nacos
    LeetCode计数质数Swift
    LeetCode移除链表元素Swift
    LeetCode删除重复的电子邮箱SQL
    LeetCode汉明距离Swift
    LeetCode两整数之和Swift
    LeetCode从不订购的客户SQL
    LeetCode超过经理收入的员工SQL
    LeetCode组合两个表SQL
  • 原文地址:https://www.cnblogs.com/liujunjun/p/13910786.html
Copyright © 2020-2023  润新知