• Redis(1.18)redis阻塞分析


    读书笔记《redis开发与运维》

    1. 发现阻塞

        客户端记录redis相关日志时,需要具体到redis节点,在出现连接相关异常时能定位的具体节点。

        服务器端应利用相关工具加强对redis集群的监控,发现不正常指标时应进行报警,并快速反应。主要监控指标为慢查询、持久化阻塞、连接拒绝、CPU内存网络磁盘使用过载。

        阻塞出现的原因主要包括内在原因和外在原因2方面。

    2. 内在原因

    2.1 API或数据结构使用不合理

        通常redis执行指令的速度非常快,但有些指令如hgetall在遇到大并发且大对象时,执行速度会变慢。因此在高并发场景,避免在大对象上执行算法复杂度高的指令。

    如何发现慢查询?如何发现大对象?

          slowlog get {n} 获取最近的N条慢查询指令。

          redis-cli -h{ip} -p{port} --bigkeys 指令,汇总大对象的键以及不同类型数据结构的使用情况。

          

        解决方案:

        避免使用复杂度高的指令

        根据业务合理调整大对象,将大对象拆分成多个小对象

        如果使用管道,减少管道指令数量,如果使用批量操作,减少批量操作的数量

    2.2 CPU饱和

        redis是一个单线程架构,处理命令只会用一个CPU,可以使用

      redis-cli -h{ip} -p{port} --stat

     获取redis使用情况。如下图所示:

         

        上图的并发量达到6w+,优化余地不大,可以考虑扩容。如果只有几百几千的并发量redis的CPU就接近饱和是很不正常的。

        有可能是因为过度的内存优化,导致CPU执行指令变慢,如使用 info commandstats 统计指令的开销时间,如下所示:

        hset指令平均执行时间为135毫秒,肯定不合理,有可能是redis过度放宽了ziplist的使用,如调大了 hash-max-ziplist-entries和hash-max-ziplist-value配置,ziplist编码省空间,但执行效率会比hashtable低。

    2.3 持久化阻塞

            fork阻塞:在RDB和AOF重写时,redis主线程会开启一个fork子进程,由子进程完成持久化操作,可以通过info stats获取到latest_fork_usec指标,如果超过1秒,则需要作出优化调整。

            AOF刷盘阻塞:开启AOF后,后台线程每秒对AOF文件做同步,如果同步超过2秒,redis会阻塞等待。也可以查看info persistence统计中的aof_delayed_fsync指标。

            hugepage写操作阻塞:具体见学习笔记8

        

    fork问题

      一般是内存配置和使用问题

      fork 应该是每GB数据20毫秒左右的消耗,具体可以在 Info stats 统计中查看  latest_fork_usec 指标获取最近一次fork操作的耗时,单位毫秒。

    如何改善:

      (1)使用物理机或高效的支持redis的虚拟化技术,避免使用xmen等低效虚拟化技术

      (2)控制redis 单实例的最大可用内存,fork耗时和内存数据量大小成正比

      (3)合理分配内存,要比较大,避免内存不足 fork 执行失败

      (4)控制好fork的频率,比如 rdp 的频率,aof 的同步频率,避免不必要的全量复制。

    Aof 追加阻塞、刷盘阻塞

      一般是磁盘IO负载问题

      通过 info persistence 统计,指标 aof_delayed_fsync 指标累加

    3. 外在原因

    3.1 CPU竞争

        redis是CPU密集型应用,不建议和其它CPU密集服务部署在一起,因为其它CPU密集服务可能会与redis竞争CPU,可通过top、sar等命令定位CPU消耗的时间点和具体进程。

        如果把redis进程绑定到CPU上,可用于降低CPU上下文切换,但如果开启了持久化,那么fork进程会和redis进程竞争CPU,因此对于开启了持久化或参与复制的节点不要绑定CPU。

    3.2 内存交换

        redis高性能的保证是所有数据都在内存中,如果redis的部分内存是虚拟内存(磁盘),那么性能急速下降,可通过如下办法查询:

        获取redis进程号: redis-cli -p 6383 info server | grep process_id

        根据进程号查询内存交换信息:cat /proc/4476/smaps | grep Swap

        如果为0,则表示内存没有被交换,预防方法如下:

            保证机器有足够的可用内存。

            设置redis实例最大可用内存即maxmemory,防止redis内存不可控的增长

            降低系统使用swap优先级

    3.3 网络问题

            3.3.1 连接拒绝

                网络问题:尽量避免让redis和客户端异地跨机房调用。

                连接数控制:通过redis的maxclients控制客户端最大连接数,info stats指令的 rejected_connections 指标记录被拒绝的连接,默认最大连接是10000,超过最大连接数新连接会被拒绝。

                连接溢出--进程限制:使用Linux的ulimit -n查看系统对请求并发的控制,一般这个值需要调大,如ulimit -n 65535

                Linux操作系统请求队列限制:backlog队列溢出,操作系统对于特定端口的TCP连接使用backlog队列保存。

          修改redis的 tcp-backlog 参数,默认为511,这个参数可以理解为redis在操作系统层面能接收到的请求队列长度。可以使用指令 netstat -s |grep overflowed  查看是否出现队列溢出情况

          要修改tcp-backlog  也要同时修改系统的 /proc/sys/net/core/somaxconn 参数

            3.3.2 网络延迟、流量监控

              主要是指带宽不能满足高并发的要求,如机器网卡带宽、交换机带宽、专线带宽等。

        带宽占用主要根据当时使用率是否达到瓶颈有关,如频繁操作Redis的大对象对于redis所在的机器很容易达到网卡瓶颈,因此需要重点监控机器流量。

        网络延迟可以通过,redis-cli -h {host} -p {port} 

          --latency:持续进行延迟测试,分别统计:最小值、最大值、平均值、采样次数

          --latency-history:统计结果同 --latency,但默认每15秒完成一行统计,可以通过 -i 控制采样时间

          --latency-dist:使用统计图的形式展示延迟统计,每1S一次。

            3.3.3 网卡软中断

            网卡软中断是指由于单个网卡队列只能使用一个CPU,高并发下网卡数,据交互都集中在同一个CPU,导致无法充分利用多核CPU的情况。

         网卡软中断瓶颈一般出现在网络高流量吞吐的场景,如下使用“top+数字1”命令可以很明显看到CPU1的软中断指标(si)过高:



  • 相关阅读:
    web项目中加斜杠与不加斜杠
    事务是什么,以及事务四个特性
    Java中 a+=b和a=a+b有什么区别?
    JAVA基础15
    JAVA基础13
    JAVA基础12
    JAVA基础11
    JAVA基础10
    DELPHI下的SOCK编程
    设置VSS2005使支持通过Internet访问(转)
  • 原文地址:https://www.cnblogs.com/gered/p/13353429.html
Copyright © 2020-2023  润新知