• 内核调试工具 — kdump & crash


    kdump简介

    kdump是系统崩溃的时候,用来转储运行内存的一个工具。

    系统一旦崩溃,内核就没法正常工作了,这个时候将由kdump提供一个用于捕获当前运行信息的内核,

    该内核会将此时内存中的所有运行状态和数据信息收集到一个dump core文件中以便之后分析崩溃原因。

    一旦内存信息收集完成,可以让系统将自动重启。

    kdump是RHEL5之后才支持的,2006被主线接收为内核的一部分。它的原理简单来说是在内存中保留一块

    区域,这块区域用来存放capture kernel,当production kernel发生crash的时候,通过kexec把保留区域的

    capure kernel给运行起来,再由捕获内核负责把产品内核的完整信息 - 包括CPU寄存器、堆栈数据等转储

    到指定位置的文件中。

    kdump原理

    kexec是kdump机制的关键,包含两部分:

    内核空间的系统调用kexec_load。负责在生产内核启动时将捕获内核加载到指定地址。

    用户空间的工具kexec-tools。将捕获内核的地址传递给生产内核,从而在系统崩溃的时候找到捕获内核的地址并运行。

    kdump是一种基于kexec的内核崩溃转储机制。当系统崩溃时,kdump使用kexec启动到第二个内核。第二个内核通常

    叫做捕获内核,以很小内存启动以捕获转储镜像。第一个内核保留了内存的一部分给第二个内核启动使用。

    由于kdump利用kexec启动捕获内核,绕过了BIOS,所以第一个内核的内存得以保留。这是内存崩溃转储的本质。

    捕获内核启动后,会像一般内核一样,去运行为它创建的ramdisk上的init程序。而各种转储机制都可以事先在init中实现。

    为了在生产内核崩溃时能顺利启动捕获内核,捕获内核以及它的ramdisk是事先放到生产内核的内存中的。

    生产内核的内存是通过/proc/vmcore这个文件交给捕获内核的。为了生成它,用户工具在生产内核中分析出内存的使用和

    分布等情况,然后把这些信息综合起来生成一个ELF头文件保存起来。捕获内核被引导时会被同时传递这个ELF文件头的

    地址,通过分析它,捕获内核就可以生成出/proc/vmcore。有了/proc/vmcore这个文件,捕获内核的ramdisk中的脚本就

    可以通过通常的文件读写和网络来实现各种策略了。

    kdump配置

    RHEL5开始,kexec-tools是默认安装的。

    如果需要调试kdump生成的vmcore文件,需要手动安装kernel-debuginfo包。

    (1) 预留内存

    可以修改内核引导参数,为启动捕获内核预留指定内存。

    在/etc/grub.conf (一般为/boot/grub/grub.conf的软链接)中:

    crashkernel=Y@X,Y是为kdump捕获内核保留的内存,X是保留部分内存的起始位置。

    默认为crashkernel=auto,可自行设定如crashkernel=256M。

    (2) 配置文件

    配置文件为/etc/kdump.conf,以下是几个常用配置:

    # path /var/crash

    默认的vmcore存放目录为/var/crash/%HOST-%DATE/,包括两个文件:vmcore和vmcore-dmesg.txt

    # ssh <user@service>

    will copy /proc/vmcore to <user@server>:<path>/%HOST-%DATE/ via SSH

    make sure user has necessary write permissions on server.

    自动拷贝到远程机器上。

    # default <reboot | halt | poweroff | shell | mount_root_run_init>

    Actions to perform in case dumping to intended target fails.

    转储失败时执行。

    (3) 启动服务

    # chkconfig kdump on // 开机启动

    # service kdump status // start、stop、restart等

    (4) 功能验证

    Magic System request key is a magical key combo you can hit which the kernel will respond to regardless

    of whatever else it is doing, unless it is completely locked up.

    使用sysrq需要编译选项CONFIG_MAGIC_SYSRQ的支持。详细信息可看documentation/sysrq.txt。

    故意让系统崩溃,来测试kdump是否正常工作。

    # echo c > /proc/sysrq-trigger

    Will perform a system crash by a NULL pointer dereference.

    A crash dump will be taken if configured.

    Magic SysRq还有一些很有趣的值,有的具有很大的破环性,输出在/var/log/messages:

    f:call oom_kill to kill a memory hog process. 执行oom killer。

    l:shows a stack backtrace for all active CPUs. 打印出所有CPU的stack backtrace。

    m:dump current memory info. 打印出内存使用信息。

    p:dump the current registers and flags. 打印出所在CPU的寄存器信息。

    (5) 捕获内核

    捕获内核是一个未压缩的ELF映像文件,查看捕获内核是否加载到内存中:

    # cat /sys/kernel/kexec_crash_loaded

    缩小捕获内核占用的内存:

    # echo N > /sys/kernel/kexec_crash_size

    crash简介

    当系统崩溃时,通过kdump可以获得当时的内存转储文件vmcore,但是该如何分析vmcore呢?

    crash是一个用于分析内核转储文件的工具,一般和kdump搭配使用。

    使用crash时,要求调试内核vmlinux在编译时带有-g选项,即带有调试信息。

    如果没有指定vmcore,则默认使用实时系统的内存来分析。

    值得一提的是,crash也可以用来分析实时的系统内存,是一个很强大的调试工具。

    crash使用gdb作为内部引擎,语法类似于gdb,命令的使用说明可以用<cmd> help来查看。

    使用crash需要安装crash工具包和内核调试信息包:

    crash

    kernel-debuginfo-common

    kernel-debuginfo

    crash使用

    Analyze Linux crash dump data or a live system.

    crash [OPTION] NAMELIST MEMORY-IMAGE      (dumpfile form)

    crash [OPTION] [NAMELIST]                                   (live system form)

    使用crash来调试vmcore,至少需要两个参数:

    NAMELIST:未压缩的内核映像文件vmlinux,默认位于/usr/lib/debug/lib/modules/$(uname -r)/vmlinux,由

    内核调试信息包提供。

    MEMORY-IMAGE:内存转储文件vmcore,默认位于/var/crash/%HOST-%DATE/vmcore,由kdump生成。

    例如:# crash /usr/lib/debug/lib/modules/$(uname -r)/vmlinux   /var/crash/%HOST-%DATE/vmcore

    (1) 错误类型

    首先可以在vmcore-dmesg.txt中先查看错误类型,如:

    1. divide error: 0000 [#1] SMP,除数为0造成内核崩溃,由1号CPU触发。

    2. BUG: unable to handle kernel NULL pointer dereference at 000000000000012c,引用空指针。

    这样一来就能知道引发内核崩溃的错误类型。

    (2) 错误地点

    RIP为造成内核崩溃的指令,Call Trace为函数调用栈,通过RIP和Call Trace可以确定函数的调用路径,以及在

    哪个函数中的哪条指令引发了错误。

    例如RIP为:[<ffffffff812cdb54>] ? tcp_enter_loss+0x1d3/0x23b

    [<ffffffff812cdb54>]是指令在内存中的虚拟地址。

    tcp_enter_loss是函数名(symbol)。

    0x1d3是这条指令相对于tcp_enter_loss入口的偏移,0x23b是函数编译成机器码后的长度。

    这样一来就能确定在哪个函数中引发了错误,以及错误的大概位置。

    Call Trace为函数的调用栈,是从下往上看的。可以用来分析函数的调用关系。

    (3) crash基本输出

    # crash /usr/lib/debug/lib/modules/$(uname -r)/vmlinux   /var/crash/%HOST-%DATE/vmcore

          KERNEL: /usr/lib/debug/lib/modules/2.6.32-358.el6.x86_64/vmlinux
        DUMPFILE: vmcore  [PARTIAL DUMP]
            CPUS: 12
            DATE: Fri Sep 19 16:47:01 2014
          UPTIME: 7 days, 06:37:46
    LOAD AVERAGE: 0.19, 0.05, 0.01
           TASKS: 282
        NODENAME: localhost.localdomain
         RELEASE: 2.6.32-358.el6.x86_64
         VERSION: #1 SMP Tue Oct 29 10:18:21 CST 2013
         MACHINE: x86_64  (1999 Mhz)
          MEMORY: 48 GB
           PANIC: "Oops: 0002 [#1] SMP " (check log for details)
             PID: 0
         COMMAND: "swapper"
            TASK: ffffffff81a8d020  (1 of 12)  [THREAD_INFO: ffffffff81a00000]
             CPU: 0
           STATE: TASK_RUNNING (PANIC)
    

    这些基本输出信息简单明了,可由sys命令触发。

    (4) crash常用命令

    bt:打印函数调用栈,displays a task's kernel-stack backtrace,可以指定进程号bt <pid>。

    log:打印系统消息缓冲区,displays the kernel log_buf contents,如log | tail -n 30。

    ps:显示进程的状态,>表示活跃的进程,如ps | grep RU。

    sys:显示系统概况。

    kmem -i:显示内存使用信息。

    dis <addr>:对给定地址进行反汇编。

    exception RIP即为造成错误的指令。

    关于log命令:

    内核首先把消息打印到内核态的ring buffer,用户态的klogd负责读取并转发给syslogd,让它记录到磁盘。

    在内核崩溃时,可能无法把消息记录到磁盘,但是ring buffer中一般会有记录。所以log命令有时候能查看

    到系统日志中所缺失的信息。

    (5) 结构体和变量

    查看结构体中所有成员的值,例如:

    # ps | grep RU

    >     0      0   0  ffffffff81a8d020  RU   0.0       0      0  [swapper]

    # struct task_struct ffffffff81a8d020

    struct task_struct {
      state = 0, 
      stack = 0xffffffff81a00000, 
      usage = {
        counter = 2
      }, 
      flags = 2097408, 

    显示整个结构体的定义:

    # struct task_struct

    struct task_struct {
        volatile long int state;
        void *stack;
        atomic_t usage;
        unsigned int flags;
    

    显示整个结构体的定义,以及每个成员的偏移:

    # struct -o task_struct

    struct task_struct {
         [0] volatile long int state;
         [8] void *stack;
        [16] atomic_t usage;
        [20] unsigned int flags;
        ...
    

    显示结构体中的成员定义,以及它的偏移:

    # struct task_struct.pid

    struct task_struct {
      [1192] pid_t pid;
    }

    显示结构体中成员的值:

    # struct task_struct.pid ffffffff81a8d020

      pid = 0

    查看全局变量的值:

    # p sysctl_tcp_rmem

    sysctl_tcp_rmem = $4 = 
     {40960, 873800, 41943040}
    

    查看percpu全局变量(加前缀per_cpu_):

    # p per_cpu__irq_stat

    PER-CPU DATA TYPE:
      irq_cpustat_t per_cpu__irq_stat; // 变量类型的声明
    PER-CPU ADDRESSES:
      [0]: ffff880028216540 // 0号CPU对应变量的地址
      [1]: ffff880645416540
      ...
    

    查看0号CPU对应变量的值:

    # struct irq_cpustat_t ffff880028216540

    struct irq_cpustat_t {
      __softirq_pending = 0, 
      __nmi_count = 4780195, 
      irq0_irqs = 148, 
      ...

    (6) 反汇编和源码行

    反汇编:

    # dis ffffffffa021ba91 // 反汇编一条指令

    # dis -l probe_2093+497 10 // 反汇编从某个地址开始的10条指令

    对于内核中的符号:

    # sym tcp_v4_do_rcv // 通过symbol,显示虚拟地址和源码位置

    # sym ffffffff8149f930 // 通过虚拟地址,显示symbol和源码位置

    对于模块中的符号:

    需要先加载相应的模块进来,才能显示符号对应的源码:

    # mod // 查看模块

    # mod -s module /path/to/module.ko // 加载模块

    # sym symbol // 显示符号对应的模块源码,也可以用virtual address

    (7) 修改内存

    提供动态的修改运行中内核的功能,以供调试,但是RHEL和CentOS上不允许。

    wr:modifies the contents of memory.

    wr [-u | -k | -p] [-8 | -16 | -32 | -64] [address | symbol] value

    使用例子:

    # p sysctl_tcp_timestamps

    sysctl_tcp_timestamps = $3 = 1

    # wr sysctl_tcp_timestamps 0

    wr: cannot write to /dev/crash!


    我勒个擦,/dev/crash的文件属性是rw,但是crash_fops中并没有提供写函数,所以还是只读的。

    这个功能很有用,但被RHEL和CentOS禁止了,所以如需动态修改运行内核还是用systemtap吧。

    Reference

    [1]. http://www.ibm.com/developerworks/cn/linux/l-cn-kdump1/

    [2]. http://www.ibm.com/developerworks/cn/linux/l-cn-kdump2/

    [3]. http://www.ibm.com/developerworks/cn/linux/l-cn-kdump3/

    [4]. http://www.ibm.com/developerworks/cn/linux/l-cn-kdump4/

    [5]. http://www.ibm.com/developerworks/cn/linux/l-cn-dumpanalyse/

    [6]. http://people.redhat.com/anderson/crash_whitepaper/

  • 相关阅读:
    了解windows下的npm
    “jupyter notebook 不能导入python库但是终端上可以实现”的问题的解决
    本地创建的jupyter notebook 无法连接本地环境(即不能运行代码)
    win10 + ubuntu 下右键新建md文件(转载)
    LeetCode刷题2
    【入门】离散化
    【10.5NOIP普及模拟】sum
    【10.5NOIP普及模拟】sort
    【2020.02.01NOIP普及模拟4】怪兽
    [图论]最小花费
  • 原文地址:https://www.cnblogs.com/aiwz/p/6333276.html
Copyright © 2020-2023  润新知