• linux运维、架构之路-K8s健康检查Health Check


    一、Health Check介绍

            强大的自愈能力是k8s容器编排引擎一个重要特性,自愈能力的默认实现方式为自动重启发生故障的容器,另外还可以利用Liveness和Readiness探测机制设置更精细的健康检查。

    • 零停机部署
    • 避免部署无效的镜像
    • 更加安全的滚动升级

    二、K8S健康检查方式

    1、k8s默认的健康检查

           每个容器启动时都会执行一个进程,此进程由Dockerfile的CMD或ENTRYPOINT指定。如果进程退出返回码为非0,则认为容器发生故障,k8s会根据restartPolicy重启容器。

    ①创建应用测试

    apiVersion: v1
    kind: Pod
    metadata:
      name: healthcheck
      labels:
        test: healthcheck
    spec:
      restartPolicy: OnFailure
      containers:
      - name: healthcheck
        image: busybox
        args:
        - /bin/sh
        - -c
        - sleep 10;exit 1

    ②Pod的restartPolicy设置为OnFailure,默认策略为Always,执行创建Pod

    kubectl apply -f healthcheck.yaml

    ③过几分钟查看Pod状态,发现容器已经重启了3次

    [root@k8s-node1 health_check]# kubectl get pods healthcheck 
    NAME          READY     STATUS    RESTARTS   AGE
    healthcheck   0/1       Error     3          2m

    容器进程返回值非0,k8s则认为容器发生故障,需要重启,有不少场景下发生故障,但进程不会退出,比如访问web服务时发生500内部错误,可能是负载过高,也可能是资源死锁,此时httpd进程并没有异常退出,在这种情况下重启容器可能是最直接、最有效的解决方案,处理此类场景那就用到了k8s的Liveness探测。

    2、Liveness探测

           Liveness探测让用户可以自定义判断容器是否健康的条件,如果探测失败,k8s就会重启容器。

    ①创建应用演示

    apiVersion: v1
    kind: Pod
    metadata:
      name: liveness
      labels:
        test: liveness
    spec:
      restartPolicy: OnFailure
      containers:
      - name: liveness
        image: busybox
        args:
        - /bin/sh
        - -c
        - touch /tmp/healthy; sleep 30; rm -f /tmp/healthy; sleep 600
        livenessProbe:
          exec:
            command:
            - cat
            - /tmp/healthy
          initialDelaySeconds: 10
          periodSeconds: 5

    以上yaml文件说明:启动Pod后首先创建文件/tmp/healthy,30秒后删除,如果文件/tmp/healthy存在,则认为容器处于正常状态,反之发生故障。

    探测方法:

    • 通过cat命令检查/tmp/healthy文件是否存在,如果命令执行成功,返回值为0,k8s会认为本次Liveness探测成功;如果命令返回值非0,本次Liveness探测失败
    • initialDelaySeconds: 10 指容器启动10秒后开始执行Liveness探测,如果你的应用启动要花30秒,那么initialDelaySeconds的值就应该大于30。
    • periodSeconds: 5 指每5秒执行一次Liveness探测,k8s如果连续执行3次Liveness探测均失败,则会杀掉重启容器

    ②创建Pod并查看

    kubectl apply -f liveness.yaml
    kubectl describe pod liveness

     ③35秒之后,日志显示/tmp/healthy已经不存在了,Liveness连续几次探测失败,容器会被重启

     ④再次查看pod,发现已经重启1次

    [root@k8s-node1 health_check]# kubectl get pods liveness 
    NAME       READY     STATUS    RESTARTS   AGE
    liveness   1/1       Running   1          1m

    3、Readiness探测

            Liveness探测可以告诉k8s什么时候通过重启容器实现自愈;Readiness探测告诉k8s什么时候可以将容器加入到service负载均衡池中,对外提供服务。

    ①Readiness探测配置与Liveness探测完全一样

    apiVersion: v1
    kind: Pod
    metadata:
      name: readiness
      labels:
        test: readiness
    spec:
      restartPolicy: OnFailure
      containers:
      - name: readiness
        image: busybox
        args:
        - /bin/sh
        - -c
        - touch /tmp/healthy; sleep 30; rm -f /tmp/healthy; sleep 600
        readinessProbe:
          exec:
            command:
            - cat
            - /tmp/healthy
          initialDelaySeconds: 10
          periodSeconds: 5

    ②创建并查看

    kubectl apply -f readiness.yaml
    [root@k8s-node1 health_check]# kubectl get pod readiness
    NAME        READY     STATUS    RESTARTS   AGE
    readiness   0/1       Running   0          8s
    
    [root@k8s-node1 health_check]# kubectl get pod readiness
    NAME        READY     STATUS    RESTARTS   AGE
    readiness   1/1       Running   0          18s
    
    [root@k8s-node1 health_check]# kubectl get pod readiness
    NAME        READY     STATUS    RESTARTS   AGE
    readiness   0/1       Running   0          49s

    探测方法:

    • 刚创建时,READY状态不可用
    • 15秒后,第一次进行Readiness探测并成功返回,设置READY为可用
    • 30秒后,/tmp/healthy被删除,连续3次Readiness探测失败后,READY被设置为不可用

    ③查看日志详情

    kubectl describe pod readiness

     4、Readiness探测与Liveness探测区别

    • Readiness探测与Liveness探测是两种Health Check机制,如果不特意配置,k8s对两种探测采取相同的默认行为,均通过判断容器启动进程的返回值是否为0判断探测是否成功。
    • 两种探测配置方法完全一样,支持的配置参数也一样,不同在于探测失败后,Liveness探测是重启容器,Readiness探测则将容器设置为不可用,不接收service转发的请求
    • Readiness探测与Liveness探测是独立执行的,二者之间没有依赖,可以单独使用,也可以同时使用,用Liveness探测判断容器是否需要重启以实现自愈,用Readiness探测判断容器是否已经准备好对外提供服务

     三、Health Check在Scale UP中的应用

                在多副本应用中,当执行Scale Up新增一个副本的场景中,考虑到应用启动需要一些时间,比如加载缓存数据、连接数据库等,这里就可以通过Readiness探测判断容器是否就绪,避免将请求发送到还没准备好的
    后端。

    1、创建应用测试

    apiVersion: apps/v1beta2
    kind: Deployment
    metadata:
      name: web
    spec:
      replicas: 3
      template:
        metadata:
          labels:
            app: web
        spec:
          containers:
          - name: web
            image: httpd
            ports:
            - containerPort: 8080
            readinessProbe:
              httpGet:
                scheme: HTTP     #指定协议,默认为HTTP
                path: /healthy   #访问路径
                port: 8080
              initialDelaySeconfs: 10
              periodSeconds: 5  
    ---
    apiVersion: v1
    kind: Service
    metadata:
      name: web-svc
    spec:
      selector:
        app: web
      ports:
       - protocol: TCP
         port: 8080
         targetPort: 80

    注:这里使用了不同与exec的另一种探测方法httpGet,k8s对该方法探测成功的判断是http请求返回码在200~400之间

    2、上面配置作用

    • 容器启动10秒后开始探测
    • 如果http://[container_ip]:8080/healthy返回码不是200~400,表示容器没有就绪,不接收Service web-svc的请求。
    • 每隔5秒探测一次
    • 直到返回码为200~400,表明容器已经就绪,然后将其加入到web-svc的负载中,开始处理请求。
    • 探测继续以5秒的间隔执行,如果连续3次失败,容器会从负载中移除,直到再次探测成功后重新加入负载

    四、Health Check在滚动更新中的应用

                Health Check另一个重要场景就是滚动更新,现有一个正常运行的多副本应用,接下来要对应用进行更新,比如升级成高版本的image,k8s会启动新副本的过程如下:

    • 正常情况一下启动的新副本需要10秒左右完成准备工作,在此之前无法响应业务请求
    • 由于人为配置错误,副本始终无法完成准备工作,比如无法连接后端的数据库
    生产环境中,如果没有配置Health Check,默认Health Check机制会认为容器已经就绪,进行会逐步用新副本替换现有副本,当所有旧副本都被替换后,整个应用将无法处理请求,无法提供服务,
    如果正确配置了Health Check,新副本只有通过了Readiness探测才会被添加到Service,如果探测不成功,现有副本不会被会部替换,业务仍然正常进行。

    1、创建应用测试

    kubectl apply -f app-v1.yaml --record
    apiVersion: apps/v1beta1
    kind: Deployment
    metadata:
      name: app
    spec:
      replicas: 10
      template:
        metadata:
          labels:
            run: app
        spec:
          containers:
          - name: app
            image: busybox
            args:
            - /bin/sh
            - -c
            - sleep 10; touch /tmp/healthy; sleep 30000
            readinessProbe:
              exec:
                command:
                - cat
                - /tmp/healthy
              initialDelaySeconds: 10
              periodSeconds: 5

    2、10秒后查看所有副本通过了Readiness探测

    [root@k8s-node1 health_check]# kubectl get deployment app
    NAME      DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
    app       10        10        10           10          7m
    [root@k8s-node1 health_check]# kubectl get pods
    NAME                       READY     STATUS    RESTARTS   AGE
    app-58594c894-4bfzn        1/1       Running   0          6m
    app-58594c894-5wnxv        1/1       Running   0          6m
    app-58594c894-9jspd        1/1       Running   0          6m
    app-58594c894-bmgp9        1/1       Running   0          6m
    app-58594c894-d8r72        1/1       Running   0          6m
    app-58594c894-k42zf        1/1       Running   0          6m
    app-58594c894-rvnpl        1/1       Running   0          6m
    app-58594c894-ssg9w        1/1       Running   0          6m
    app-58594c894-z2qd6        1/1       Running   0          6m
    app-58594c894-zb6d8        1/1       Running   0          6m

    3、进行滚动更新,创建app-v2.yaml

    apiVersion: apps/v1beta1
    kind: Deployment
    metadata:
      name: app
    spec:
      replicas: 10
      template:
        metadata:
          labels:
            run: app
        spec:
          containers:
          - name: app
            image: busybox
            args:
            - /bin/sh
            - -c
            - sleep 3000
            readinessProbe:
              exec:
                command:
                - cat
                - /tmp/healthy
              initialDelaySeconds: 10
              periodSeconds: 5

    4、验证新副本中不存在/tmp/healthy,能否通过Readiness探测

    [root@k8s-node1 health_check]# kubectl get deployment app
    NAME      DESIRED   CURRENT   UP-TO-DATE   AVAILABLE   AGE
    app       10        13        5            8           1h
    #DESIRED 10:表示期望状态是10个副本
    #CURRENT 13: 表示当前副本总数,8个旧副本+5个新副本
    #UP-TO-DATE 5:表示当前已完成更新的副本数
    #AVAILABLE 8:表示当前处于可用的副本数 [root@k8s
    -node1 health_check]# kubectl get pods NAME READY STATUS RESTARTS AGE app-58594c894-4bfzn 1/1 Running 0 1h app-58594c894-5wnxv 1/1 Running 0 1h app-58594c894-9jspd 1/1 Running 0 1h app-58594c894-bmgp9 1/1 Running 0 1h app-58594c894-d8r72 1/1 Running 0 1h app-58594c894-k42zf 1/1 Running 0 1h app-58594c894-ssg9w 1/1 Running 0 1h app-58594c894-z2qd6 1/1 Running 0 1h app-67f89fbd77-4fkq5 0/1 Running 0 1m app-67f89fbd77-7fgjg 0/1 Running 0 1m app-67f89fbd77-krf8w 0/1 Running 0 1m app-67f89fbd77-r25rx 0/1 Running 0 1m app-67f89fbd77-wdrsr 0/1 Running 0 1m

    5、为什么新创建副本数是5个,同时只销毁2个旧副本

    • 1、maxSurge
    • 此参数控制滚动更新过程中副本总数超过DESIRED的上限,默认值为25%,也可以是具体的整数,上面例子中,DESIRED为10,副本总数CURRENT最大值即为:10+10*25%=13,maxSurge值越大,初始创建的新副本就越多。
    • 2、maxUnavailable
    • 此参数控制滚动更新过程中,不可用的副本占DESIRED的最大比例。同样maxUnavailable默认值也为25%,那么可用的副本至少为10-10*25%=8,maxUnavailable值越大,初始销毁的副本数量就越多

    6、正常滚动更新过程

    • 创建3个新副本使副本总数达到13个
    • 销毁2个旧副本使可用的副本数降到8个
    • 当2个旧副本成功销毁后,再创建2个新副本,保持副本总数为13个
    • 当新副本通过Readiness探测后,会使可用副本数增加,超过8个
    • 进而可以继续销毁更多的副本,使可用副本数回到8
    • 旧副本的销毁使副本总数低于13,这样可以继续创建新的副本
    • 这个过程一直持续进行,最终所有的旧副本被新副本替换,滚动更新完成
    • 如果滚动更新失败,使用命令kubectl rollout undo deployment app快速回滚到上一版本

    7、自定义maxSurge和maxUnavailable

    apiVersion: apps/v1beta1
    kind: Deployment
    metadata:
      name: app
    spec:
      strategy:
        rollingUpdate:
          maxSurge: 35%
          maxUnavailable: 35%
      replicas: 10
      template:
        metadata:
          labels:
            run: app
        spec:
          containers:
          - name: app
            image: busybox
            args:
            - /bin/sh
            - -c
            - sleep 10; touch /tmp/healthy; sleep 30000
            readinessProbe:
              exec:
                command:
                - cat
                - /tmp/healthy
              initialDelaySeconds: 10
              periodSeconds: 5
  • 相关阅读:
    我爱网络流之最大流Dinic
    2019ICPC陕西邀请赛复盘
    ZOJ
    ACM省赛及蓝桥总结,且随疾风前行,身后亦须留心
    ZOJ 4124 拓扑排序+思维dfs
    蓝桥 log大侠
    蓝桥历年试题 DNA对比
    “美登杯”上海市高校大学生程序设计邀请赛 (华东理工大学)
    蓝桥历年试题 套娃
    WPF学习之路(七)应用程序和窗口(续)
  • 原文地址:https://www.cnblogs.com/yanxinjiang/p/11977392.html
Copyright © 2020-2023  润新知