• k8s入坑之路(14)scheduler调度 kubelet管理及健康检查 更新策略


    kubelet 主要功能

    Pod 管理

    在 kubernetes 的设计中,最基本的管理单位是 pod,而不是 container。pod 是 kubernetes 在容器上的一层封装,由一组运行在同一主机的一个或者多个容器组成。如果把容器比喻成传统机器上的一个进程(它可以执行任务,对外提供某种功能),那么 pod 可以类比为传统的主机:它包含了多个容器,为它们提供共享的一些资源。

    之所以费功夫提供这一层封装,主要是因为容器推荐的用法是里面只运行一个进程,而一般情况下某个应用都由多个组件构成的。

    pod 中所有的容器最大的特性也是最大的好处就是共享了很多资源,比如网络空间。pod 下所有容器共享网络和端口空间,也就是它们之间可以通过 localhost 访问和通信,对外的通信方式也是一样的,省去了很多容器通信的麻烦。

    除了网络之外,定义在 pod 里的 volume 也可以 mount 到多个容器里,以实现共享的目的。

    最后,定义在 pod 的资源限制(比如 CPU 和 Memory) 也是所有容器共享的。

    容器健康检查

    创建了容器之后,kubelet 还要查看容器是否正常运行,如果容器运行出错,就要根据设置的重启策略进行处理。检查容器是否健康主要有三种方式:执行命令,http Get,和tcp连接。

    不管用什么方式,如果检测到容器不健康,kubelet 会删除该容器,并根据容器的重启策略进行处理(比如重启,或者什么都不做)。

    容器监控

    kubelet 还有一个重要的责任,就是监控所在节点的资源使用情况,并定时向 master 报告。知道整个集群所有节点的资源情况,对于 pod 的调度和正常运行至关重要。

    kubelet 使用 cAdvisor 进行资源使用率的监控。cAdvisor 是 google 开源的分析容器资源使用和性能特性的工具,在 kubernetes 项目中被集成到 kubelet 里,无需额外配置。默认情况下,你可以在 localhost:4194 地址看到 cAdvisor 的管理界面。

    除了系统使用的 CPU,Memory,存储和网络之外,cAdvisor 还记录了每个容器使用的上述资源情况。

    kubelet创建pod启动过程

    流程图:

    流程内容分析
    1. kubelet通过gRPC调用dockershim发起创建容器,CRI即容器运行时接口(container runtime interface),目前dockershim的代码内嵌在kubele中,所以接受创建容器的就是kubelet进程。

    2. dockershim把创建容器的命令转换成docker daemon可以识别的命令,之后发送给docker daemon创建容器。

    3. docker daemon在1.12版本之后就会把创建容器的命令分发给另一个进程: comtainerd。

    4. containerd收到创建容器的命令后,创建另一个进程:containerd-shim进程,由该进程执行具体的创建命令,containerd进程做为父进程存在。

    5. 创建容器的时候需要namespace隔离容器启动和创建需要的资源,cgroup限制容器可以使用资源的大小等操作,这些事情该怎么做已经有看公开的规范OCI(open container initivtive 开放容器标准),它的一个参考实现叫做runc。于是containerd--shim在这一步需要调用runc命令,来启动容器。

    6. runc启动容器之后就直接退出,containerd-shim则会成为容器进程的父进程,收集容器进程的状态,上报给contanierd,并在容器种pid为1的进程退出后接管容器中的子进程进行清理,确保不会出现僵尸进程。

     

    pod生命周期:

    链接:https://kubernetes.io/zh/docs/concepts/workloads/pods/pod-lifecycle/

    • 1.pod生命周期调度只有一次,scheduler调度到node会为pod打上node uid全局唯一,当pod重启时不会改变node。更新后pod名字可以不变uid会改变。
    • 2.当节点失效或资源紧缺被驱逐后才会重新调度。
    • 3.service-api向kubelet发送停止指令,pod会终止。 #pod停止为优雅停止,在kill之前会给定宽容期,与微服务优雅停止相近都是给容器或服务发送 TERM信号拒绝接受新的请求,并在宽容期后停止容器。

    这其中有两个名词概念容易混淆

    CRI:容器运行时接口 container runtime interface

    其主要的作用:

    1. 针对容器操作的接口,包括容器的创建、启动和停止等
    2. 针对镜像的操作,拉去、删除镜像等
    3. 针对podsandbox(容器沙箱环境)

    OCI:开放容器标准 open container initiative

    主要作用,制作容器

    1. 容器镜像制作内容,即imagespec

    2. 容器需要接收哪些指令,即runtimespec

     

    kubelet pod健康检查

    kubelet默认对于容器检查非常的简单粗暴,就是对于入口程序pid为1的程序,只要监测是否存活即为容器正常。

    kubelet对于容器资源的监控主要使用cAdvisor,cAdvisor是用于针对于docker stats接口的采集工具。kubelet内部集成了cAdvisor,内部函数中定义了定时器及监控采集,1秒钟就会去采集汇报。

    • 健康检查三种机制
      • 通过命令返回值来判断 (执行命令后返回值非0则为失败)
      • 通过tcp端口是否开启来判断容器是否正常
      • 通过http rest请求来判断是否正常

          #rest简单描述为前后台通讯GET/POST,客户端与服务端通信,用户通过socket发送请求后选择子标签,服务端返回子标签json,客户端在发送请求加上子标签,对应的调用标签对应的接口或功能。rest也是无状态统一接口,客户端负责用户用户状态维持。

    基于cmd 健康检查

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo
        spec:
          containers:
          - name: web-demo
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            livenessProbe:
              exec:
                command:
                - /bin/sh
                - -c
                - ps -ef|grep java|grep -v grep
              initialDelaySeconds: 10 #等待容器启动时间
              periodSeconds: 10 #监控检查等待时间间隔
              failureThreshold: 2 #健康检查连续失败次数
              successThreshold: 1 #健康检查从错误到正常次数
              timeoutSeconds: 5 #执行命令超时时间
    pod-cmd.yaml

    #pod创建后,会在配置文件中添加liveness exec [具体命令及执行时间,判断返回值等]。本质是容器启动时kubelet为容器添加默认执行命令。判断命令执行返回值,echo $? 上次命令执行返回值查看。

    基于http健康检查

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo
        spec:
          containers:
          - name: web-demo
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            livenessProbe:
              httpGet:
                path: /examples/index.html
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 10 #等待容器启动时间 
              periodSeconds: 5 #检查等待时间 间隔
              failureThreshold: 1 #健康检查连续失败次数
              successThreshold: 1 #从失败到成功的次数
              timeoutSeconds: 5 #执行命令超时时间
    pod-http.yaml

    #http健康检查通过http返回值200来判断,300 400 500等都为失败,使用一定要通过一个稳定静态文件来获取。service添加后端pod时是根据后端pod端口是否启动进行判断,本质是tcp判断。http服务一定要注意。

    基于tcp端口健康检查

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo
        spec:
          containers:
          - name: web-demo
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            livenessProbe:
              tcpSocket:
                port: 8080
              initialDelaySeconds: 20 #等待容器启动时间
              periodSeconds: 10 #检查隔间时间
              failureThreshold: 2 #连续失败次数
              successThreshold: 1 #失败到成功次数
              timeoutSeconds: 5 #超时时间
    pod-tcp.yaml

    基于http状态向service发送就绪状态

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo
        spec:
          containers:
          - name: web-demo
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            livenessProbe:
              tcpSocket:
                port: 8080
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 2
              successThreshold: 1
              timeoutSeconds: 5
            readlinessProbe: #用于向service发送状态
              httpGet:
                path: /examples/index.html
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 10 #等待容器启动时间 
              periodSeconds: 5 #检查等待时间 间隔
              failureThreshold: 1 #健康检查连续失败次数
              successThreshold: 1 #从失败到成功的次数
              timeoutSeconds: 5 #执行命令超时时间  

    tcp-http.yaml

    用tcp去探测启动探针与存活探针,用http返回去向service发送就绪状态值。通过改变容器状态值为read。

    ###当容器restart,检查时可以将Pod 的 spec 中包含一个 restartPolicy 字段修改,取值包括 Always、OnFailure 和 Never。默认值是 Always。也可以修改探针策略把探针修改为肯定可以成功的值。

     

    Scheduler--- 玩转pod调度

    Scheduler调度过程

    流程图:

    • 1.kubectl向api-service发送创建指令。api-service将创建指令转换为yaml存入etcd中。
    • 2.informer reflector watch api-service 通过pod信息中是否绑定nodename。将请求分配给scheduler。
    • 3.scheduler将pod放入优先级队列中,通过informer store取出node节点信息做cache缓存#cache经过一系列聚合计算结果存储为缓存(node节点信息由kubelet通过定时器定时向apiserver上报 写入etcd中)
    • 4.执行预选策略,查询是否绑定label,端口是否存在,cpu及内存等是否超过resouce限定,挂载文件类型是否匹配,nodeselect规则匹配,节点状态是否正常。筛选出符合的node。
    • 5.执行优选策略,通过cpu及内存平衡性(pod limit总的值剩余量及当前运行状态),node中是否预先存在运行镜像,同一deployment pod是否调度在同一node中等对其进行评分,分值最高的为选中节点。
    • 6.scheduler将该pod绑定node,赋予一个nodename,并生成全局唯一uid,上传到apiservice,写入etcd。
    • 7.informer reflector watch api-service 将pod信息通知node kubelet,kublet通过相应动作策略通过cri指令发送给容器守护进程,容器进程调用cni及oci创建pod(cni及cgroup等分配给pause实现部分资源共享)。
    • 8.kubelet将pod节点信息上传给api-service。informer进行监听同步,通知到controller。

    预选策略node亲和性调度

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo-node
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo-node
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo-node
        spec:
          containers:
          - name: web-demo-node
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
          affinity:
            nodeAffinity:
              requiredDuringSchedulingIgnoredDuringExecution: #必须要满足不能被忽略的条件
                nodeSelectorTerms:  #节点的选择策略(数组形式)
                - matchExpressions: #匹配一个表达式
                  - key: beta.kubernetes.io/arch #节点label名字
                    operator: In #是否在其中或不在其中 NotIn
                    values:
                    - amd64 #label具体内容 
                    ####可以定义多个matchExpressions 他们之间的关系是并且的关系 有多个同时都要满足
                    ####如果要定义或的关系要定义多个nodeSelectorTerms
              preferredDuringSchedulingIgnoredDuringExecution: #执行期间最好满足的条件(最好满足)
              - weight: 1 #策略权重 可以定义多个preferred
                preference:  #优先权
                  matchExpressions: #匹配表达式
                  - key: disktype #label名称为
                    operator: NotIn #不在其中
                    values: #label名称对应具体内容
                    - ssd
    node-select.yaml
    • nodeAffinity:(节点选择)
      •   requiredDuringSchedulingIgnoredDuringExecution(必须要满足的条件)

            ####可以定义多个matchExpressions 他们之间的关系是并且的关系 有多个同时都要满足

            ####如果要定义或的关系要定义多个nodeSelectorTerms

      •   preferredDuringSchedulingIgnoredDuringExecution(最好要满足的条件) 

            

    预选策略pod亲和性调度

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo-pod
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo-pod
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo-pod
        spec:
          containers:
          - name: web-demo-pod
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
          affinity:
            podAffinity: #pod策略
              requiredDuringSchedulingIgnoredDuringExecution:  #必须满足的条件
              - labelSelector:  #label选择
                  matchExpressions: #匹配式
                  - key: app     #跟pod label app=web-demo的运行在一起
                    operator: In
                    values:
                    - web-demo
                topologyKey: kubernetes.io/hostname #范围选择 这定义了节点范围 
              preferredDuringSchedulingIgnoredDuringExecution: #非必须满足的条件
              - weight: 100  #倾向于跟web-demo-node运行于同一node 可能实现也可能不实现
                podAffinityTerm:
                  labelSelector:
                    matchExpressions:
                    - key: app
                      operator: In
                      values:
                      - web-demo-node
                  topologyKey: kubernetes.io/hostname
    pod-select.yaml

    (一个区域范围内一个pod跟其他pod的亲和关系)

    #podAffinity亲和性与podAntiAffinity反亲和性是可以同时配置的 与某些pod部署一起与某些pod不部署在一起

    #所有pod跑到同一node上可以将自身label定义上去

     

    pod反亲和性调度

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo-pod
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo-pod
      replicas: 4
      template:
        metadata:
          labels:
            app: web-demo-pod
        spec:
          containers:
          - name: web-demo-pod
            image: 172.17.166.217/kubenetes/web:v1
            ports:
            - containerPort: 8080
          affinity:
            podAntiAffinity: #pod 反对策略
              requiredDuringSchedulingIgnoredDuringExecution: #必须要满足的调教
              - labelSelector: #拒绝与app=web-demo-pod部署到一起
                  matchExpressions:
                  - key: app
                    operator: In
                    values:
                    - web-demo-pod
                topologyKey: kubernetes.io/hostname
              preferredDuringSchedulingIgnoredDuringExecution: #最好满足
              - weight: 100
                podAffinityTerm:  #最好部署在没有web-demo-pod的节点
                  labelSelector:
                    matchExpressions:
                    - key: app
                      operator: NotIn
                      values:
                      - web-demo-pod
                  topologyKey: kubernetes.io/hostname
    pod-AntiAffinity.yaml

    #反亲和性最常用的操作 条件为自己不与相同label的pod运行在一起 这样部署之后每个pod都会分散

    pod污点标签与select污点容忍

    #特殊node节点不想给一半pod使用,打上污点标签 防止pod调用,想要调用 配置污点容忍(污点容忍为容忍不是一定要在一起 )

    kubectl taint nodes node-3-172.17.166.219 gpu=true:NoSchedule #给node打上污点标签 污点策略为禁止调度其上

    kubectl taint nodes node-3-172.17.166.219 gpu- #去除污点
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-demo-taint
      namespace: dev
    spec:
      selector:
        matchLabels:
          app: web-demo-taint
      replicas: 1
      template:
        metadata:
          labels:
            app: web-demo-taint
        spec:
          containers:
          - name: web-demo-taint
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
          tolerations:
          - key: "key"
            operator: "Equal"
            value: "value"
            effect: "NoSchedule"
    pod-tolerations.yaml

    #operator  等于Exists(如果key存在就可以生效跟值无关) 等于Equal(key与value必须对应,如果等于exists则不用配置value)effect 污点标签策略必须要对应。 

    • 污点标签策略  
      • (1)NoSchedule:Pod不会调度到这个节点上。
      • (2)PreferNoSchedule:Pod可能会调度到这个节点上,都是不会优先调度到这个节点上。
      • (3)NoExecute:Pod如果没在这个节点上运行,那么不会调度到这个节点上,如果Pod已经在这个节点上运行,则这个Pod将会被驱逐。#可设置容忍时间 过了时间驱逐掉

     

    部署更新策略

    • 1.重建

    • 2.滚动

    • 3.蓝绿

    • 4.金丝雀

    rolling update滚动更新与recreate重新是kubernetes层面支持的重启策略

    蓝绿部署与金丝雀部署是利用service label select机制结合deployment去完成

    重建部署

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-recreate
      namespace: dev
    spec:
      strategy:
        type: Recreate
      selector:
        matchLabels:
          app: web-recreate
      replicas: 2
      template:
        metadata:
          labels:
            app: web-recreate
        spec:
          containers:
          - name: web-recreate
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            livenessProbe:
              tcpSocket:
                port: 8080
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 2
              successThreshold: 1
              timeoutSeconds: 5
            readinessProbe:
              httpGet:
                path: /examples/index.html
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 10
              periodSeconds: 5
              failureThreshold: 1
              successThreshold: 1
              timeoutSeconds: 5
    Recreate.yaml

    ####strategy:type: Recreate 定义重启策略为重建

     滚动部署

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-rollingupdate
      namespace: dev
    spec:
      strategy:
        rollingUpdate:
          maxSurge: 25% #最多可以启动多少
          maxUnavailable: 25% #最多有多少服务停止
        type: RollingUpdate
      selector:
        matchLabels:
          app: web-rollingupdate
      replicas: 2
      template:
        metadata:
          labels:
            app: web-rollingupdate
        spec:
          containers:
          - name: web-rollingupdate
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            resources:
              requests:
                memory: 1024Mi
                cpu: 500m
              limits:
                memory: 2048Mi
                cpu: 2000m
            livenessProbe:
              tcpSocket:
                port: 8080
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 3
              successThreshold: 1
              timeoutSeconds: 5
            readinessProbe:
              httpGet:
                path: /hello?name=test
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 1
              successThreshold: 1
              timeoutSeconds: 5
    rollingupdate.yaml

    #可以指定停止百分比或者pod个数

    deployment升级操作

    kubectl rollout pause deployment web-rollingupdate -n dev#暂停当前滚动部署
    
    kubectl rollout resume deployment web-rollingupdate -n dev#继续部署
    
    kubectl rollout undo deployment web-rollingupdate -n dev #退回上一个版本

    蓝绿部署

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: web-bluegreen
      namespace: dev
    spec:
      strategy:
        rollingUpdate:
          maxSurge: 25%
          maxUnavailable: 25%
        type: RollingUpdate
      selector:
        matchLabels:
          app: web-bluegreen
      replicas: 2
      template:
        metadata:
          labels:
            app: web-bluegreen
            version: v1.0
        spec:
          containers:
          - name: web-bluegreen
            image: hub.mooc.com/kubernetes/web:v1
            ports:
            - containerPort: 8080
            resources:
              requests:
                memory: 1024Mi
                cpu: 500m
              limits:
                memory: 2048Mi
                cpu: 2000m
            livenessProbe:
              tcpSocket:
                port: 8080
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 3
              successThreshold: 1
              timeoutSeconds: 5
            readinessProbe:
              httpGet:
                path: /hello?name=test
                port: 8080
                scheme: HTTP
              initialDelaySeconds: 20
              periodSeconds: 10
              failureThreshold: 1
              successThreshold: 1
              timeoutSeconds: 5
    pod-labelversion.yaml

    #通过给pod的label添加version,让service去选择。

    apiVersion: v1
    kind: Service
    metadata:
      name: web-bluegreen
      namespace: dev
    spec:
      ports:
      - port: 80
        protocol: TCP
        targetPort: 8080
      selector:
        app: web-blue
      type: ClusterIP
    
    ---
    #ingress
    apiVersion: extensions/v1beta1
    kind: Ingress
    metadata:
      name: web-bluegreen
      namespace: dev
    spec:
      rules:
      - host: web-bluegreen.mooc.com
        http:
          paths:
          - path: /
            backend:
              serviceName: web-bluegreen
              servicePort: 80
    service-version.yaml

    #service选择pod label version标签  ingress AB也可做到,一般旧版本都会随着新版本运行一段时间确定无问题在删除,称为红绿。

    金丝雀部署

    部署一个新版本的pod,名称与已有pod相同。在pod个数上与旧版本区分,从而实现小流量访问进行测试。利用ipvs的特性,ingress流量控制更为精准。

    深入Pod

    pod理解:一个容器是单进程模式,如果一个容器跑多个服务,违背了container设计原则。在调度层面如果没有pod整合,多个容器进行部署,部署到某个程度忽然发现资源不足就会创建失败,通过pod可以在调度层面进行整体估算。pod本质上还是容器层面的隔离,在物理机上没有真实存在的一个叫做pod的东西。pod真正要处理的是namespace、cgroup等,pod的本质是共享了同一个networknamespace,同一个vlume。docker命令也可以实现指定network指定namespace,但是这个有一个问题是,对于容器的启动顺序有要求,这样容器之间就不是一个对等关系,处理起来非常的复杂。pod通过中间容器pause容器启动,pod中第一个启动的容器就是pause(pause不会占用资源永远暂停状态),pause会给一个pod下多个容器分配同一个网络及valume。

    • 总结:

    • 1.pod为了在部署层面整和多个容器,计算整体部署需要资源。
    • 2.pod采用多容器通过pause共享一个networknamespace及valume,减少复杂度、去除container启动顺序,使多容器之间对等。

    测试:定义ip与网络模式,测试一个pod下多个容器是否共有一个namaspace。

    pod生命周期

     pod生命启停传入指令

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-volume
    spec:
      containers:
      - name: web
        image: hub.mooc.com/kubernetes/web:v1
        ports:
        - containerPort: 8080
        volumeMounts:
        - name: shared-volume
          mountPath: /shared-web
      - name: dubbo
        env:
        - name: DUBBO_PORT
          value: "20881"
        image: hub.mooc.com/kubernetes/dubbo:v1
        ports:
        - containerPort: 20881
          hostPort: 20881
          protocol: TCP
        volumeMounts:
        - name: shared-volume
          mountPath: /shared-dubbo
        lifecycle:
          postStart:
            exec:
              command: ["/bin/sh", "-c", "echo web starting ... >> /var/log/messages"]
          preStop:
            exec:
              command: ["/bin/sh", "-c", "echo web stopping ... >> /var/log/messages && sleep 3"]
      volumes:
      - name: shared-volume
        hostPath:
          path: /shared-volume-data
    pod-lifecycle.yaml

    ###pod lifecycle指令是串行,先启动才停止。

    pod状态

    • Pendding (pod首选会处于pendding状态由于某些原因例如内存不足、拉取不到镜像、匹配不到node还未被调度)
    • containerCreating (Pendding状态之后pod被调度到node中 处于创建中)
    • Running (pod创建完成后会处于running运行中)
    • Succeeded (pod成功退出会处于成功退出状态)
    • Failed(pod失败退出处于这个状态) succ与faile只有job会有这个状态
    • Ready (当处于Running运行后通过配置好的健康检查通过后会处于Ready状态)
    • CrashLoopBack0ff (崩溃状态健康检查失败处于CrashLoopBack0ff  一直检查失败当次数过多处于这个状态 说明服务未正常启动)
    • Unknown (未知状态,一般是apiservice未收到pod相关信息,也就是说kubelet与apiserver中间通讯出现问题)
    • Terminating (终止状态,kubelet接收到删除指令,停止容器并更新状态为终止状态,默认容忍时间30s,在此期间api-server读到并写入etcd。在容忍时间后彻底删除。)

    pod ProjectedVolume 投射数据卷

    #ProjectedVolume是一种轻量级的valume,是由api-server投射到pod中,pod需要什么文件在启动中就投射进pod。

    ProjectedVolume三种类型

    • 1.Secret 
    • 2.ConfigMap
    • 3.DownloadAPI

    pod secret

    #秘钥文件用于用户名及密码等加密信息,配置好后由api-server存入etcd中。

    手动创建secret

    kubectl create secret tls mooc-tls --key mooc.key --cert mooc.crt
    apiVersion: v1
    kind: Secret
    metadata:
      name: dbpass
    type: Opaque
    data:
      username: aW1vb2M=
      passwd:  aW1vb2MxMjM=
    secret.yaml
    kubectl create -f secret.yaml#创建secret

    ###默认自己使用的secret类型为type: Opaque(浑浊的)

    pod使用secret

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-secret
    spec:
      containers:
      - name: springboot-web
        image: hub.mooc.com/kubernetes/springboot-web:v1
        ports:
        - containerPort: 8080
        volumeMounts:
        - name: db-secret
          mountPath: /db-secret
          readOnly: true
      volumes:
      - name: db-secret
        projected:
          sources:
          - secret:
              name: dbpass
    pod-secret.yaml

    #secret默认加密方式base64 如果用户名或密码更换 直接重新更新secret.yaml 经过一段时间延迟 容器就会更新 可以动态修改容器

    configmap

    #用来存储不需要加密的参数,比如启动参数,一些参数的配置

    创建一个配置文件

    enemies=aliens
    lives=3
    enemies.cheat=true
    enemies.cheat.level=noGoodRotten
    secret.code.passphrase=UUDDLRLRBABAS
    secret.code.allowed=true
    secret.code.lives=30
    game.properties

    从文件中创建configmap

    kubectl create configmap web-config --from-file game.properties 

    从yaml文件中创建configmap

    apiVersion: v1
    data:
      game.properties1: |
        enemies=aliens
        lives=2
        enemies.cheat=true
        enemies.cheat.level=noGoodRotten
        secret.code.passphrase=UUDDLRLRBABAS
        secret.code.allowed=true
        secret.code.lives=30
    kind: ConfigMap
    metadata:
      managedFields:
      - apiVersion: v1
        fieldsType: FieldsV1
        fieldsV1:
          f:data:
            .: {}
            f:game.properties1: {}
        manager: kubectl-create
        operation: Update
      name: web1-config
      namespace: default
    configmap.yaml

    pod使用configmap

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-game
    spec:
      containers:
      - name: web
        image: hub.mooc.com/kubernetes/springboot-web:v1
        ports:
        - containerPort: 8080
        volumeMounts:
        - name: game
          mountPath: /etc/config/game
          readOnly: true
      volumes:
      - name: game
        configMap:
          name: web-game
    pod-configmap.yaml

    修改configmap文件

    kubectl edit cm web-game

    创建configmap用于启动参数

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: configs
    data:
      JAVA_OPTS: -Xms1024m
      LOG_LEVEL: DEBUG
    configmap.yaml

    configmap用于环境变量evn引用

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-cmd
    spec:
      containers:
      - name: web
        image: hub.mooc.com/kubernetes/springboot-web:v1
        command: ["/bin/sh", "-c", "java -jar /springboot-web.jar -DJAVA_OPTS=$(JAVA_OPTS)"]
        ports:
        - containerPort: 8080
        env:
          - name: JAVA_OPTS
            valueFrom:
              configMapKeyRef:
                name: configs
                key: JAVA_OPTS
    configmap-env

    pod downloadapi

    #用于程序取pod本身的一些相关信息

    apiVersion: v1
    kind: Pod
    metadata:
      name: pod-downwardapi
      labels:
        app: downwardapi
        type: webapp
    spec:
      containers:
      - name: web
        image: hub.mooc.com/kubernetes/springboot-web:v1
        ports:
        - containerPort: 8080
        volumeMounts:
          - name: podinfo
            mountPath: /etc/podinfo
      volumes:
        - name: podinfo
          projected: #项目
            sources:
            - downwardAPI:
                items:
                  - path: "labels"  #定义名称
                    fieldRef:
                      fieldPath: metadata.labels #定义来源
                  - path: "name"
                    fieldRef:
                      fieldPath: metadata.name
                  - path: "namespace"
                    fieldRef:
                      fieldPath: metadata.namespace
                  - path: "cpu-request"
                    resourceFieldRef:
                      containerName: web
                      resource: limits.memory
    pod-downloadapi.yaml

      

  • 相关阅读:
    软件工程 作业二
    软件工程 作业一
    201621123031 《Java程序设计》第14周学习总结
    201621123031 《Java程序设计》第13周学习总结
    201621123031 《Java程序设计》第12周学习总结
    201621123031 《Java程序设计》第11周学习总结
    201621123031 《Java程序设计》第10周学习总结
    201621123031 《Java程序设计》第9周学习总结
    Team抢救最后一下
    个人作业——案例分析
  • 原文地址:https://www.cnblogs.com/dahuige/p/15024639.html
Copyright © 2020-2023  润新知