• Kubernetes之Taint 和 Toleration


      参考:https://kubernetes.io/zh/docs/concepts/configuration/taint-and-toleration/

      Taint 和 Toleration

      节点亲和性(详见这里),是 pod 的一种属性(偏好或硬性要求),它使 pod 被吸引到一类特定的节点。Taint 则相反,它使 节点 能够 排斥 一类特定的 pod。

    Taint 和 toleration 相互配合,可以用来避免 pod 被分配到不合适的节点上。每个节点上都可以应用一个或多个 taint ,这表示对于那些不能容忍这些 taint 的 pod,是不会被该节点接受的。如果将 toleration 应用于 pod 上,则表示这些 pod 可以(但不要求)被调度到具有匹配 taint 的节点上。

      概念

      可以使用命令kubectl taint给节点增加一个taint。比如

    kubectl taint nodes node1 key=value:NoSchedule
    

       给节点 node1 增加一个 taint,它的 key 是 key,value 是 value,effect 是 NoSchedule。这表示只有拥有和这个 taint 相匹配的 toleration 的 pod 才能够被分配到 node1 这个节点。您可以在 PodSpec 中定义 pod 的 toleration。下面两个 toleration 均与上面例子中使用 kubectl taint 命令创建的 taint 相匹配,因此如果一个 pod 拥有其中的任何一个 toleration 都能够被分配到 node1 :

      想删除上述命令添加的 taint ,您可以运行:

    kubectl taint nodes node1 key:NoSchedule-
    

       设置一个taint

    #给node节点设置taint key为key value为value effec值为NoSchedule代表永不调度
    kubectl taint node 192.168.1.65 key=value:NoSchedule
    

      查看设置的污点

    kubectl describe node 192.168.1.65
    

       PS:设置了taint的节点192.168.1.65因为effec的值为NoSchedule即永不调度除非是在Pod内设置了对应的tolerations

      测试一下设置的taint是否生效

      创建一个Deployment副本数为3

    kubectl run nginx-deployment --image=nginx --replicas=3 
    

       查看Pod分配的node节点,因为node192.168.1.65设置了污点所以3个副本就分配到node192.168.1.66上了

    # kubectl get pod -o wide
    NAME                                    READY   STATUS    RESTARTS   AGE   IP            NODE           NOMINATED NODE   READINESS GATES
    nginx-deployment-6c94df7599-6jr48       1/1     Running   0          83s   172.17.71.4   192.168.1.66   <none>           <none>
    nginx-deployment-6c94df7599-7mkp2       1/1     Running   0          83s   172.17.71.9   192.168.1.66   <none>           <none>
    nginx-deployment-6c94df7599-p86d6       1/1     Running   0          83s   172.17.71.3   192.168.1.66   <none>           <none>
    

       可以在PodSpec中为容器设定容忍标签。以下两个容忍标签都与上面的 kubectl taint 创建的污点“匹配”, 因此具有任一容忍标签的Pod都可以将其调度到“ node1”上:

    tolerations:
    - key: "key"
      operator: "Equal"
      value: "value"
      effect: "NoSchedule"
    
    tolerations:
    - key: "key"
      operator: "Exists"
      effect: "NoSchedule"
    

       测试创建一个Deployment

    # cat nginx-deployment.yaml 
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        app: nginx
      name: nginx-deployment
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - image: nginx
            name: nginx
          tolerations:
          - key: "key"
            operator: "Equal"
            value: "value"
            effect: "NoSchedule"
    

       应用

    # kubectl apply -f nginx-deployment.yaml 
    deployment.apps/nginx-deployment created
    

        查看Pod分配的node节点可以发现有Pod分配到node192.168.1.65上了

    # kubectl get pod -o wide 
    NAME                                    READY   STATUS    RESTARTS   AGE   IP            NODE           NOMINATED NODE   READINESS GATES
    nginx-deployment-6cb65b4b8d-gkm4b       1/1     Running   0          42s   172.17.54.5   192.168.1.65   <none>           <none>
    nginx-deployment-6cb65b4b8d-v52ll       1/1     Running   0          42s   172.17.54.4   192.168.1.65   <none>           <none>
    nginx-deployment-6cb65b4b8d-zbg9m       1/1     Running   0          42s   172.17.71.3   192.168.1.66   <none>           <none>
    

       PS:设置tolerations代表对应Pod可以分配到设置了taint的node上,并不代表一定要分配到该node上,所以其他node也可以正常分配到Pod,需要设置多个副本才能看见分配效果。

      一个 toleration 和一个 taint 相“匹配”是指它们有一样的 key 和 effect ,并且:

    • 如果 operator 是 Exists (此时 toleration 不能指定 value
    • 如果 operator 是 Equal ,则它们的 value 应该相等

      注意:

      存在两种特殊情况

      如果一个 toleration 的 key 为空且 operator 为 Exists ,表示这个 toleration 与任意的 key 、 value 和 effect 都匹配,即这个 toleration 能容忍任意 taint。

    tolerations:
    - operator: "Exists"
    

       如果一个 toleration 的 effect 为空,则 key 值与之相同的相匹配 taint 的 effect 可以是任意值。

    tolerations:
    - key: "key"
    operator: "Exists"
    

       上述例子使用到的 effect 的一个值 NoSchedule,您也可以使用另外一个值 PreferNoSchedule。这是“优化”或“软”版本的 NoSchedule ——系统会 尽量 避免将 pod 调度到存在其不能容忍 taint 的节点上,但这不是强制的。effect 的值还可以设置为 NoExecute代表调度到该节点的Pod会立即驱逐。

      可以给一个节点添加多个 taint ,也可以给一个 pod 添加多个 toleration。Kubernetes 处理多个 taint 和 toleration 的过程就像一个过滤器:从一个节点的所有 taint 开始遍历,过滤掉那些 pod 中存在与之相匹配的 toleration 的 taint。余下未被过滤的 taint 的 effect 值决定了 pod 是否会被分配到该节点,特别是以下情况:

    • 如果未被过滤的 taint 中存在一个以上 effect 值为 NoSchedule 的 taint,则 Kubernetes 不会将 pod 分配到该节点。
    • 如果未被过滤的 taint 中不存在 effect 值为 NoSchedule 的 taint,但是存在 effect 值为 PreferNoSchedule 的 taint,则 Kubernetes 会 尝试 将 pod 分配到该节点。
    • 如果未被过滤的 taint 中存在一个以上 effect 值为 NoExecute 的 taint,则 Kubernetes 不会将 pod 分配到该节点(如果 pod 还未在节点上运行),或者将 pod 从该节点驱逐(如果 pod 已经在节点上运行)。

      例如,假设您给一个节点添加了如下的 taint

    kubectl taint nodes node1 key1=value1:NoSchedule
    kubectl taint nodes node1 key1=value1:NoExecute
    kubectl taint nodes node1 key2=value2:NoSchedule
    

       然后存在一个 pod,它有两个 toleration

    tolerations:
    - key: "key1"
      operator: "Equal"
      value: "value1"
      effect: "NoSchedule"
    - key: "key1"
      operator: "Equal"
      value: "value1"
      effect: "NoExecute"
    

       在这个例子中,上述 pod 不会被分配到上述节点,因为其没有 toleration 和第三个 taint 相匹配。但是如果在给节点添加 上述 taint 之前,该 pod 已经在上述节点运行,那么它还可以继续运行在该节点上,因为第三个 taint 是三个 taint 中唯一不能被这个 pod 容忍的。

      演示

      首先个node 192.168.1.65添加taint

    kubectl taint node 192.168.1.65 key1=value1:NoSchedule
    kubectl taint node 192.168.1.65 key1=value1:NoExecute
    kubectl taint node 192.168.1.65 key2=value2:NoSchedule
    

       查看添加的taint

    kubectl describe node 192.168.1.65
    

     

       设置一个Deployment

    # cat nginx-deployment.yaml 
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        app: nginx
      name: nginx-deployment
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          labels:
            app: nginx
        spec:
          containers:
          - image: nginx
            name: nginx
          tolerations:
          - key: "key1"
            operator: "Equal"
            value: "value1"
            effect: "NoSchedule"
          - key: "key1"
            operator: "Equal"
            value: "value1"
            effect: "NoExecute"
    

       创建Deployment

    kubectl apply -f nginx-deployment.yaml
    

       查看分配Pod的节点没有分配到node192.168.1.65上

    # kubectl get pod -o wide 
    NAME                                    READY   STATUS    RESTARTS   AGE   IP            NODE           NOMINATED NODE   READINESS GATES
    nginx-deployment-94d96bf84-lpn6c        1/1     Running   0          77s   172.17.71.9   192.168.1.66   <none>           <none>
    nginx-deployment-94d96bf84-mkmkj        1/1     Running   0          77s   172.17.71.4   192.168.1.66   <none>           <none>
    nginx-deployment-94d96bf84-wjssg        1/1     Running   0          77s   172.17.71.3   192.168.1.66   <none>           <none>
    

       分析:

      首先过滤掉那些与pod中存在相匹配的toleration和taint污点key1=value1:NoSchedule和key1=value1:NoExecute过滤掉了。余下未被过滤的taint key2=value2:NoSchedule的effcet值为NoSchedule不调度,所以创建的Pod不会分配到node 192.168.1.65上

      测试pod已运行后再添加taint的pod是否驱逐

      删除taint创建Deployment后查看pod位置

    # kubectl get pod -o wide
    NAME                                    READY   STATUS    RESTARTS   AGE   IP            NODE           NOMINATED NODE   READINESS GATES
    nginx-deployment-7cd7cc8786-dkk45       1/1     Running   0          54s   172.17.71.3   192.168.1.66   <none>           <none>
    nginx-deployment-7cd7cc8786-qkl6p       1/1     Running   0          54s   172.17.54.3   192.168.1.65   <none>           <none>
    nginx-deployment-7cd7cc8786-zwz77       1/1     Running   0          54s   172.17.54.2   192.168.1.65   <none>           <none>
    

       添加taint以后pod所在node位置未发生变化

    kubectl taint node 192.168.1.65 key1=value1:NoSchedule
    kubectl taint node 192.168.1.65 key1=value1:NoExecute
    kubectl taint node 192.168.1.65 key2=value2:NoSchedule
    

      删除Deployment重新创建后才会重新调度

      PS:如果新添加的taint的effect值是NoSchedule是代表不调度但是需要再重新调度的时候生效不会立即驱逐

      如果新添加的taint的effect值是NoNoExecute代表立即驱逐则会立即把node192.168.1.65节点上的Pod调度到其他节点

      通常情况下,如果给一个节点添加了一个 effect 值为 NoExecute 的 taint,则任何不能忍受这个 taint 的 pod 都会马上被驱逐,任何可以忍受这个 taint 的 pod 都不会被驱逐。但是,如果 pod 存在一个 effect 值为 NoExecute 的 toleration 指定了可选属性 tolerationSeconds 的值,则表示在给节点添加了上述 taint 之后,pod 还能继续在节点上运行的时间。例如,

    tolerations:
    - key: "key1"
      operator: "Equal"
      value: "value1"
      effect: "NoExecute"
      tolerationSeconds: 3600
    

       这表示如果这个 pod 正在运行,然后一个匹配的 taint 被添加到其所在的节点,那么 pod 还将继续在节点上运行 3600 秒,然后被驱逐。如果在此之前上述 taint 被删除了,则 pod 不会被驱逐。

      使用例子  

      通过 taint 和 toleration ,可以灵活地让 pod 避开 某些节点或者将 pod 从某些节点驱逐。下面是几个使用例子:

      专用节点

      如果您想将某些节点专门分配给特定的一组用户使用,您可以给这些节点添加一个 taint(即, kubectl taint nodes nodename dedicated=groupName:NoSchedule),然后给这组用户的 pod 添加一个相对应的 toleration(通过编写一个自定义的admission controller,很容易就能做到)。拥有上述 toleration 的 pod 就能够被分配到上述专用节点,同时也能够被分配到集群中的其它节点。如果您希望这些 pod 只能被分配到上述专用节点,那么您还需要给这些专用节点另外添加一个和上述 taint 类似的 label (例如:dedicated=groupName),同时 还要在上述 admission controller 中给 pod 增加节点亲和性要求上述 pod 只能被分配到添加了 dedicated=groupName 标签的节点上。

      配备了特殊硬件的节点

      在部分节点配备了特殊硬件(比如 GPU)的集群中,我们希望不需要这类硬件的 pod 不要被分配到这些特殊节点,以便为后继需要这类硬件的 pod 保留资源。要达到这个目的,可以先给配备了特殊硬件的节点添加 taint(例如 kubectl taint nodes nodename special=true:NoSchedule or kubectl taint nodes nodename special=true:PreferNoSchedule),然后给使用了这类特殊硬件的 pod 添加一个相匹配的 toleration。和专用节点的例子类似,添加这个 toleration 的最简单的方法是使用自定义 admission controller。比如,我们推荐使用 Extended Resources 来表示特殊硬件,给配置了特殊硬件的节点添加 taint 时包含 extended resource 名称,然后运行一个 ExtendedResourceToleration admission controller。此时,因为节点已经被 taint 了,没有对应 toleration 的 Pod 会被调度到这些节点。但当你创建一个使用了 extended resource 的 Pod 时,ExtendedResourceToleration admission controller 会自动给 Pod 加上正确的 toleration ,这样 Pod 就会被自动调度到这些配置了特殊硬件件的节点上。这样就能够确保这些配置了特殊硬件的节点专门用于运行 需要使用这些硬件的 Pod,并且您无需手动给这些 Pod 添加 toleration。

      基于 taint 的驱逐 (beta 特性)

      基于 taint 的驱逐前文我们提到过 taint 的 effect 值 NoExecute ,它会影响已经在节点上运行的 pod

    • 如果 pod 不能忍受effect 值为 NoExecute 的 taint,那么 pod 将马上被驱逐
    • 如果 pod 能够忍受effect 值为 NoExecute 的 taint,但是在 toleration 定义中没有指定 tolerationSeconds,则 pod 还会一直在这个节点上运行。
    • 如果 pod 能够忍受effect 值为 NoExecute 的 taint,而且指定了 tolerationSeconds,则 pod 还能在这个节点上继续运行这个指定的时间长度。此外,Kubernetes 1.6 已经支持(alpha阶段)节点问题的表示。换句话说,当某种条件为真时,node controller会自动给节点添加一个 taint。当前内置的 taint 包括:
    • node.kubernetes.io/not-ready:节点未准备好。这相当于节点状态 Ready 的值为 “False“。
    • node.kubernetes.io/unreachable:node controller 访问不到节点. 这相当于节点状态 Ready 的值为 “Unknown“。
    • node.kubernetes.io/out-of-disk:节点磁盘耗尽。
    • node.kubernetes.io/memory-pressure:节点存在内存压力。
    • node.kubernetes.io/disk-pressure:节点存在磁盘压力。
    • node.kubernetes.io/network-unavailable:节点网络不可用。
    • node.kubernetes.io/unschedulable: 节点不可调度。
    • node.cloudprovider.kubernetes.io/uninitialized:如果 kubelet 启动时指定了一个 “外部” cloud provider,它将给当前节点添加一个 taint 将其标志为不可用。在 cloud-controller-manager 的一个 controller 初始化这个节点后,kubelet 将删除这个 taint。

      在版本1.13中,TaintBasedEvictions 功能已升级为Beta,并且默认启用,因此污点会自动给节点添加这类 taint,上述基于节点状态 Ready 对 pod 进行驱逐的逻辑会被禁用。

      使用这个 beta 功能特性,结合 tolerationSeconds ,pod 就可以指定当节点出现一个或全部上述问题时还将在这个节点上运行多长的时间。

    比如,一个使用了很多本地状态的应用程序在网络断开时,仍然希望停留在当前节点上运行一段较长的时间,愿意等待网络恢复以避免被驱逐。在这种情况下,pod 的 toleration 可能是下面这样的:

    tolerations:
    - key: "node.kubernetes.io/unreachable"
      operator: "Exists"
      effect: "NoExecute"
      tolerationSeconds: 6000
    

       注意,Kubernetes 会自动给 pod 添加一个 key 为 node.kubernetes.io/not-ready 的 toleration 并配置 tolerationSeconds=300,除非用户提供的 pod 配置中已经已存在了 key 为 node.kubernetes.io/not-ready 的 toleration。同样,Kubernetes 会给 pod 添加一个 key 为 node.kubernetes.io/unreachable 的 toleration 并配置 tolerationSeconds=300,除非用户提供的 pod 配置中已经已存在了 key 为 node.kubernetes.io/unreachable 的 toleration。

    这种自动添加 toleration 机制保证了在其中一种问题被检测到时 pod 默认能够继续停留在当前节点运行 5 分钟。这两个默认 toleration 是由 DefaultTolerationSeconds admission controller添加的。

      DaemonSet 中的 pod 被创建时,针对以下 taint 自动添加的 NoExecute 的 toleration 将不会指定 tolerationSeconds

    • node.kubernetes.io/unreachable
    • node.kubernetes.io/not-ready

      这保证了出现上述问题时 DaemonSet 中的 pod 永远不会被驱逐

      基于节点状态添加 taint

      Node 生命周期控制器会自动创建与 Node 条件相对应的污点。 同样,调度器不检查节点条件,而是检查节点污点。这确保了节点条件不会影响调度到节点上的内容。用户可以通过添加适当的 Pod 容忍度来选择忽略某些 Node 的问题(表示为 Node 的调度条件)。 注意,TaintNodesByCondition 只会污染具有 NoSchedule 设定的节点。 NoExecute 效应由 TaintBasedEviction 控制, TaintBasedEviction 是 Beta 版功能,自 Kubernetes 1.13 起默认启用。

    • node.kubernetes.io/memory-pressure
    • node.kubernetes.io/disk-pressure
    • node.kubernetes.io/out-of-disk (只适合 critical pod)
    • node.kubernetes.io/unschedulable (1.10 或更高版本)
    • node.kubernetes.io/network-unavailable (只适合 host network)

      添加上述 toleration 确保了向后兼容,您也可以选择自由的向 DaemonSet 添加 toleration。



  • 相关阅读:
    求a,b在区间上的公倍数个数
    最长非上升子序列的长度
    uva 11992 线段树
    hdu 5464 dp
    hdu 5465 树状数组
    hdu 5459 递推
    poj 2528 动态线段树
    hdu 4474 bfs
    ural 1495 bfs
    hdu 2795 线段树
  • 原文地址:https://www.cnblogs.com/minseo/p/12560027.html
Copyright © 2020-2023  润新知