• sealos 离线部署 k8s 高可用集群


    sealos简介
    sealos 特性与优势:
    通过内核 ipvs 对 apiserver 进行负载均衡,并且带 apiserver 健康检测,并不依赖 haproxy 和 keepalived。
    支持离线安装,工具与资源包(二进制程序 配置文件 镜像 yaml文件等)分离,这样不同版本替换不同离线包即可
    证书延期
    使用简单
    支持自定义配置
    内核负载,极其稳定,因为简单所以排查问题也极其简单
    支持99年证书,不用担心生产集群证书过期,ipvs负载多master可用性与稳定性更高,已经有上千用户在生产环境中使用sealos, 有超过上千台服务器生产环境中使用sealos。

    为什么不用 keepalived haproxy?
    haproxy 用 static pod 跑没有太大问题,还算好管理,keepalived 现在大部分开源 ansible 脚本都用 yum 或者 apt 等装,这样非常的不可控,有如下劣势:

    源不一致可能导致版本不一致,版本不一直连配置文件都不一样,我曾经检测脚本不生效一直找不到原因,后来才知道是版本原因。
    系统原因安装不上,依赖库问题某些环境就直接装不上了。
    看了网上很多安装脚本,很多检测脚本与权重调节方式都不对,直接去检测 haproxy 进程在不在,其实是应该去检测 apiserver 是不是 healthz 的,如果 apiserver 挂了,即使 haproxy 进程存在,集群也会不正常了,就是伪高可用了。
    管理不方便,通过 prometheus 对集群进行监控,是能直接监控到 static pod 的但是用 systemd 跑又需要单独设置监控,且重启啥的还需要单独拉起。不如 kubelet 统一管理来的干净简洁。
    我们还出现过 keepalived 把 CPU 占满的情况。
    所以为了解决这个问题,我把 keepalived 跑在了容器中(社区提供的镜像基本是不可用的) 改造中间也是发生过很多问题,最终好在解决了。

    总而言之,累觉不爱,所以在想能不能甩开 haproxy 和 keepalived 做出更简单更可靠的方案出来,还真找到了。。。

    本地负载为什么不使用 envoy 或者 nginx?
    我们通过本地负载解决高可用问题。

    本地负载:在每个 node 节点上都启动一个负载均衡,上游就是三个 master。
    如果使用 envoy 之类的负载均衡器,则需要在每个节点上都跑一个进程,消耗的资源更多,这是我不希望的。ipvs 实际也多跑了一个进程 lvscare,但是 lvscare 只是负责管理 ipvs 规则,和 kube-proxy 类似,真正的流量还是从很稳定的内核走的,不需要再把包丢到用户态中去处理。

    在架构实现上有个问题会让使用 envoy 等变得非常尴尬,就是 join 时如果负载均衡没有建立那是会卡住的,kubelet 就不会起来,所以为此你需要先启动 envoy,意味着你又不能用 static pod 去管理它,同上面 keepalived 宿主机部署一样的问题,用 static pod 就会相互依赖,逻辑死锁,鸡说要先有蛋,蛋说要先有鸡,最后谁都没有。

    使用 ipvs 就不一样,我可以在 join 之前先把 ipvs 规则建立好,再去 join 就可以了,然后对规则进行守护即可。一旦 apiserver 不可访问了,会自动清理掉所有 node 上对应的 ipvs 规则, 等到 master 恢复正常时添加回来。

    为什么要定制 kubeadm?
    首先是由于 kubeadm 把证书过期时间写死了,所以需要定制把它改成 99 年,虽然大部分人可以自己去签个新证书,但是我们还是不想再依赖个别的工具,就直接改源码了。

    其次就是做本地负载时修改 kubeadm 代码是最方便的,因为在 join 时我们需要做两个事,第一是 join 之前先创建好 ipvs 规则,第二是创建 static pod。如果这块不去定制 kubeadm 就把报静态 pod 目录已存在的错误,忽略这个错误很不优雅。 而且 kubeadm 中已经提供了一些很好用的 sdk 供我们去实现这个功能。

    且这样做之后最核心的功能都集成到 kubeadm 中了,sealos 就单单变成分发和执行上层命令的轻量级工具了,增加节点时我们也就可以直接用 kubeadm 了。

    sealos架构

    1、安装 docker(略)
    2、下载安装 sealos

    [root@master1 ~]# wget -c https://github.com/fanux/sealos/releases/download/v3.3.8/sealos && chmod +x sealos && mv sealos /usr/bin/
    [root@master1 ~]# sealos
    A longer description that spans multiple lines and likely contains
    examples and usage of using your application. For example:
    
    Cobra is a CLI library for Go that empowers applications.
    This application is a tool to generate the needed files
    to quickly create a Cobra application.
    
    Usage:
      sealos [command]
    
    Available Commands:
      cert        generate certs
      clean       Simplest way to clean your kubernets HA cluster
      cloud       sealos on cloud
      config      print config template to console
      help        Help about any command
      init        Simplest way to init your kubernets HA cluster
      install     install kubernetes apps, like dashboard prometheus ..
      ipvs        sealos create or care local ipvs lb
      join        Simplest way to join your kubernets HA cluster
      version     show sealos version
    
    Flags:
          --config string   config file (default is $HOME/.sealos/config.yaml)
      -h, --help            help for sealos
      -t, --toggle          Help message for toggle
    
    Use "sealos [command] --help" for more information about a command.
    subcommand is required
    

    3、设置所有节点 hostname 主机名

    [root@master1 ~]# hostnamectl set-hostname xxx
    

    4、各节点配置 /etc/hosts

    [root@master1 ~]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    
    192.168.x.x master1
    192.168.x.x master2
    192.168.x.x master3
    192.168.x.x node1
    

    5、同步各节点时间

    timedatectl set-timezone Asia/Shanghai
    chronyc -a makestep
    

    6、下载 k8s 安装包

    wget https://github.com/sealstore/cloud-kernel/releases/download/offline/kube1.14.1.tar.gz
    

    7、部署多master多node集群,admin 是服务器密码(根据自己服务器密码填写)

    sealos init --passwd admin \
    	--master 192.168.200.x \
    	--master 192.168.200.x \
    	--master 192.168.200.x \
    	--node 192.168.200.x \
    	--pkg-url /root/kube1.14.1.tar.gz \    
    	--version v1.14.1
    

    8、部署单master多node集群

    sealos init --passwd admin \
    	--master 192.168.200.x \
    	--node 192.168.200.x \
            --node 192.168.200.x
    	--pkg-url /root/kube1.14.1.tar.gz \
    	--version v1.14.1
    

    9、重置集群

    sealos clean --all -f
    

    10、增加或删除节点

    sealos join --master 192.168.0.x --master 192.168.0.x
    sealos join --master 192.168.0.x-192.168.0.x  # 或者多个连续IP
    
    
    sealos join --node 192.168.0.x --node 192.168.0.x
    sealos join --node 192.168.0.x-192.168.0.x  # 或者多个连续IP
    
    sealos clean --master 192.168.0.x --master 192.168.0.x
    sealos clean --master 192.168.0.x-192.168.0.x # 或者多个连续IP
    
    sealos clean --node 192.168.0.x --node 192.168.0.x
    sealos clean --node 192.168.0.x-192.168.0.x  # 或者多个连续IP
    

    11、查看所有节点状态

    [root@master1 ~]# kubectl get nodes
    NAME      STATUS   ROLES    AGE    VERSION
    master1   Ready    master   141m   v1.14.1
    master2   Ready    master   141m   v1.14.1
    master3   Ready    master   141m   v1.14.1
    node1     Ready    <none>   140m   v1.14.1
    
    
    [root@master1 ~]# kubectl get po --all-namespaces
    NAMESPACE     NAME                                       READY   STATUS    RESTARTS   AGE
    kube-system   calico-kube-controllers-7cc5c56498-bdc5g   1/1     Running   0          142m
    kube-system   calico-node-2kl4x                          1/1     Running   0          141m
    kube-system   calico-node-xmnsx                          1/1     Running   0          141m
    kube-system   calico-node-z5nl5                          1/1     Running   0          142m
    kube-system   calico-node-z9r2l                          1/1     Running   0          142m
    kube-system   coredns-fb8b8dccf-56km8                    1/1     Running   0          142m
    kube-system   coredns-fb8b8dccf-jxc9j                    1/1     Running   0          142m
    kube-system   etcd-master1                               1/1     Running   0          141m
    kube-system   etcd-master2                               1/1     Running   0          142m
    kube-system   etcd-master3                               1/1     Running   0          141m
    kube-system   kube-apiserver-master1                     1/1     Running   0          141m
    kube-system   kube-apiserver-master2                     1/1     Running   1          142m
    kube-system   kube-apiserver-master3                     1/1     Running   1          141m
    kube-system   kube-controller-manager-master1            1/1     Running   1          141m
    kube-system   kube-controller-manager-master2            1/1     Running   0          141m
    kube-system   kube-controller-manager-master3            1/1     Running   0          141m
    kube-system   kube-proxy-2mhdv                           1/1     Running   0          141m
    kube-system   kube-proxy-nd6vr                           1/1     Running   0          141m
    kube-system   kube-proxy-sl9cd                           1/1     Running   0          142m
    kube-system   kube-proxy-vlt9r                           1/1     Running   0          142m
    kube-system   kube-scheduler-master1                     1/1     Running   1          141m
    kube-system   kube-scheduler-master2                     1/1     Running   0          140m
    kube-system   kube-scheduler-master3                     1/1     Running   0          141m
    kube-system   kube-sealyun-lvscare-node1                 1/1     Running   0          141m
    
    
    [root@master1 ~]# kubectl get po --all-namespaces -o wide 
    NAMESPACE     NAME                                       READY   STATUS    RESTARTS   AGE    IP              NODE      NOMINATED NODE   READINESS GATES
    kube-system   calico-kube-controllers-7cc5c56498-bdc5g   1/1     Running   0          142m   100.97.40.65    master1   <none>           <none>
    kube-system   calico-node-2kl4x                          1/1     Running   0          141m   192.168.200.6   node1     <none>           <none>
    kube-system   calico-node-xmnsx                          1/1     Running   0          141m   192.168.200.5   master3   <none>           <none>
    kube-system   calico-node-z5nl5                          1/1     Running   0          142m   192.168.200.4   master2   <none>           <none>
    kube-system   calico-node-z9r2l                          1/1     Running   0          142m   192.168.200.3   master1   <none>           <none>
    kube-system   coredns-fb8b8dccf-56km8                    1/1     Running   0          142m   100.97.40.67    master1   <none>           <none>
    kube-system   coredns-fb8b8dccf-jxc9j                    1/1     Running   0          142m   100.97.40.66    master1   <none>           <none>
    kube-system   etcd-master1                               1/1     Running   0          141m   192.168.200.3   master1   <none>           <none>
    kube-system   etcd-master2                               1/1     Running   0          142m   192.168.200.4   master2   <none>           <none>
    kube-system   etcd-master3                               1/1     Running   0          142m   192.168.200.5   master3   <none>           <none>
    kube-system   kube-apiserver-master1                     1/1     Running   0          141m   192.168.200.3   master1   <none>           <none>
    kube-system   kube-apiserver-master2                     1/1     Running   1          142m   192.168.200.4   master2   <none>           <none>
    kube-system   kube-apiserver-master3                     1/1     Running   1          142m   192.168.200.5   master3   <none>           <none>
    kube-system   kube-controller-manager-master1            1/1     Running   1          142m   192.168.200.3   master1   <none>           <none>
    kube-system   kube-controller-manager-master2            1/1     Running   0          141m   192.168.200.4   master2   <none>           <none>
    kube-system   kube-controller-manager-master3            1/1     Running   0          141m   192.168.200.5   master3   <none>           <none>
    kube-system   kube-proxy-2mhdv                           1/1     Running   0          141m   192.168.200.6   node1     <none>           <none>
    kube-system   kube-proxy-nd6vr                           1/1     Running   0          141m   192.168.200.5   master3   <none>           <none>
    kube-system   kube-proxy-sl9cd                           1/1     Running   0          142m   192.168.200.4   master2   <none>           <none>
    kube-system   kube-proxy-vlt9r                           1/1     Running   0          142m   192.168.200.3   master1   <none>           <none>
    kube-system   kube-scheduler-master1                     1/1     Running   1          142m   192.168.200.3   master1   <none>           <none>
    kube-system   kube-scheduler-master2                     1/1     Running   0          141m   192.168.200.4   master2   <none>           <none>
    kube-system   kube-scheduler-master3                     1/1     Running   0          141m   192.168.200.5   master3   <none>           <none>
    kube-system   kube-sealyun-lvscare-node1                 1/1     Running   0          141m   192.168.200.6   node1     <none>           <none>
    
  • 相关阅读:
    PHP中逻辑运算符and/or与||/&&的一个坑
    PHP usort 使用用户自定义的比较函数对数组中的值进行排序
    php编写TCP服务端和客户端程序
    Redis系列-php怎么通过redis扩展使用redis
    国内镜像源收集
    双通道内存技术简介
    收集些日本的VPS
    建站相关关键词快速普及
    bash 的漏洞,你们中招了吗?
    戴维·卡梅伦(David William Donald Cameron)经典语录
  • 原文地址:https://www.cnblogs.com/lfl17718347843/p/16074745.html
Copyright © 2020-2023  润新知