• Swarm容器集群管理(超详细)


    一、Swarm介绍

    Swarm是Docker公司自研发的容器集群管理系统, Swarm在早期是作为一个独立服务存在, 在Docker Engine v1.12中集成了Swarm的集群管理和编排功能。可以通过初始化Swarm或加入现有Swarm来启用Docker引擎的Swarm模式。

    Docker Engine CLI和API包括了管理Swarm节点命令,比如添加、删除节点,以及在Swarm中部署和编排服务。也增加了服务栈(Stack)、服务(Service)、任务(Task)概念。 

    二、Swarm的亮点

    参考链接(https://docs.docker.com/engine/swarm/
    1. Docker Engine集成集群管理
    使用Docker Engine CLI 创建一个Docker Engine的Swarm模式,在集群中部署应用程序服务。
    2. 去中心化设计
    Swarm角色分为Manager和Worker节点, Manager节点故障不影响应用使用。
    3. 扩容缩容
    可以声明每个服务运行的容器数量,通过添加或删除容器数自动调整期望的状态。
    4. 期望状态协调
    Swarm Manager节点不断监视集群状态,并调整当前状态与期望状态之间的差异。
    5. 多主机网络
    可以为服务指定overlay网络。当初始化或更新应用程序时, Swarm manager会自动为overlay网络上的容器分配IP地址。
    6. 服务发现
    Swarm manager节点为集群中的每个服务分配唯一的DNS记录和负载均衡VIP。可以通过Swarm内置的DNS服务器查询集群中每个运行的容器。
    7. 负载均衡
    实现服务副本负载均衡,提供入口访问。
    8. 安全传输
    Swarm中的每个节点使用TLS相互验证和加密, 确保安全的其他节点通信。
    9. 滚动更新
    升级时,逐步将应用服务更新到节点,如果出现问题,可以将任务回滚到先前版本。

    三、swarm关键概念

    参考链接:https://docs.docker.com/engine/swarm/key-concepts/

    1、什么是swarm?

    集群管理和任务编排功能已经集成到了Docker引擎中,通过使用swarmkit。swarmkit是一个独立的,专门用于Docker容器编排的项目,可以直接在Docker上使用。

    Swarm集群是由多个运行swarm模式的Docker主机组成,关键的是,Docker默认集成了swarm mode。swarm集群中有manager(管理成员关系和选举)、worker(运行swarm service)。

    一个Docker主机可以是manager,也可以是worker角色,当然,也可以既是manager,同时也是worker。

    当你创建一个service时,你定义了它的理想状态(副本数、网络、存储资源、对外暴露的端口等)。Docker会维持它的状态,例如,如果一个worker node不可用了,Docker会调度不可用node的task到其他nodes上。

    运行在容器中的一个task,是swarm service的一部分,且通过swarm manager进行管理和调度,和独立的容器是截然不同的。

    swarm service相比单容器的一个最大优势就是,你能够修改一个服务的配置:包括网络、数据卷,不需要手工重启服务。Docker将会更新配置,把过期配置的task停掉,重新创建一个新配置的容器。

    当然,也许你会觉得docker compose也能做swarm类似的事情,某些场景下是可以。但是,swarm相比docker compose,功能更加丰富,比如说自动扩容、缩容,分配至task到不同的nodes等。

    2、nodes

    一个node是Swarm集群中的一个Docker引擎实例。你也可以认为这就是一个docker节点。你可以运行一个或多个节点在单台物理机或云服务器上,但是生产环境上,典型的部署方式是:Docker节点交叉分布式部署在多台物理机或云主机上。

    通过swarm部署一个应用,你向manager节点提交一个service,然后manager节点分发工作(task)给worker node。

    manager节点同时也会容器编排和集群管理功能,它会选举出一个leader来指挥编排任务。worker nodes接受和执行从manager分发过来的task。一般地,manager节点同时也是worker节点,但是,你也可以将manager节点配置成只进行管理的功能。

    Agent则运行在每个worker节点上,时刻等待着接受任务。worker node会上报manager node,分配给他的任务当前状态,这样manager node才能维持每个worker的工作状态。

    3、services和tasks

    service就是在manager或woker节点上定义的tasks。service是swarm系统最核心的架构,同时也是和swarm最主要的交互者。当你创建一个service,你指定容器镜像以及在容器内部运行的命令。

    在副本集模式下,swarm manager将会基于你需要扩容的需求,把task分发到各个节点。对于全局service,swarm会在每个可用节点上运行一个task。

    task携带Docker引擎和一组命令让其运行在容器中。它是swarm的原子调度单元。manager节点在扩容的时候回交叉分配task到各个节点上,一旦一个task分配到一个node,它就不能移动到其他node。

    4、负载均衡

     swarm manager使用 ingress负载均衡来暴露你需要让外部访问的服务。swarm manager能够自动的分配一个外部端口到service,当然,你也能够配置一个外部端口,你可以指定任意没有使用的port,如果你不指定端口,那么swarm manager会给service指定30000-32767之间任意一个端口。

    swarn模式有一个内部的DNS组件,它能够自动分发每个服务在swarm里面。swarm manager使用内部负载均衡机制来接受集群中节点的请求,基于DNS名字解析来实现。

    四、Swarm架构图

    Swarm manager:

    1、API:接受命令,创建一个service(API输入)

    2、orchestrator:service对象创建的task进行编排工作(编排)

    3、allocater:为各个task分配IP地址(分配IP)

    4、dispatcher:将task分发到nodes(分发任务)

    5、scheduler:安排一个worker运行task(运行任务)

     

    worker node

    1、连接到分发器接受指定的task

    2、将task指派到对应的worker节点

     

    例子:

    swarm manager创建一个3个nginx副本集的service,他会将task分配到对应的node。

    五、swarm集群部署

    安装需求

    1、主机安装了docker,Docker Engine 1.12+

    2、关闭selinux、关闭防火墙(或者按照下面需要打开的端口开放防火墙)

    3、协议端口开放

    • TCP port 2377 集群管理通讯
    • TCP and UDP port 7946 节点之间通讯
    • UDP port 4789 overlay网络流量

    机器分布

    角色 IP Docker版本
    manager 10.11.97.71 18.09.7
    worker01 10.11.97.181 18.09.7
    worker02 10.11.97.187 18.09.7

    部署swarm

     manager节点:

    docker swarm init --advertise-addr 10.11.97.71
    

      

    日志查看:

    [root@localhost ~]# docker swarm init --advertise-addr 10.11.97.71
    Swarm initialized: current node (nnkbd7e2emx24ymnzyvxv7h2b) is now a manager.
    
    To add a worker to this swarm, run the following command:
    
        docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377
    
    To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
    
    [root@localhost ~]# 
    

      

    worker01节点加入集群:

    [root@worker01 compose_nginx_tomcat]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377
    This node joined a swarm as a worker.
    [root@localhost compose_nginx_tomcat]# 
    

      

    worker02节点加入集群:

    [root@worker02 ~]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377
    This node joined a swarm as a worker.
    [root@localhost ~]# 
    

      

    查看node状态:

    部署一个服务

    docker service create --replicas 1 --name helloworld alpine ping docker.com

    --replicas 副本集数

    --name  服务名称

    查看服务

    当前服务运行在manager上。

     

      

    六、swarm集群服务管理

    1、创建服务

    docker service create --replicas 1 --name web01 nginx

    2、显示服务详细信息

    docker service inspect --pretty web01# 易于阅读显示


    docker service inspect web01# json格式返回

    3、扩容和缩容

    docker service scale web01=3

    4、查看服务任务

    docker service ls(查看所有service)


    docker service ps web01(查看web01)

     每个node上分布了1个容器。


    docker service ps -f 'desired-state=running' web01(查看运行状态的service)

    5、滚动更新服务

    docker service create
    --replicas 3
    --name redis
    --update-delay 10s
    redis:3.0.6


    docker service update --image redis:3.0.7 redis

    6、创建服务时设定更新策略

    docker service create
    --name my_web
    --replicas 10
    --update-delay 10s
    --update-parallelism 2
    --update-failure-action continue
    nginx:1.12

    7、创建服务时设定回滚策略

    docker service create
    --name my_web
    --replicas 10
    --rollback-parallelism 2
    --rollback-monitor 20s
    --rollback-max-failure-ratio .2
    nginx:1.12

    8、服务更新

    docker service update --image nginx:1.13 my_web

    9、手动回滚

    docker service update --rollback my_web

    10、角色切换

    升级前:

    升级:

    停掉manager

    systemctl stop docker

    将worker02升级

    docker node promote worker02   

     

    升级后:

     

    七、swarm集群数据管理

    1、volume方式管理数据

     volume模式:在宿主机上创建一个volume,默认目录为(/var/lib/docker/volume/your_custom_volume/_data),然后把容器的某个目录映射到宿主机的volume上,即使容器挂了,数据还会依然保留在宿主机的volume上。

    docker service create --replicas 1--mount type=volume,src=nginx^Cata,dst=/usr/share/nginx/html --name www_web01 nginx:1.12
    

      

    查看服务

    docker service inspect www_web01

    服务ID

    服务版本

    服务创建时间

    服务更新时间

    服务详细配置

      服务名称

      服务标签

      服务的容器配置

        镜像名称

        挂载点

        资源限制

        重启策略

        更新配置

        回滚配置

        挂载点配置

      

    [
        {
            "ID": "7ge7vfprynybyvz9otwomzumv",
            "Version": {
                "Index": 313
            },
            "CreatedAt": "2019-07-20T04:16:41.677166218Z",
            "UpdatedAt": "2019-07-20T04:16:41.677166218Z",
            "Spec": {
                "Name": "www_web01",
                "Labels": {},
                "TaskTemplate": {
                    "ContainerSpec": {
                        "Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728",
                        "Init": false,
                        "Mounts": [
                            {
                                "Type": "volume",
                                "Source": "nginx_data",
                                "Target": "/usr/share/nginx/html"
                            }
                        ],
                        "StopGracePeriod": 10000000000,
                        "DNSConfig": {},
                        "Isolation": "default"
                    },
                    "Resources": {
                        "Limits": {},
                        "Reservations": {}
                    },
                    "RestartPolicy": {
                        "Condition": "any",
                        "Delay": 5000000000,
                        "MaxAttempts": 0
                    },
                    "Placement": {
                        "Platforms": [
                            {
                                "Architecture": "amd64",
                                "OS": "linux"
                            },
                            {
                                "OS": "linux"
                            },
                            {
                                "Architecture": "arm64",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "386",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "ppc64le",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "s390x",
                                "OS": "linux"
                            }
                        ]
                    },
                    "ForceUpdate": 0,
                    "Runtime": "container"
                },
                "Mode": {
                    "Replicated": {
                        "Replicas": 1
                    }
                },
                "UpdateConfig": {
                    "Parallelism": 1,
                    "FailureAction": "pause",
                    "Monitor": 5000000000,
                    "MaxFailureRatio": 0,
                    "Order": "stop-first"
                },
                "RollbackConfig": {
                    "Parallelism": 1,
                    "FailureAction": "pause",
                    "Monitor": 5000000000,
                    "MaxFailureRatio": 0,
                    "Order": "stop-first"
                },
                "EndpointSpec": {
                    "Mode": "vip"
                }
            },
            "Endpoint": {
                "Spec": {}
            }
        }
    ]
    

      

    查看数据卷

    因为我硬盘的数据盘在/data,所以我这里已经把docker的Root Dir设置成/data/docker/,可以看到容器里面的nginx数据目录已经挂在到宿主机的nginx_data了。

    2、bind mount方式管理数据

    bind mount模式:将宿主机某个目录映射到docker容器,很适合于网站,同时把宿主机的这个目录作为git版本目录,每次update代码的时候,容器就会更新。

    创建数据目录

    在mananger、worker01、worker02上创建web网站目录:

    mkdir -p /data/wwwroot

    创建服务

    docker service create --replicas 1--mount type=bind,src=/data/wwwroot,dst=/usr/share/nginx/html --name www_web02 nginx:1.12

     

    查看服务

    运行在worker02

    测试宿主机的数据盘和容器是映射关系

    进入容器查看内容:

    可以看到我们在宿主机上创建的index.html已经挂在到容器上了!

    3、NFS方式管理数据

    前面两种方式都是单机docker上数据共享方式,要是在集群中,这个就不适用了,我们必须使用共享存储或网络存储了。这里我们使用NFS来测试。

    安装NFS服务

    我们使用第三台(worker02作为NFS服务提供者)

    yum install nfs-utils -y

    并且在nfs目录放入网站数据内容:

    [root@worker02 container_data]# echo 'hello nfs' >index.html

    其他两个节点(worker01和manager均需要安装nfs客户端)

     

    创建服务

    docker service create 
    --mount 'type=volume,src=nfs-vol,dst=/usr/share/nginx/html, 
    volume-driver=local,volume-opt=type=nfs,
    volume-opt=device=:/data/container_data,"volume-opt=o=addr=10.11.97.187,vers=4,soft,timeo=180,bg,tcp,rw"' 
    --name www_web03_nfs nginx:1.12
    

    swarm支持挂在NFS卷。

    可以查看到nfs已经挂在到manager节点了,且nfs里面的内容也在。

     

     进入容器查看:

    八、swarm集群发布

    架构图

    服务发现: Swarm模式内置DNS组件,自动为每个服务分配DNS记录,然后服务的DNS名称在集群内的服务直接分发请求。
    负载均衡:在Swarm集群中创建服务时, Ingress网络会自动为其分配一个虚拟IP(VIP),在DNS解析时返回VIP,流入该VIP的流量将自动发送(IPVS)该服务的所以健康任
    务(容器)。

    在每个节点上创建服务,使用ingress暴露publish port:

    docker service create --replicas=3 --name web01 -p 88:80 nginx:1.12

    可以看到每个node上各分部了一个容器:

    这时你直接访问:http://10.11.97.71:88就可以访问网站了。

    注意:

    如果你关掉某个节点上web01的服务,swarm会再次启动一个服务,以达到原来task的个数。

    在真实环境中,我们可以在swarm集群中的每个节点启动指定个数的tasks,然后在前端使用负载均衡设备,比如HA或Nginx都行,直接通过负载均衡的方式做到高可用。

     

    查看service

    docker service inspect web01

    [
        {
            "ID": "ii7ggbrqfsl417oqs9xgr877q",  #ID
            "Version": {          #版本
                "Index": 753
            },
            "CreatedAt": "2019-07-20T15:12:36.035445496Z",  #创建时间
            "UpdatedAt": "2019-07-20T15:12:36.037336323Z", #更新时间
            "Spec": {   #详细配置
                "Name": "web01",  #服务名称
                "Labels": {},
                "TaskTemplate": {
                    "ContainerSpec": {  #容器配置
                        "Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728",
                        "Init": false,
                        "StopGracePeriod": 10000000000,
                        "DNSConfig": {},
                        "Isolation": "default"
                    },
                    "Resources": { #资源限制
                        "Limits": {},
                        "Reservations": {}
                    },
                    "RestartPolicy": {  #重启策略
                        "Condition": "any",
                        "Delay": 5000000000,
                        "MaxAttempts": 0
                    },
                    "Placement": {   #平台相关
                        "Platforms": [
                            {
                                "Architecture": "amd64",
                                "OS": "linux"
                            },
                            {
                                "OS": "linux"
                            },
                            {
                                "Architecture": "arm64",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "386",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "ppc64le",
                                "OS": "linux"
                            },
                            {
                                "Architecture": "s390x",
                                "OS": "linux"
                            }
                        ]
                    },
                    "ForceUpdate": 0,
                    "Runtime": "container"
                },
                "Mode": {  #模式
                    "Replicated": {
                        "Replicas": 3
                    }
                },
                "UpdateConfig": { #更新配置
                    "Parallelism": 1,
                    "FailureAction": "pause",
                    "Monitor": 5000000000,
                    "MaxFailureRatio": 0,
                    "Order": "stop-first"
                },
                "RollbackConfig": {  #回滚配置
                    "Parallelism": 1,
                    "FailureAction": "pause",
                    "Monitor": 5000000000,
                    "MaxFailureRatio": 0,
                    "Order": "stop-first"
                },
                "EndpointSpec": { #终端配置
                    "Mode": "vip",
                    "Ports": [
                        {
                            "Protocol": "tcp",
                            "TargetPort": 80,
                            "PublishedPort": 88,
                            "PublishMode": "ingress"
                        }
                    ]
                }
            },
            "Endpoint": {  #终端,VIP模式,对外暴露88端口,ingress模式
                "Spec": {
                    "Mode": "vip",
                    "Ports": [
                        {
                            "Protocol": "tcp",
                            "TargetPort": 80,
                            "PublishedPort": 88,
                            "PublishMode": "ingress"
                        }
                    ]
                },
                "Ports": [
                    {
                        "Protocol": "tcp",
                        "TargetPort": 80,
                        "PublishedPort": 88,
                        "PublishMode": "ingress"
                    }
                ],
                "VirtualIPs": [   #虚拟出了一个网段
                    {
                        "NetworkID": "gd7sc5a8ke68zxzf9s7kz5mey",
                        "Addr": "10.255.0.7/16"
                    }
                ]
            }
        }
    ]
    

      

    查看network

    [root@manager ~]# docker network ls
    NETWORK ID          NAME                DRIVER              SCOPE
    13e5011b8fa7        bridge              bridge              local
    1330304716df        docker_gwbridge     bridge              local
    95f6edd3f2ec        host                host                local
    gd7sc5a8ke68        ingress             overlay             swarm
    57781759f937        none                null                local
    

      

    查看ingress网络

    [root@manager ~]# docker network inspect gd7
    [
        {
            "Name": "ingress",
            "Id": "gd7sc5a8ke68zxzf9s7kz5mey",
            "Created": "2019-07-18T17:17:43.808865817+08:00",
            "Scope": "swarm",
            "Driver": "overlay",
            "EnableIPv6": false,
            "IPAM": {
                "Driver": "default",
                "Options": null,
                "Config": [
                    {
                        "Subnet": "10.255.0.0/16",
                        "Gateway": "10.255.0.1"
                    }
                ]
            },
            "Internal": false,
            "Attachable": false,
            "Ingress": true,
            "ConfigFrom": {
                "Network": ""
            },
            "ConfigOnly": false,
            "Containers": {
                "b4f5c5977de9248e4834f91f6a0bd54c438ad4c051cc9fef3537a726f2f64b49": {
                    "Name": "web01.1.p9mhq9xrb35bwscrv23pgmimy",
                    "EndpointID": "28b1e5fc0bef0e2b6ec812870c03962cf534e3f9f65646f507b6462da0a7eb58",
                    "MacAddress": "02:42:0a:ff:00:0b",
                    "IPv4Address": "10.255.0.11/16",
                    "IPv6Address": ""
                },
                "e4d6ace7511ac6ee24c6a3c3170749c8f08cbced6e86c2e4e1524e573db31418": {
                    "Name": "web01.3.j1ev4hq7mjwyyy59e0l0g2qjy",
                    "EndpointID": "6f9f9d2a61a3bb2424f7354dfd5a8e3e421734529fe626b4e263d2093078b285",
                    "MacAddress": "02:42:0a:ff:00:0a",
                    "IPv4Address": "10.255.0.10/16",
                    "IPv6Address": ""
                },
                "ingress-sbox": {
                    "Name": "ingress-endpoint",
                    "EndpointID": "2433360215c02637627f3f2cb8bada006b1837fa4aa551d1dffa6f2efe93987b",
                    "MacAddress": "02:42:0a:ff:00:02",
                    "IPv4Address": "10.255.0.2/16",
                    "IPv6Address": ""
                }
            },
            "Options": {
                "com.docker.network.driver.overlay.vxlanid_list": "4096"
            },
            "Labels": {},
            "Peers": [
                {
                    "Name": "5751b4f046eb",
                    "IP": "10.11.97.71"
                },
                {
                    "Name": "e3f5cc62948d",
                    "IP": "10.11.97.187"
                },
                {
                    "Name": "e9531b469fd9",
                    "IP": "10.11.97.181"
                }
            ]
        }
    ]
    

      可以看出ingress,模拟出了一个vxlan,驱动类型为overlay,网段为:10.255.0.0/16,网关为10.255.0.1,vxlan有4096个接口。

    九、swarm集群高可用架构实现

    HAPorxy实现高可用

     

    Nginx反向代理实现高可用

     

    十、Swarm配置文件管理

    1、 生成一个基本的Nginx配置文件
    # cat site.conf

    server {

      listen 80;

      server_name localhost;

    location / {
    root /usr/share/nginx/html;
    index index.html index.htm;
    }
    }

    2、 将site.conf保存到docker配置中

    # docker config create site.conf site.conf
    # docker config ls


    3、 创建一个Nginx并应用这个配置
    # docker service create
    --name nginx
    --config source=site.conf,target=/etc/nginx/conf.d/site.conf
    --publish 8080:80
    nginx


     

  • 相关阅读:
    封装TensorFlow神经网络
    android对话框显示异常报错:You need to use a Theme.AppCompat theme (or descendant) with this activity.
    管道过滤器模式
    架构设计模式之管道——过滤器模式
    SQL SERVER 数据库邮件配置
    浅谈数据仓库的基本架构(转)
    Spark On YARN内存分配
    Tomcat 9.0安装配置
    Spark on Yarn遇到的几个问题
    yarn资源调度(网络搜集)
  • 原文地址:https://www.cnblogs.com/skyflask/p/11212452.html
Copyright © 2020-2023  润新知