• 学习k8s(三)


    一、Kubernetes核心概念

    1、Kubernetes介绍

    Kubernetes(k8s)是自动化容器操作的开源平台,这些操作包括部署,调度和节点集群间扩展。如果你曾经用过Docker容器技术部署容器,那么可以将Docker看成Kubernetes内部使用的低级别组件。Kubernetes不仅仅支持Docker,还支持Rocket,这是另一种容器技术。
    使用Kubernetes可以:
    自动化容器的部署和复制
    随时扩展或收缩容器规模
    将容器组织成组,并且提供容器间的负载均衡
    很容易地升级应用程序容器的新版本
    提供容器弹性,如果容器失效就替换它,等等...
    
    实际上,使用Kubernetes只需一个部署文件,使用一条命令就可以部署多层容器(前端,后台等)的完整集群:
    $ kubectl create -f single-config-file.yaml
    
    kubectl是和Kubernetes API交互的命令行程序。现在介绍一些核心概念。

    2、集群

    集群是一组节点,这些节点可以是物理服务器或者虚拟机,之上安装了Kubernetes平台。下图展示这样的集群。注意该图为了强调核心概念有所简化。这里可以看到一个典型的Kubernetes架构图。

    上图可以看到如下组件,使用特别的图标表示Service和Label:
    • Pod
    • Container(容器)
    • Label(label)(标签)
    • Replication Controller(复制控制器)
    • Service(enter image description here)(服务)
    • Node(节点)
    • Kubernetes Master(Kubernetes主节点)

    3、Pod

    Pod(上图绿色方框)安排在节点上,包含一组容器和卷。同一个Pod里的容器共享同一个网络命名空间,可以使用localhost互相通信。Pod是短暂的,不是持续性实体。你可能会有这些问题:
    如果Pod是短暂的,那么我怎么才能持久化容器数据使其能够跨重启而存在呢? 是的,Kubernetes支持卷的概念,因此可以使用持久化的卷类型。
    是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么?可以手动创建单个Pod,但是也可以使用Replication Controller使用Pod模板创建出多份拷贝,下文会详细介绍。
    如果Pod是短暂的,那么重启时IP地址可能会改变,那么怎么才能从前端容器正确可靠地指向后台容器呢?这时可以使用Service,下文会详细介绍。

    4、Lable

    正如图所示,一些Pod有Label(enter image description here)。一个Label是attach到Pod的一对键/值对,用来传递用户定义的属性。比如,你可能创建了一个"tier"和“app”标签,通过Label(tier=frontend, app=myapp)来标记前端Pod容器,使用Label(tier=backend, app=myapp)标记后台Pod。然后可以使用Selectors选择带有特定Label的Pod,并且将Service或者Replication Controller应用到上面。

    5、Replication Controller

    是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么,能否将Pods划到逻辑组里?
    
    Replication Controller确保任意时间都有指定数量的Pod“副本”在运行。如果为某个Pod创建了Replication Controller并且指定3个副本,它会创建3个Pod,并且持续监控它们。如果某个Pod不响应,那么Replication Controller会替换它,保持总数为3.如下面的动画所示:

    如果之前不响应的Pod恢复了,现在就有4个Pod了,那么Replication Controller会将其中一个终止保持总数为3。如果在运行中将副本总数改为5,Replication Controller会立刻启动2个新Pod,保证总数为5。还可以按照这样的方式缩小Pod,这个特性在执行滚动升级时很有用。
    
    当创建Replication Controller时,需要指定两个东西:
    Pod模板:用来创建Pod副本的模板
    Label:Replication Controller需要监控的Pod的标签。
    
    现在已经创建了Pod的一些副本,那么在这些副本上如何均衡负载呢?我们需要的是Service。

    6、Service

    如果Pods是短暂的,那么重启时IP地址可能会改变,怎么才能从前端容器正确可靠地指向后台容器呢?
    
    Service是定义一系列Pod以及访问这些Pod的策略的一层抽象。Service通过Label找到Pod组。因为Service是抽象的,所以在图表里通常看不到它们的存在,这也就让这一概念更难以理解。
    
    现在,假定有2个后台Pod,并且定义后台Service的名称为‘backend-service’,lable选择器为(tier=backend, app=myapp)。backend-service 的Service会完成如下两件重要的事情:
    会为Service创建一个本地集群的DNS入口,因此前端Pod只需要DNS查找主机名为 ‘backend-service’,就能够解析出前端应用程序可用的IP地址。
    现在前端已经得到了后台服务的IP地址,但是它应该访问2个后台Pod的哪一个呢?Service在这2个后台Pod之间提供透明的负载均衡,会将请求分发给其中的任意一个(如下面的动画所示)。通过每个Node上运行的代理(kube-proxy)完成。这里有更多技术细节。
    
    下述动画展示了Service的功能。注意该图作了很多简化。如果不进入网络配置,那么达到透明的负载均衡目标所涉及的底层网络和路由相对先进。如果有兴趣,这里有更深入的介绍。

    有一个特别类型的Kubernetes Service,称为'LoadBalancer',作为外部负载均衡器使用,在一定数量的Pod之间均衡流量。比如,对于负载均衡Web流量很有用。

    7、Node

    节点(上图橘色方框)是物理或者虚拟机器,作为Kubernetes worker,通常称为Minion。每个节点都运行如下Kubernetes关键组件:
    Kubelet:是主节点代理。
    Kube-proxy:Service使用其将链接路由到Pod,如上文所述。
    Docker或Rocket:Kubernetes使用的容器技术来创建容器。

    8、Kubernetes Master

    集群拥有一个Kubernetes Master(紫色方框)。Kubernetes Master提供集群的独特视角,并且拥有一系列组件,比如Kubernetes API Server。API Server提供可以用来和集群交互的REST端点。master节点包括用来创建和复制Pod的Replication Controller。

    二、二进制源码安装部署(master节点)

    1、环境

    主机 ip地址 软件版本
    k8s-master 192.168.4.11 docker-1.12.6-71
    k8s-node 192.168.4.12 kubernetes-1.6.13

     

    bin:二进制文件,不需要安装,直接运行

    kubernetes.tar.gz:源码包文件

    docker镜像文件:kubernetes-dashboard-amd64-v1.5.1.tar、pause-amd64-3.0.tar

    docker pull gcr.azk8s.cn/google_containers/pause-amd64:3.0
    docker pull gcr.azk8s.cn/google_containers/kubernetes-dashboard-amd64:v1.5.1

    bin目录

     导入两个docker镜像

    docker load < pause-amd64-3.0.tar
    docker load < kubernetes-dashboard-amd64-v1.5.1.tar

    2、安装etcd

    1、yum安装
    yum -y install etcd
    2、修改配置 修改etcd配置文件监听地址 # vim
    /etc/etcd/etcd.conf 6 ETCD_LISTEN_CLIENT_URLS="http://192.168.4.11:2379"   21 ETCD_ADVERTISE_CLIENT_URLS="http://192.168.4.11:2379"
    3、启动服务 systemctl start etcd.service systemctl enable etcd.service
    # 2379端口 是客户端连接端口
    # 2380端口 是etcd集群连接端口

    下载二进制文件的脚本,因为无法访问google所以这里我们是下不下来的

    /root/k8s/kubernetes/cluster/get-kube-binaries.sh

    我准备好的所需二进制文件(bin目录)

     

     部署master

    tar xf kubernetes.tar.gz
    cd k8s/kubernetes/cluster/centos/master/scripts/

     环境初始化

    首先保证etcd2379端口存在 不然之后都无法操作
    
    1、创建目录
    因为安装脚本中会把配置文件和二进制文件放到指定的目录下面
    mkdir -p /opt/kubernetes/{cfg,bin}
    
    2、把所需要得二进制文件拷贝到指定目录(提前下载好的二进制文件)
    cd k8s/bin/
    mv * /opt/kubernetes/bin/

    3、配置启动kube-apiserver

    cd /root/k8s/kubernetes/cluster/centos/master/scripts/

     apiserver.sh其中有四个传参

    MASTER_ADDRESS=${1:-"8.8.8.18"}                 MASTER地址
    ETCD_SERVERS=${2:-"http://8.8.8.18:2379"}       ETCD地址
    SERVICE_CLUSTER_IP_RANGE=${3:-"10.10.10.0/24"}  服务的范围
    ADMISSION_CONTROL=${4:-""}                      资源控制列表

    启动服务

    ./apiserver.sh 192.168.4.11 http://192.168.4.11:2379 10.1.0.0/16

    查看服务和端口

    systemctl status kube-apiserver.service
    lsof -i :8080

    脚本都干了什么

    1、在/opt/kubernetes/cfg/目录下,创建了kube-apiserver配置文件
    2、创建了/usr/lib/systemd/system/kube-apiserver.service 服务

    kubernetes API Server的介绍

    kube-apiserver提供了k8s各类资源对象(pod,RC,Service等)的增删改查及watch等HTTP Rest接口,是整个系统的数据总线和数据中心。

    kubernetes API Server的功能:

    提供了集群管理的REST API接口(包括认证授权、数据校验以及集群状态变更);
    提供其他模块之间的数据交互和通信的枢纽(其他模块通过API Server查询或修改数据,只有API Server才直接操作etcd);
    是资源配额控制的入口;
    拥有完备的集群安全机制.

    4、配置启动kube-controller-manager

     controller-manager.sh 只有一个传参

    MASTER_ADDRESS=${1:-"8.8.8.18"}      master地址

    启动服务

    ./controller-manager.sh 192.168.4.11

    查看服务和端口

    systemctl status kube-controller-manager.service
    lsof -i :10252

    介绍和功能

    kube-controller-manager:副本控制器,监听pod副本数,使用10252端口

    5、配置启动kube-scheduler

     scheduler.sh  只有一个传参

    MASTER_ADDRESS=${1:-"8.8.8.18"}   master地址

    启动服务

    ./scheduler.sh 192.168.4.11

    查看服务和端口

    systemctl status kube-scheduler.service
    lsof -i :10251

    介绍和功能

    kube-scheduler:资源调度器, 使用10251端口

     6、测试

    设置环境变量

    # vim .bash_profile
    PATH=$PATH:$HOME/bin:/opt/kubernetes/bin
    
    # source .bash_profile

    查看组件状态

    kubectl -s http://192.168.2.100:8080 get cs

    三、二进制源码安装部署(node节点)

    环境

    docker load < kubernetes-dashboard-amd64-v1.5.1.tar
    docker load < pause-amd64-3.0.tar
    mkdir -p /opt/kubernetes/{cfg,bin}
    mv /root/k8s/bin/* /opt/kubernetes/bin/
    tar xf kubernetes.tar.gz

    1、安装kubelet

    在每个节点(node)上都要运行一个 worker 对容器进行生命周期的管理,这个 worker 程序就是 kubelet。
    简单地说,kubelet?的主要功能就是定时从某个地方获取节点上 pod/container 的期望状态(运行什么容器、运行的副本数量、网络或者存储如何配置等等),并调用对应的容器平台接口达到这个状态。
    
    kubelet 除了这个最核心的功能之外,还有很多其他特性:
    定时汇报当前节点的状态给 apiserver,以供调度的时候使用
    镜像和容器的清理工作,保证节点上镜像不会占满磁盘空间,退出的容器不会占用太多资源
    运行 HTTP Server,对外提供节点和 pod 信息,如果在 debug 模式下,还包括调试信息

    kubelet.sh  其中有四个传参

    MASTER_ADDRESS=${1:-"8.8.8.18"}     master地址
    NODE_ADDRESS=${2:-"8.8.8.20"}       node地址
    DNS_SERVER_IP=${3:-"192.168.3.100"}
    DNS_DOMAIN=${4:-"cluster.local"}

    启动服务

    ./kubelet.sh 192.168.4.11  192.168.4.12

    查看服务和端口

    systemctl status kubelet.service
    lsof -i :10250

    2、安装proxy

    在每个节点上运行网络代理。这反映每个节点上 Kubernetes API 中定义的服务,并且可以做简单的 TCP 和 UDP 流转发或在一组后端中轮询,进行 TCP 和 UDP 转发

    proxy.sh 其中有两个传参

    MASTER_ADDRESS=${1:-"8.8.8.18"}    master地址
    NODE_ADDRESS=${2:-"8.8.8.20"}      node地址

    启动服务

    ./proxy.sh 192.168.4.11 192.168.4.12

    查看服务和端口

    systemctl status kube-proxy.service
    lsof -i :10249

    3、测试

    master执行

    kubectl get node
    NAME           STATUS    AGE VERSION
    192.168.4.12   Ready     12d v1.6.13

    四、网络

    1、Flannel介绍

    Flannel是CoreOS团队针对Kubernetes设计的一个网络规划服务,简单来说,它的功能是让集群中的不同节点主机创建的Docker容器都具有全集群唯一的虚拟IP地址。
    默认的Docker配置中,每个节点上的Docker服务会分别负责所在节点容器的IP分配。这样导致的一个问题是,不同节点上容器可能获得相同的内外IP地址。
    Flannel的设计目的就是为集群中的所有节点重新规划IP地址的使用规则,从而使得不同节点上的容器能够获得“同属一个内网”且”不重复的”IP地址,并让属于不同节点上的容器能够直接通过内网IP通信。
    Flannel实质上是一种“覆盖网络(overlay network)”,也就是将TCP数据包装在另一种网络包里面进行路由转发和通信,目前已经支持UDP、VxLAN、AWS VPC和GCE路由等数据转发方式。

     2、安装配置

    官网下载flannel

    https://github.com/coreos/flannel/releases/tag/v0.9.1
    wget https://github.com/coreos/flannel/releases/download/v0.9.1/flannel-v0.9.1-linux-amd64.tar.gz

     二进制文件和执行脚本,存放路径

    /root/k8s/kubernetes/cluster/centos/node/scripts/flannel.sh
    tar xf flannel-v0.9.1-linux-amd64.tar.gz
    cp -a flanneld
    /opt/kubernetes/bin/flanneld

    flannel.sh 其中有两个传参

    ETCD_SERVERS=${1:-"http://8.8.8.18:2379"}   etcd地址
    FLANNEL_NET=${2:-"172.16.0.0/16"}           flannel创建的网络

    启动服务

    ./flannel.sh http://192.168.4.11:2379  10.2.0.0/16
     systemctl start flanneld.service 

    查看服务和网络

    systemctl status flannel.service
    ifconfig flannel

     配置Docker里使用Flannel网络

    # vim /root/k8s/kubernetes/cluster/centos/node/scripts/docker.sh
    DOCKER_OPTS="-H tcp://127.0.0.1:4243 -H unix:///var/run/docker.sock  --selinux-enabled=false ${DOCKER_OPTS}"
    有些版本不支持overlay存储模式所以如果有报错就删除 -s overlay

    启动docker

    ./docker.sh
    
    如果执行还是启动不起来,进行如下操作 rm
    -f /opt/kubernetes/bin/dockerd ln -s /usr/bin/dockerd /opt/kubernetes/bin/

    配置完成后查看网络状态

    ifconfig docker0 && ifconfig flannel

     测试网络

    docker run -it  --name test1 busybox

      

  • 相关阅读:
    MySQL
    面向对象总结
    git指令
    DOS命令
    补充
    如何处理数据
    操作php数据库
    git安装方法
    git知识点/下一章是git的安装方法
    Css3属性
  • 原文地址:https://www.cnblogs.com/wuhg/p/12195171.html
Copyright © 2020-2023  润新知