• Rancher-2.2.2学习笔记-Jenkins+rancher+harbor+Gitlab部署应用到生产【转】


    关于Jenkins结合rancher进行应用的持续集成,整个流程事实上并不算复杂,只不过牵扯到的东西,以及需要注意到的地方太多,因此这篇文章就针对全局技能的掌握以及过程中的技巧的应用进行分享。

    1,环境准备。

    这次所做的实验主机系统全部基于CentOS Linux release 7.6.1810 (Core)

    1,关于应用的准备。

    应用版本
    Gitlab latest
    Jenkins 2.138
    harbor 1.7.1
    rancher 2.2.2

    2,rancher-cli的准备。

    想要使Jenkins与rancher打通,需要借助于rancher-cli这个工具,具体配置流程参考:rancher-cli的使用

    3,关于rancher环境存储卷的准备。

    • 1,创建存储卷。

    前边已经搭建了一个完整可用的rancher集群,因为部署应用考虑到一个日志问题,所以这里准备一个存储卷用于应用挂载。

    首先进入到将要部署应用的集群(关于集群的规划问题,后续再深入研究摸索)当中,点击应用商店,选择启用,搜索到nfs,点击详情进行部署。

    部署完成之后,可以在集群的工作负载之中看到对应的服务。

    这个时候,还需要进行一些小调整,使得这个服务能够固定地跑在某一个节点之上。我的考虑是这样的,后续所有应用的日志都通过这个服务进行汇总,这样以来开发同学面对应用的时候,就只需要在Jenkins界面点击一下部署,然后去到一个统一的位置查看日志就行了,而不用考虑应用在这个过程中做了哪些事情。

    所以我在集群的work-2节点上加了一块儿500G的硬盘,并挂载在了data目录下。

    1. [root@work-2 ~]$df -hT
    2. Filesystem Type Size Used Avail Use% Mounted on
    3. /dev/mapper/centos-root xfs 196G 12G 184G 6% /
    4. devtmpfs devtmpfs 12G 0 12G 0% /dev
    5. tmpfs tmpfs 12G 0 12G 0% /dev/shm
    6. tmpfs tmpfs 12G 12M 12G 1% /run
    7. tmpfs tmpfs 12G 0 12G 0% /sys/fs/cgroup
    8. /dev/sda1 xfs 497M 208M 290M 42% /boot
    9. /dev/sdb1 xfs 500G 33M 500G 1% /data
    10. tmpfs tmpfs 2.4G 0 2.4G 0% /run/user/0

    注意:留意新增的分区文件系统,需要使用xfs的,否则后期可能会出现pod挂载失败的报错。报错内容如下:

    1. Unable to mount volumes for pod "isj-eureka-57fb65b885-wf77q_isj(b0b0594f-715e-11e9-884a-0050568fa4d0)": timeout expired waiting for volumes to attach or mount for pod "isj"/"isj-eureka-57fb65b885-wf77q". list of unmounted volumes=[eureka]. list of unattached volumes=[eureka default-token-9wmpb]

    接下来对刚刚在应用商店里部署的nfs服务进行一些小小的调整,从而满足我们的需求,点击升级可以更改应用的一些配置信息。

    这里主要修改两个地方。

    • 主机调度:让pod绑定在work-2上,从而始终在我们加了硬盘的主机之上。
    • 数据卷:卷名可以自定义,主要是挂载路径更改成我们预设的/data目录,否则就会跑到它默认的/srv目录下了。

    调整之后,点击升级就可以了,这样就可以使用这个存储卷了。

    在rancher中有两个关于存储的名字,一个存储类,一个持久卷。通俗一点理解的话,存储类则像是逻辑卷,持久卷则像是从逻辑卷当中分出来的一个一个存储分区,刚刚安装的这个nfs属于存储类,后续需要的话,可以直接从里边划分,非常方便,后边部署应用的时候会用到,这里先说这么多。

    • 2,添加持久卷。

    上边存储卷配置完成之后还不能用,为了下边部署应用顺利,这里还需要添加一下持久卷。

    来到集群的数据卷栏目,配置添加:

    点击创建之后,就能在持久卷当中看到一块儿“磁盘”挂载了,后边部署应用的时候也都可以使用了。

    2,安装服务。

    各个服务安装流程这里就不详细说明了。不明白的,可以直接点击下边对应的地址进行参考:

    3,进入正式配置。

    如上我们已经准备了这么一堆的零件,现在该从何入手,仿佛一时间还有一些懵,这个时候,必然是先从最基础的镜像开始的,这是第一步。

    思路大概应该是这样,首先在Jenkins主机上将应用代码克隆下来,然后进行编译,接着编写Dockerfile构建镜像,然后跑一跑调试下,如果可以那么推到私服,接着就可以在rancher当中部署了,最后再整理一下流程当中的步骤,给它落实到Jenkins当中即可。

    现在就遵照着上边规划的思路,一步一步部署一个应用出来。

    1,克隆代码,构建应用。

    因为最终这些都是落实到Jenkins当中的,所以制作镜像也就直接在Jenkins身上完成了。

    当然,这里的步骤,可以稍微省力的直接在Jenkins上进行调试,为了方便,我直接创建一个maven风格的应用进行配置。

    因为开始都是这些老生常谈的几项配置,所以就不再详细叙述,直接通过下边一个截图看配置。

    配置当中主要也就那么几个事儿,保留8此构建历史,添加文本参数实现代码分支构建的需求,添加选项参数实现部署回滚的需求,添加git代码地址,注意分支引用上边文本参数的变量名称,然后就是利用maven工具对项目进行编译。

    现在可以直接构建一次,让应用包先打出来。

    接着去到$WORKSPACE里边编写Dockerfile。写完之后进行一下构建,构建完成之后,run一下看看是否能够正常跑起来,如果可以的话,就可以推到私服,进行部署的操作了。

    把刚才说的这段话翻译成shell脚本放进Jenkins,大概就是下边的样子:

    1. #!/bin/bash
    2. source /etc/profile
    3. #
    4. ##set color##
    5. echoRed() { echo $'e[0;31m'"$1"$'e[0m'; }
    6. echoGreen() { echo $'e[0;32m'"$1"$'e[0m'; }
    7. echoYellow() { echo $'e[0;33m'"$1"$'e[0m'; }
    8. ##set color##
    9. #
    10. project="ebei-mudao"
    11. version=`date +%Y%m%d%H%M%S`
    12. echo -------------------------------------
    13. # 进入项目target目录
    14. cd $WORKSPACE/$project-server/target/ && mv $project-server-1.0.jar app.jar
    15. # 创建docker镜像
    16. cat > run.sh << EOF
    17. #!/bin/bash
    18. source /etc/profile
    19. /opt/app.jar run
    20. EOF
    21. cat > app.conf << EOF
    22. MODE=service
    23. APP_NAME=$project-server
    24. EOF
    25. chmod +x run.sh app.jar
    26. cat >Dockerfile << EOF
    27. FROM 192.168.112.69/public/jdk:1.8
    28. MAINTAINER eryajf <liqilong@edspay.com>
    29. ENV LANG en_US.UTF-8
    30. ADD app.jar /opt
    31. ADD run.sh /
    32. ADD app.conf /opt
    33. EXPOSE 8004
    34. ENTRYPOINT [ "sh", "-c", "/run.sh" ]
    35. EOF
    36. # 编译镜像
    37. echoGreen "开始构建当次镜像!"
    38. docker build -t 192.168.112.69/mudao/$project:$version .

    这里有一些个人小心得,特此表达一下。

    1,包名优化。

    因为同类应用最后生成的包名如下:

    • ebei-a-server-1.0.jar
    • ebei-b-server-1.0.jar
    • ebei-c-server-1.0.jar

    进入到容器之后就不必计较这些分别,所以就统一成了app.jar,从而让脚本的通用性更强,在后续新增项目的时候,修改更少的代码即能部署,以提高效率。

    2,巧用cat的特性。

    因为Dockerfile需要一些文件来辅助,创建这些文件的时候,我用到了cat这个命令,上边包名优化的时候可以一致,而下边配置内容里边,却又要保证项目名称保持原样,于是调用一开始的project变量,通过cat命令之后,会直接将APP_NAME=$project-server执行为APP_NAME=ebei-mudao-server,如此以来,其他应用部署的时候,这个配置就不用改了,只需更改一下开头的project对应的名称即可。

    2,推送镜像,部署应用。

    镜像制作完成并测试之后,就可以推送到私服当中了。

    1. [root@jenkins target]$docker push 192.168.112.69/mudao/ebei-mudao:20190428190020
    2. The push refers to a repository [192.168.112.69/mudao/ebei-mudao]
    3. 506b28e05d9d: Pushed
    4. 0f9f466d3574: Pushed
    5. e2ba34130aac: Pushed
    6. 952ea0986f6c: Mounted from mudao/ebei-admin
    7. 2d0c92e53222: Mounted from mudao/ebei-admin
    8. 129b697f70e9: Mounted from mudao/ebei-admin
    9. 20190428190020: digest: sha256:25789d14f7be659c1c21bd4c48a853e147dd5be18b184133a41873526e048cb5 size: 1574

    然后就可以来到rancher当中进行应用的部署了,因为rancher集成了很友好的UI界面,所以常规应用部署直接在UI中操作就可以了。

    进入到集群中,在工作负载当中点击部署应用,按照下图内容进行配置:

    • 1,定义将要部署的应用名称,这里最好与上边脚本中$project的值相等,以便于脚本的上下文调用。
    • 2,填入刚刚生成的镜像地址。
    • 3,选择应用所属的命名空间,第一次可以新建一个。
    • 4,填入容器当中应用的端口。
    • 5,填入将要映射出来的端口,这个地方建议合理规划与使用。
    • 6,通过端口检查来做健康检查,根据应用初始化情况合理设置后边的时间。
    • 7,在添加卷中选择使用现有的持久卷,卷名自定义。
    • 8,下拉选择一开始准备环境时添加的持久卷。
    • 9,根据自己的需求挂载容器目录,我这里是把应用的日志目录挂载了出来。
    • 10,定义挂载在持久卷中的目录名称。

    接着点击创建,即完成了应用的部署。

    部署完成之后,也可以访问一下,点击应用名称下边的端口,即可直接跳转访问。

    这样,也就完成了一个应用的部署,剩下的事情,就是将刚刚遗留的一些东西放入到Jenkins脚本当中即可。

    等等,在进行后边的事情之前,先来看下日志的情况,首先在rancher当中可以直接查看。

    接着再去我们一开始配置的存储类对应的节点上看看日志是什么状况。

    1. [root@work-2 ebei-mudao]$ pwd
    2. /data/pvc-3a632cf3-698c-11e9-a71b-0050568fa4d0/ebei-mudao
    3. [root@work-2 ebei-mudao]$ ls
    4. api.log error.log root.log

    可以看到日志也如一开始预期的出现了,其中pvc-3a632cf3-698c-11e9-a71b-0050568fa4d0是上边创建的持久卷的名称,ebei-mudao则是刚刚部署应用时定义的。

    3,完善脚本,一键部署。

    因为上边的脚本已经完成了大部分工作,剩下的无非就是补充一下推送镜像的代码以及部署的代码。

    整理之后的代码完整内容如下:

    1. #!/bin/bash
    2. source /etc/profile
    3. #
    4. ##set color##
    5. echoRed() { echo $'e[0;31m'"$1"$'e[0m'; }
    6. echoGreen() { echo $'e[0;32m'"$1"$'e[0m'; }
    7. echoYellow() { echo $'e[0;33m'"$1"$'e[0m'; }
    8. ##set color##
    9. #
    10. project="ebei-mudao"
    11. version=`date +%Y%m%d%H%M%S`
    12. echo -------------------------------------
    13. # 进入项目target目录
    14. cd $WORKSPACE/$project-server/target/ && mv $project-server-1.0.jar app.jar
    15. # 创建docker镜像
    16. cat > run.sh << EOF
    17. #!/bin/bash
    18. source /etc/profile
    19. /opt/app.jar run
    20. EOF
    21. cat > app.conf << EOF
    22. MODE=service
    23. APP_NAME=$project-server
    24. EOF
    25. chmod +x run.sh app.jar
    26. cat >Dockerfile << EOF
    27. FROM 192.168.112.69/public/jdk:1.8
    28. MAINTAINER eryajf <liqilong@edspay.com>
    29. ENV LANG en_US.UTF-8
    30. ADD app.jar /opt
    31. ADD run.sh /
    32. ADD app.conf /opt
    33. EXPOSE 8004
    34. ENTRYPOINT [ "sh", "-c", "/run.sh" ]
    35. EOF
    36. # 编译镜像
    37. echoGreen "开始构建当次镜像!"
    38. docker build -t 192.168.112.69/mudao/$project:$version .
    39. # 上传到docker私服
    40. echoGreen "开始将镜像push到私服!"
    41. docker push 192.168.112.69/mudao/$project:$version
    42. [ $? != 0 ] && echoRed "请注意,在执行push上传时出错,故而退出!" && exit 1
    43. docker rmi 192.168.112.69/mudao/$project:$version
    44. #更新镜像
    45. echoGreen "开始将最新镜像部署到远端!"
    46. rancher kubectl set image deployment/$project $project=192.168.112.69/mudao/$project:$version -n mudao
    47. [ $? != 0 ] && echoRed "请注意,在执行镜像更新时出错,故而退出!" && exit 1
    48. echoGreen "部署完成!"

    简单清晰,放入Jenkins,然后再次点击一下构建,看看是否能够将新的构建内容部署到rancher去。

    点击Jenkins构建日志看到流程是顺利的。

    然后来到rancher这边,看到新的应用已经开始部署了。

    由于之前配置的策略是滚动: 先启动新Pod,再停止旧Pod,所以整个部署过程是不会影响到业务的正常访问的。

    另一方面,因为整个全局都有在考虑着规范化的问题,所以这样一个应用配置流程走完之后,以后再新增应用的时候,直接Jenkins复制Job,仅需要更改一些代码地址,$project的变量内容,然后rancher上复制应用,对应更改一些地方,一个新的应用就这么上线了,算起来,应该不会超过五分钟的吧,与传统方式对比起来,优势立马就显出来了。

    这就是几个零散的工具之间联动的整个流程,特此记录。

    突然想感慨一下,有的人稍有成就,便不再努力,混吃等死,堕入深渊,有的人则永不休止,不断精进,最终走向人生巅峰。忽然感觉到,成功的路上,的确不太拥挤。

    转自大神,如有冒犯还请宽恕

    Rancher-2.2.2学习笔记-Jenkins+rancher+harbor+Gitlab部署应用到生产 |坐而言不如起而行! 二丫讲梵 http://www.eryajf.net/2746.html

  • 相关阅读:
    spring filter and interceptor
    spring 与 swagger 2 的整合
    spring 异步操作
    图片延迟加载 jquery,lazyload.js 调用的demo
    一、Spring的第一个课时
    线程的基本了解
    HTTPS/HTTP监听常见问题
    Leetcode 118 杨辉三角
    HashSet的源码解释
    HashMap源码理解
  • 原文地址:https://www.cnblogs.com/paul8339/p/13410958.html
Copyright © 2020-2023  润新知