• 小型ceph集群的搭建


        了解ceph

        DFS(distributed file system)分布式存储系统,指文件系统管理的物理存储资源,不一定直接连接在本地节点上,而是通过计算机网络与节点相连,众多类别中,ceph是当下应用比较广泛的分布式存储系统,是典型的客户端-服务端模式.

        1.ceph具有很多特点,譬如,高扩展(可以无限扩展节点),高可用(提供副本备份),高性能(crush算法,数据分布军均衡,并行度高)等;

        2.ceph可以提供块存储,文件系统存储,对象存储;

        3.其基本组件有OSD存储设备,monitor集群监控组件,RGW对象存储网关,MDS存放文件系统的元数据,client客户端.

        关于ceph的更深层次内容,请查看官方帮助文档:http://docs.ceph.org/start/intro

       下面搭建一个小型ceph集群,来做深入的研究.

        总体思路: 搭建环境 -> 集群搭建 ->验证

        拓扑图:

      

    一, 环境搭建

        思路: (1)创建4台虚拟机,1台做客户端,另外3台做存储集群; 

                 (2)配置主机名,IP地址,yum源,挂载ceph光盘;

                 (3)配置4台主机的ssh无密码连接,实现操作同步;

                 (4)配置NTP时间同步;  

                 (5)为虚拟机添加磁盘,用于后面的集群存储.

        具体步骤:

        //思路:先在主机node1上操作,再同步内容到其它主机上.

        1)真机上创建挂载点/var/ftp/ceph,并挂载ceph10.iso光盘;

        2)为4台主机设置ssh无密码连接,包括本机;  

          #ssh-keygen -f /root/.ssh/id_rsa -N ''

          #for i in 10 11 12 13     //同步到其它主机

           do

               scp-copy-ip 192.168.4.$i

          done

       3)使用本机解析IP地址,并同步到4台主机(这里不再另外搭建DNS服务器)

         #vim /etc/hosts

          192.168.4.10 client

          192.168.4.11  node1

          192.168.4.12   node2

          192.168.4.13   node3

         for i in 10 11 12 13     //同步到其它主机

         do

            scp /etc/hosts 192.168.4.$i:/etc/

       4)配置yum源,调用真机挂载点里的ceph工具

         #vim /etc/yum.repos.d/ceph.repo

          [mon]

          name=mon

          baseurl=ftp://192.168.4.254/ceph/MON

          gpgcheck=0

          [osd]

          name=osk

          baseurl=ftp://192.168.4.254/ceph/OSD

          gpgcheck=0

          [tools]

          name=tools

          baseurl=ftp://192.168.4.254/ceph/Tools

         gpgcheck=0

        for i in 10 11 12 13       //同步yum源到其它主机

        do

           scp /etc/yum.repos.d/ceph.repo  192.168.4.$i:/etc/yum.repos.d/

        done

     5)配置所有主机NTP与真机一致

       #vim /etc/chrony.conf

         server 192.168.4.254 iburst

         for i in 10 11 12 13   //同步到其它主机

         do

              scp /etc/chrony.conf  192.168.4.$i:/etc/

         done

     6)真机上运行virt-manager,调出虚拟系统管理器,为每个虚拟主机添加3块磁盘vdb,vdc,vdd.

    二, 集群搭建

      思路: (1)安装工具ceph-deploy

                (2)创建ceph集群

                (3)准备日志,及磁盘分区

                (4)创建OSD存储空间

                (5)查看ceph状态及验证

     具体步骤:

      (1)安装工具,并创建目录

         yum -y install ceph-deploy

         mkdir ceph-cluster

      (2)创建ceph集群

          a. 定义monitor主机到配置文件ceph.conf里

             node1 ceph-cluster]#ceph-deploy new node1 node2 node3

          b. 安装ceph相关软件包到所有节点

            node1 ceph-cluster]#for i in node1 node2 node3

            do

                ssh 192.168.4.$i  "yum -y install ceph-mon ceph-osd ceph-mds ceph-radosgw"

            done

          c.初始化所有节点的Monitor服务,即启动mon服务

            node1 ceph-cluster]# ceph-deploy mon create-initial

     (3)创建OSD存储

         a.将vdb分区成vdb1和vdb2来作为缓存服务器的journal缓存盘

            node1 ceph-cluster]# for i in node1 node2 node3

            do

              ssh 192.168.4.$i "parted /dev/vdb mklabel gpt"

              ssh 192.168.4.$i "parted /dev/vdb mkpart primary 1 50%"

              ssh 192.168.4.$i "parted /dev/vdb mkpart primary 50% 100%"

            done

         b.磁盘分区为vdb1和vdb2后的默认权限,不能让ceph软件对其做读写操作,需要修改权限.

           注意,4台主机都要改权限,如下以node1为例:

           node1 ceph-cluster]# chown ceph.ceph  /dev/vdb1     //临时修改权限

           node1 ceph-cluster]# chown ceph.ceph /dev/vdb2      //临时修改权限

           永久性地设置权限:

           node1 deph-cluster]# vim /etc/udev/rules.d/70-vdb.rules

           ENV{DEVNAME}=="/dev/vdb1",OWNER="ceph",GROUP="ceph"

           ENV{DEVNAME}=="/dev/vdb2"OWNER="ceph",GROUP="ceph"

           #for i in node1 node2 node3     //同步到所有主机

             do

                 scp /etc/udev/rules.d/70-vdb.rules  192.168.4.$i:/etc/udev/rules.d/

            done

          c.初始化磁盘数据,即清空.

             #for i in node1 node2 node3

               do

                  ceph-deploy disk zap $i:vdc $i:vdd

               done

           d.创建OSD存储空间

              #for i in node1 node2 node3

               do

                  ceph-deploy osd create $i:vdc:/dev/vdb1 $i:vdd:/dev/vdb2 

                 //创建osd存储设备,vdc提供存储空间,vdb1提供日志缓存;vdd提供存储空间,vdb2提供日志缓存.

               done

    三, 验证

          node1~]# ceph -s  //查看状态,

           //如果失败,尝试重启ceph服务:# systemctl restart ceph\*.server ceph\*.target

    随笔完毕.

  • 相关阅读:
    My97DatePicker控件显示时分秒
    【servlet学习1】使用eclipse+tomcat开发servlet示例
    JNI之JAVA调用C++接口
    关闭页面,window.onunload事件未执行的原因
    java finally块执行时机分析
    c# IL 指令集
    java 字节码指令集
    Linux可插拔认证模块(PAM)的配置文件、工作原理与流程
    常用的Linux可插拔认证模块(PAM)应用举例(一)
    开始我的博客旅途
  • 原文地址:https://www.cnblogs.com/liusingbon/p/10980625.html
Copyright © 2020-2023  润新知