注:下文的所有操作都在admin节点进行
1、 准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/etc/hosts文件;
在Ubuntu系统中主机名存放在/etc/hostname文件中,修改主机名时,编辑hostname文件,在文件中输入新的主机名并保存该文件即可;
root@admin:vi /etc/hostname
/etc/hosts存放的是域名与ip的对应关系,域名与主机名没有任何关系,你可以为任何一个IP指定任意一个名字
root@admin:vi /etc/hosts
最后修改/etc/hosts文件如下所示(每台主机上相同):
127.0.0.1 localhost
192.168.1.166 admin
192.168.1.167 osd0
192.168.1.168 osd1
2、 设置集群内每台主机可以用root登陆(默认ubantu不能用root用户登陆)确保三台主机之间可以ssh登陆root用户
2.1 新建lightdm.conf 文件
root@admin:vi /etc/lightdm/lightdm.conf
2.2在其中添加如下的内容;
[SeatDefaults]
autologin-user=root
greeter-session=unity-greeter
user-session=ubuntu
greeter-show-manual-login=true
allow-guest=false
2.3修改root密码
Sudo passwd root
2.4 修改 /etc/ssh/sshd_config
root@admin: vi /etc/ssh/sshd_config
2.5注释掉 #PermitRootLogin without-password,添加 PermitRootLogin ye
# Authentication:
LoginGraceTime 120
#PermitRootLogin without-password
PermitRootLogin yes
StrictModes yes
2.6重启 系统
root@admin: reboot
3、 配置免密码访问
ssh-keygen //一直按回车即可,产生公钥私钥对
ssh-copy-id -i /root/.ssh/id_rsa.pub osd0 //将本地公钥复制到osd0机器上,实现免密码访问
ssh-copy-id -i /root/.ssh/id_rsa.pub osd1
4、 安装NTP
apt-get install ntp
确保在各 Ceph 节点上启动了 NTP 服务,并且要使用同一个 NTP 服务器;
5、 安装ceph-deploy 默认163镜像中已经存在ceph-deploy
apt-get install ceph-deploy
6、 创建集群目录并进入
mkdir ceph-cluster
cd ceph-cluster
7、 创建集群,会在当前目录下看到ceph.conf ceph.log ceph.mon.keyring三个文件
ceph-deploy new admin
8、 安装CEPH
ceph-deploy install admin osd0 osd1
9、 加一个Ceph集群监视器,在admin节点创建即可
ceph-deploy mon create admin
10、 收集秘钥,目录下会多出ceph.bootstrap-mds.keyring ceph.client.admin.keyring ceph.client.admin.keyring这几个文件
ceph-deploy gatherkeys admin
11、 增加2个OSD,为了快速安装,为每个Ceph OS守护进程使用单个目录而非单个磁盘
ssh osd0
sudo mkdir /tmp/osd0
exit
ssh osd1
sudo mkdir /tmp/osd1
exit
12、 准备osd
ceph-deploy osd prepare osd0:/tmp/osd0 osd1:/tmp/osd1
13、 激活osd
ceph-deploy osd activate osd1:/tmp/osd1
14、 将配置文件和管理密钥复制到管理节点和Ceph节点,下次再使用ceph命令界面时就无需指定集群监视器地址,执行命令时也无需每次都指定ceph.client.admin.keyring
ceph-deploy admin osd0 osd1
15、 检查集群健康状况
ceph health
但是这时返回的不是健康状态,而是HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean,这时再另外添加一个osd节点即可
16、 扩展集群,在admin节点添加一个osd,然后ceph health就能返回HEALTH_OK的状态了
mkdir /tmp/osd2
ceph-deploy osd prepare admin:/tmp/osd2
ceph-deploy osd activate admin:/tmp/osd2
ceph-deploy admin osd0 osd1
ceph health
显示HEALTH_OK
17、 添加原数据服务器
root@admin:/cept-cluster# ceph-deploy mds create admin
至少需要一个元数据服务器才能使用 CephFS ,执行下列命令创建元数据服务器;
scp /etc/ceph/ceph.client.admin.keyring root@osd1:/etc/ceph/