Ceph在Ubantu14.04系统的安装

注:下文的所有操作都在admin节点进行

1、 准备三台虚拟机,其中一台作为admin节点,另外两台作为osd节点,并相应地用hostname命令将主机名修改为admin,osd0,osd1,最后修改/etc/hosts文件;

在Ubuntu系统中主机名存放在/etc/hostname文件中,修改主机名时,编辑hostname文件,在文件中输入新的主机名并保存该文件即可;

    root@admin:vi /etc/hostname

/etc/hosts存放的是域名与ip的对应关系,域名与主机名没有任何关系,你可以为任何一个IP指定任意一个名字

    root@admin:vi /etc/hosts

最后修改/etc/hosts文件如下所示(每台主机上相同):

    127.0.0.1       localhost

    192.168.1.166    admin

    192.168.1.167    osd0

    192.168.1.168   osd1

2、 设置集群内每台主机可以用root登陆(默认ubantu不能用root用户登陆)确保三台主机之间可以ssh登陆root用户

2.1 新建lightdm.conf 文件

    root@admin:vi  /etc/lightdm/lightdm.conf 

2.2在其中添加如下的内容;

    [SeatDefaults]

    autologin-user=root

    greeter-session=unity-greeter

    user-session=ubuntu

    greeter-show-manual-login=true

    allow-guest=false

2.3修改root密码

    Sudo passwd root

2.4  修改 /etc/ssh/sshd_config

    root@admin: vi /etc/ssh/sshd_config

2.5注释掉 #PermitRootLogin without-password,添加 PermitRootLogin ye

    # Authentication:

    LoginGraceTime 120

    #PermitRootLogin without-password

    PermitRootLogin yes

    StrictModes yes

2.6重启 系统

    root@admin: reboot

3、 配置免密码访问

    ssh-keygen        //一直按回车即可,产生公钥私钥对

    ssh-copy-id -i /root/.ssh/id_rsa.pub osd0  //将本地公钥复制到osd0机器上,实现免密码访问

    ssh-copy-id -i /root/.ssh/id_rsa.pub osd1

4、 安装NTP

    apt-get install ntp

确保在各 Ceph 节点上启动了 NTP 服务,并且要使用同一个 NTP 服务器;

5、 安装ceph-deploy 默认163镜像中已经存在ceph-deploy

    apt-get install ceph-deploy

6、 创建集群目录并进入

    mkdir ceph-cluster

    cd ceph-cluster

7、 创建集群,会在当前目录下看到ceph.conf ceph.log ceph.mon.keyring三个文件

    ceph-deploy new admin

8、 安装CEPH

    ceph-deploy install admin osd0 osd1

9、 加一个Ceph集群监视器,在admin节点创建即可

    ceph-deploy mon create admin

10、       收集秘钥,目录下会多出ceph.bootstrap-mds.keyring  ceph.client.admin.keyring  ceph.client.admin.keyring这几个文件

    ceph-deploy gatherkeys admin

11、       增加2OSD,为了快速安装,为每个Ceph OS守护进程使用单个目录而非单个磁盘

    ssh osd0

    sudo mkdir /tmp/osd0

    exit

      ssh osd1

    sudo mkdir /tmp/osd1

    exit

12、       准备osd

    ceph-deploy osd prepare osd0:/tmp/osd0 osd1:/tmp/osd1

13、       激活osd

    ceph-deploy osd activate osd1:/tmp/osd1

14、       将配置文件和管理密钥复制到管理节点和Ceph节点,下次再使用ceph命令界面时就无需指定集群监视器地址,执行命令时也无需每次都指定ceph.client.admin.keyring

    ceph-deploy admin osd0 osd1

15、       检查集群健康状况

    ceph health

但是这时返回的不是健康状态,而是HEALTH_WARN 192 pgs degraded; 192 pgs stuck unclean,这时再另外添加一个osd节点即可

16、       扩展集群,在admin节点添加一个osd,然后ceph health就能返回HEALTH_OK的状态了

    mkdir /tmp/osd2

    ceph-deploy osd prepare admin:/tmp/osd2

    ceph-deploy osd activate admin:/tmp/osd2

    ceph-deploy admin osd0 osd1

    ceph health

显示HEALTH_OK

17、       添加原数据服务器

    root@admin:/cept-cluster# ceph-deploy mds create admin

至少需要一个元数据服务器才能使用 CephFS ,执行下列命令创建元数据服务器;

    scp /etc/ceph/ceph.client.admin.keyring root@osd1:/etc/ceph/

原文地址:https://www.cnblogs.com/AnXinliang/p/6963498.html