centos 7 下 Ceph 配置安装

一、环境介绍

  系统:

    CentOS Linux release 7.3.1611 (Core)

  硬盘:

    系统盘:300GB*2-raid 1                

    OSD:600GB*4-raid 5      ceph 数据副本 两份

  网络:

    public_network:10.6.32.0/24

    cluster_network:10.6.33.0/24  (双网卡绑定,osd 内部数据同步使用)

  防火前关闭:

    # systemctl stop firewalld.service 

    # systemctl disable firewalld.service 

  Selinux 关闭:

    # vim /etc/selinux/config

      SELINUX=disabled  (设置此选项为disabled)

  设备规划:

    5台    主机名:ceph1、ceph2……ceph5

    修改主机名:

      # vim /etc/hostname

        ceph1    (修改localhost..... 为主机名 ceph1 到ceph5)

    修改hosts:

      # vim /etc/hosts

        

    功能节点规划:

      ceph1:ceph-deploy 、mon 、 mgr 、 osd,Ntp-server

      ceph2 、ceph3 :mon 、 mgr 、 osd

      ceph4 、ceph5:osd

      

    添加 ssh 信任,以便于ceph-deploy 快速部署

       生成key:

        # ssh-keygen  (保持默认即可)

        # ssh-copy-id root@ceph{2,3,4,5}   (下发证书到 其他4台设备)

 二、部署 ceph-deploy 节点

  配置时间服务器

    使用chrony 时间服务器,时间同步可以达到 nm级别。 

    ceph1:

      # vim /etc/chrony.conf

        

       #添加同于同步时间的IP段

      # systemctl restart chronyd.service

      # chronyc sources

     other ceph:

      # vim /etc/chrony.conf

      

      #设置时间服务器 ceph1 IP。

      # systemctl restart chronyd.service

      # chronyc sources

      

  添加ceph 源:

    # yum -y install epel-release

    # rpm --import http://mirrors.163.com/ceph/keys/release.asc

    # rpm -Uvh --replacepkgs http://mirrors.163.com/ceph/rpm-luminous/el7/noarch/ceph-release-1-1.el7.noarch.rpm

    # cat /etc/yum.repos.d/ceph.repo

       

  同步yum 源到其他设备

    # for i in 21 22 23 24;do scp /etc/yum.repos.d/ceph.repo  root@"10.6.32.$i":/etc/yum.repos.d/ceph.repo;done    (后期再其他节点安装ceph 使用)

  更新源和安装 ceph-deploy  

    # yum update

    # yum install ceph-deploy

三、安装ceph ,创建集群

  创建文件夹:

    ceph-deploy 节点创建文件夹,用于存放集群文件。

      # mkdir /root/my-ceph

  生成集群文件

    # cd /root/my-ceph

    # ceph-deploy new ceph1     (会生成集群文件)

       

  编辑集群文件:ceph.conf

    # vim ceph.conf 

       

    添加一下配置:[osd.x] 配置 和 [mon] 配置可以再安装好ceph 和 mon 后再进行配置。     

osd_pool_default_size = 2
osd_pool_default_min_size = 1
public_network = 10.6.32.0/24
cluster_network = 10.6.33.0.0/24


[osd.0]
cluster addr = 10.6.33.20
osd heartbeat address = 10.6.33.20
[osd.1]
cluster addr = 10.6.33.21
osd heartbeat address = 10.6.33.21
[osd.2]
cluster addr = 10.6.33.22
osd heartbeat address = 10.6.33.22
[osd.3]
cluster addr = 10.6.33.23
osd heartbeat address = 10.6.33.23
[osd.4]
cluster addr = 10.6.33.24
osd heartbeat address = 10.6.33.24

[mon]
mon allow pool delete = true

  解释:

          osd_pool_default_size 设置  数据副本数量

          osd_pool_default_min_size  数据最小副本数  

          public_network    公共网络,用于mds,mon 等功能以及外部访问使用。

          cluster_network    集群网络,用于内部osd 数据同步,恢复等。

          cluster addr   每个osd 节点上定义 集群网络,多网卡下不定义,osd 可能无法启动

          osd heartbeat address   定义osd 心跳地址

          mon allow pool delete  定义是否允许在监控节点上删除 pool。

   安装ceph 

    #  ceph-deploy install --release luminous ceph{1,2,3,4,5}      #但是这种方法很多时候由于 ceph-deploy 工具原因,不容易安装成功。并且还会修改 ceph 源配置文件。建议使用一下方法手动在每个节点安装。

    手动在每个节点安装

      # yum -y install epel-release            添加ceph 源

      # 上述已同步 ceph 源,此处可以不做操作。 ( for i in 21 22 23 24;do scp /etc/yum.repos.d/ceph.repo  root@"10.6.32.$i":/etc/yum.repos.d/ceph.repo;done  

      # yum -y install ceph ceph-radosgw

  安装 mon  (ceph-deploy上操作)

    # cd /root/my-ceph

    # ceph-deploy mon create-initial

     Ceph 存储集群需要至少一个 Monitor 才能运行。为达到高可用,典型的 Ceph 存储集群会运行多个Monitors,这样在单个 Monitor 失败时不会影响 Ceph 存储集群的可用性。集群中的 monitor数目 应该是奇数,最低要求有一个monitor节点,推荐有3个节点。

     添加 ceph2 和ceph3 到 监控器集群

      # ceph-deploy mon add ceph{2,3}      #新增 Monitor 后,Ceph 会自动开始同步并形成法定人数。

      # ceph quorum_status --format json-pretty       检查法定人数状态

        

      # ceph-deploy mon destroy ceph4  从集群中删除  主机名为 ceph4 的 ceph mon 节点      

      #  ceph -s   查看当前集群状态,在没有添加 osd 之前,正常应该为 HEALTH_OK 状态。

        

      # ceph mon stat     查看mon 集群状态

  同步集群文件

    集群文件同步后,在执行 ceph 命令是就无需指定 monitor 地址和ceph.client.admin.keyring 了

    # ceph-deploy admin ceph{1,2,3,4,5}    #第一次执行使用,以后同步文件是需要使用如下:

      #ceph-deploy  --overwrite-conf  admin ceph{1,2,3,4,5}    采用覆盖式同步。

    # chmod +r /etc/ceph/ceph.client.admin.keyring       如果使用非root 账号管理 ceph 集群时,需要添加此权限。

  添加 osd

    查看节点上的可用磁盘

      # ceph-deploy disk list ceph{1,2,3,4,5}

    格式化可用磁盘

      # ceph-deploy disk zap ceph1:sdb ceph2:sdb ceph3:sdb ceph4:sdb ceph5:sdb     # sdb 路径为上一步操作看到的真实路径。

    准备osd

      # ceph-deploy osd prepare ceph1:sdb ceph2:sdb ceph3:sdb ceph4:sdb ceph5:sdb         (在此处应该可以指定日志盘位置,不指定时,默认数据和日志存放在同一个盘下。)

    激活osd

      # ceph-deploy osd activate ceph1:sdb1 ceph2:sdb1 ceph3:sdb1 ceph4:sdb1 ceph5:sdb1     (也可以用 create 命令一次完成准备 OSD 、部署到 OSD 节点、并激活它。 create 命令是依次执行 prepare 和 activate 命令的捷径。

# ceph-deploy osd create ceph1:sdb ceph2:sdb ceph3:sdb ceph4:sdb ceph5:sdb)

  查看 集群状态

    # ceph osd tree        

      

      提醒:在此前没有配置 /root/ceph.conf 文件中的 [osd.x] 的配置的,此时可能看到 osd 状态都为down,需要添加 配置,并且使用ceph-deploy  --overwrite-conf  admin ceph{1,2,3,4,5}  同步集群配置。

 

 OK。到此处。ceph 集群配置完成。

 

 

 

 

IT运维开发路上的点点滴滴。。。
原文地址:https://www.cnblogs.com/weijie0717/p/8378485.html