ceph之osd

一、删除osd


ceph osd out 1
ceph osd down 1
systemctl stop ceph-osd@1
ceph osd crush remove osd.1
ceph osd rm 1
ceph auth del osd.1

 

 二、用ceph-deploy方式新增一个osd

1、登录deploy节点,打开集群创建目录

root@ceph01:~# cd /root/my-cluster/
root@ceph01:~/my-cluster# 

2、准备一块硬盘:/dev/sdb1并初始化osd

ceph-deploy osd prepare ceph02:/dev/sdb1

3、激活集群的所有osd

ceph-deploy osd activate  ceph01:/dev/sdb1 ceph02:/dev/sdb1

 三、纯手动方式新增一个OSD

1.在osd4创建挂载目录及放置配置文件的目录
 
    ssh 192.168.0.110 (这里是从mon主机ssh到osd4主机)
 
    mkdir /ceph/osd.4 
 
    mkdir /etc/ceph  
 
2.在osd4上格式化ext4的sda3分区,挂载分区。
 
    mkfs.ext4 /dev/sda3
 
    mount -o user_xattr /dev/sda3 /ceph/osd.4
 
3.将mon主机的id_dsa.pub拷至osd4主机,实现免密码访问
 
    scp /root/.ssh/id_dsa.pub 192.168.0.110:/root/.ssh/id_dsa.pub102
 
    ssh 192.168.0.110
 
    cd /root/.ssh
 
    cat id_dsa.pub102 > authorized_keys
 
4.在mon主机上修改ceph.conf配置文件
 
    vi /etc/ceph/ceph.conf
 
    [osd.4]
 
       host = osd4
 
       deves = /dev/sda3
 
5.复制修改后的ceph.conf文件至每一个MDS和OSD节点并复制一份至/usrlocal/etc/ceph/
 
    scp /etc/ceph/ceph.conf 192.168.0.110:/etc/ceph/  (这里只写这一个,不要忘记同步其他节点的配置文件)
 
6.创建osd
 
    ceph osd create osd.4
 
7.加载OSD数据目录
 
    ssh 192.168.0.110
 
    ceph-osd -i osd.4 --mkfs --mkkey
 
下面更新crushmap后,新增的osd就可以存放数据了。
 
8.创建当前正在使用的crushmap
 
    ceph osd getcrushmap -o map   (map 是自定义的一个名称,下面需要用到这个名称)
 
9.反编译后导出crushmap
 
    crushtool -d map -o /root/map.txt (map.txt是导出的文件名)
 
10.修改map.txt
 
vi map.txt
 
#devices
device 0 osd.0
device 1 osd.1
device 2 osd.2
device 3 osd.3
device 4 osd.4
    
host osd4 {
        id -1
        alg straw
        hash 0
        item osd.4 weight 1.00
}
 
10.编译crushmap
 
    cephtool -c /root/map.txt -o map
 
11.将编译好的map再次导入
 
    ceph osd crushmap -i map
 
12.启动osd.4
 
    ssh 102.168.0.110
 
    /etc/init.d/ceph start osd.4或
   /etc/init.d/ceph start osd.4或

  systemctl start ceph-osd@4

 
13.查看osd.4是否正常启动
 
    ceph -s
原文地址:https://www.cnblogs.com/boshen-hzb/p/6739620.html