Ceph osd node 추가 및 제거
디스크 용량이 부족하여 osd 를 추가로 연결하고자 할때 아래와 같은 명령을 통해 사용이 가능합니다.
(추가 전)
$ ceph -s |grep osdmap
sdmap e66: 2 osds: 2 up, 2 in; 32 remapped pgs
$ ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.00980 root default
-2 0.00980 host ceph
0 0.00490 osd.0 up 1.00000 1.00000
1 0.00490 osd.1 up 1.00000 1.00000
1. 추가
(ceph node 에서)
# vi /etc/hosts
192.168.56.15 osd-3 // 추가하려는 osd 의 호스트 추가
# su - cephuser
$ cd ceph
$ ssh-copy-id cephuser@osd-3 // osd-3 에 cephuser 계정이 있다는 전제하에 진행합니다.
$ ceph-deploy install osd-3
$ ceph-deploy admin osd-3
$ ceph-deploy disk zap osd-3:sdb
$ ceph-deploy osd prepare osd-3:sdb
$ ceph-deploy osd activate osd-3:sdb1
(추가 후)
$ ceph -s |grep osdmap
osdmap e71: 3 osds: 3 up, 3 in; 74 remapped pgs
2. 제거
순서를 반드시 지켜야 정상적으로 제거할 수 있습니다.
$ ceph osd out osd.2 // REWEIGHT 값을 0 으로 변경
marked out osd.2.
$ ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.00980 root default
-2 0.00980 host ceph
0 0.00490 osd.0 up 1.00000 1.00000
1 0.00490 osd.1 up 1.00000 1.00000
2 0 osd.2 down 0 1.00000
$ ceph osd rm osd.2 // osd.2 서버를 사용 리스트에서 제외
removed osd.2
$ ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.00980 root default
-2 0.00980 host ceph
0 0.00490 osd.0 up 1.00000 1.00000
1 0.00490 osd.1 up 1.00000 1.00000
$ ceph osd crush remove osd.2
removed item id 2 name 'osd.2' from crush map
'리눅스 > Ceph' 카테고리의 다른 글
Ceph 가상 계정 생성후 pool 할당 해주기 (0) | 2016.08.02 |
---|---|
Ceph Document URL (0) | 2016.07.26 |
[Ceph 에러] rbd: sysfs write failed rbd: map failed: (6) No such device or address (0) | 2016.07.19 |
Ceph pool 생성, client 마운트, 볼륨 크기 조절, pool 삭제, 이름변경, 복제, image 삭제 (0) | 2016.07.19 |
Ceph 10.2.0 설치 on Ubuntu (jewel 버전) (0) | 2016.07.19 |