nova resize 먹통시 리셋하기 & 이전되는 서버 찾기

리눅스/OpenStack|2018. 1. 9. 08:27
반응형

[상태 리셋 - error 로 변경]

# nova reset-state 81ac35c5-b602-4525-aef6-40c7ba611cf8

 Reset state for server 81ac35c5-b602-4525-aef6-40c7ba611cf8 succeeded; new state is error



[상태 리셋 - active 로 변경]

# nova reset-state --active 81ac35c5-b602-4525-aef6-40c7ba611cf8

Reset state for server 81ac35c5-b602-4525-aef6-40c7ba611cf8 succeeded; new state is active



그리고 어느 서버로 이동 되는지는 시간이 오래 걸릴경우 확인이 되지 않으니 아래와 같이

컨트롤러 서버에서 명령하여 똑같은 VM ID 가 존재하는 컴퓨트 노드를 검색합니다.


# for i in hl-30-{11..254};do echo $i;ssh -l root -p 2020 $i ls -al /var/lib/nova/instances/e5e3f500*;done

반응형

댓글()

aggregate 에 ratio 설정하기 (CPU 배수만큼 생성)

리눅스/OpenStack|2017. 12. 15. 15:32
반응형

그룹 확인

# nova aggregate-list


공유그룹 상세히 보기

# nova aggregate-details 1


기존 ratio 삭제

# nova aggregate-set-metadata share-zone1 cpu_allocation_ratio


새로운 ratio 값 설정

# nova aggregate-set-metadata share-zone1 cpu_allocation_ratio=6.0

반응형

댓글()

DRBD 풀렸을때 재연결 방법

리눅스/OpenStack|2017. 11. 20. 09:47
반응형

1) 슬레이브 서버에서


이중화 안된것 확인

root@mongo-235-57:~# drbd-overview 

 0:r0/0  StandAlone Secondary/Unknown UpToDate/Outdated 


동기화 진행
root@mongo-235-57:~# drbdadm -- --discard-my-data connect all

진행과정 확인 => 잘 안되었음. 그러나 StandAlone 에서 WFConnection 으로 바뀐것 확인

root@mongo-235-57:~# drbd-overview 

 0:r0/0  WFConnection Secondary/Unknown UpToDate/Outdated 



2) 마스터 서버에서


이중화 안된것 확인

root@mongo-235-56:~# drbd-overview 

 0:r0/0  StandAlone Primary/Unknown UpToDate/Outdated /var/lib/mongodb ext4 138G 8.8G 122G 7% 


마스터 서버에서 동기화 진행 (간결한 명령어)

root@mongo-235-56:~# drbdadm connect all


동기화 진행 확인

root@mongo-235-56:~# drbd-overview 

 0:r0/0  SyncSource Primary/Secondary UpToDate/Inconsistent /var/lib/mongodb ext4 138G 8.8G 122G 7% 

[=>..................] sync'ed: 10.2% (1120296/1243224)K        


동기화 완료 확인

root@mongo-235-56:~# drbd-overview 

 0:r0/0  Connected Primary/Secondary UpToDate/UpToDate /var/lib/mongodb ext4 138G 8.8G 122G 7% 

반응형

댓글()

DRBD 마스터 및 슬레이브 서버 변경

리눅스/OpenStack|2017. 11. 15. 09:13
반응형

마스터 서버나 슬레이브 서버 어디에서 명령을 내려도 상관이 없습니다.


[상황]

227.2 번 서버가 마스터인 상황에서 227.4번으로 마스터를 넘겨주기


crm node standby con-227-2    // con-217-2 를 스탠바이 서버로 변경 (끊어진 상태로 됨)

crm node online con-227-2       // con-217-2 를 온라인 처리 (그래야 다시 227-4 와 connected 처리 됨)


반응형

댓글()

image 권한 및 공개 범위 수정

리눅스/OpenStack|2017. 11. 3. 11:43
반응형

# nova image-list |grep sysdocu

| 8a8345c7-58b9-4648-88d6-6ed6479d8a4e | sysdocu_17427_2935                 | ACTIVE |                                      |

| 2f75e2ae-a0f0-4df9-af8d-00f7cc484a9f | sysdocu_18978_2909                 | ACTIVE | 88d55ff4-83f8-463f-be1a-ee661afd4bfc |

| 8207ca7d-58dc-48ec-8df0-ea9bee2e47bc | sysdocu_19326_2984                 | ACTIVE | cb42cfc4-70d2-4a75-bfce-f3439e6a124f |

| 81698b62-3987-48dc-adee-b51397751402 | sysdocu_19458_2983                 | ACTIVE | 645c4cbf-6e5e-4bd5-8f29-52291e6584ce |



# glance image-show 8a8345c7-58b9-4648-88d6-6ed6479d8a4e
+------------------+----------------------------------------------------------------------------------+
| Property         | Value                                                                            |
+------------------+----------------------------------------------------------------------------------+
| checksum         | a3bfe0a5b505b45f13013933f1014898                                                 |
| container_format | bare                                                                             |
| created_at       | 2017-10-24T21:56:13Z                                                             |
| direct_url       | rbd://c2ec84dc-                                                                  |
|                  | 7cb3-4208-be66-27ebaa07bddc/images/8a8345c7-58b9-4648-88d6-6ed6479d8a4e/snap     |
| disk_format      | qcow2                                                                            |
| id               | 8a8345c7-58b9-4648-88d6-6ed6479d8a4e                                             |
| min_disk         | 0                                                                                |
| min_ram          | 0                                                                                |
| name             | sysdocu_17427_2935                                                                  |
| owner            | 33cb609941d342bc8c92a881f68cb2f5                                                 |
| protected        | False                                                                            |
| size             | 3110731776                                                                       |
| status           | active                                                                           |
| tags             | []                                                                               |
| updated_at       | 2017-10-24T21:57:21Z                                                             |
| virtual_size     | None                                                                             |
| visibility       | public                                                                           |
+------------------+----------------------------------------------------------------------------------+


root@con-217-4:~# glance image-show 2f75e2ae-a0f0-4df9-af8d-00f7cc484a9f
+------------------+----------------------------------------------------------------------------------+
| Property         | Value                                                                            |
+------------------+----------------------------------------------------------------------------------+
| base_image_ref   | e15268cd-cd66-4ca3-a976-d2b66ac3fb36                                             |
| checksum         | 1fb52c19a854d5aeba2983b00ec53bd1                                                 |
| clean_attempts   | 1                                                                                |
| container_format | bare                                                                             |
| created_at       | 2017-10-16T14:12:20Z                                                             |
| direct_url       | rbd://c2ec84dc-7cb3-4208-be66-27ebaa07bddc/images/9f75e2ae-a0f0-4df9-af8d-       |
|                  | 00f7cc484a9f/snap                                                                |
| disk_format      | qcow2                                                                            |
| id               | 2f75e2ae-a0f0-4df9-af8d-00f7cc484a9f                                             |
| image_location   | snapshot                                                                         |
| image_state      | available                                                                        |
| image_type       | snapshot                                                                         |
| instance_uuid    | 88d55ff4-83f8-463f-be1a-ee661afd4bfc                                             |
| kernel_id        | None                                                                             |
| min_disk         | 25                                                                               |
| min_ram          | 0                                                                                |
| name             | sysdocu_18978_2909                                                                  |
| owner            | 23723a296a8e42b487a855bfc68d5d40                                                 |
| owner_id         | 23723a296a8e42b487a855bfc68d5d40                                                 |
| protected        | False                                                                            |
| ramdisk_id       | None                                                                             |
| size             | 2624454656                                                                       |
| status           | active                                                                           |
| tags             | []                                                                               |
| updated_at       | 2017-10-16T14:14:28Z                                                             |
| user_id          | b7ed902298f04f7ab94e1f5aa9d3f704                                                 |
| virtual_size     | None                                                                             |
| visibility       | private                                                                          |
+------------------+----------------------------------------------------------------------------------+


ID값으로 오너 확인

# openstack project list |grep 33cb609941d342bc8c92a881f68cb2f5

| 33cb609941d342bc8c92a881f68cb2f5 | admin                                                            |



이미지의 오너 및 공개 범위 변경

# glance image-update --owner=23723a296a8e42b487a855bfc68d5d40 8a8345c7-58b9-4648-88d6-6ed6479d8a4e

# glance image-update --visibility=private 8a8345c7-58b9-4648-88d6-6ed6479d8a4e

+------------------+----------------------------------------------------------------------------------+

| Property         | Value                                                                            |

+------------------+----------------------------------------------------------------------------------+

| checksum         | a3bfe0a5b505b45f13013933f1014898                                                 |

| container_format | bare                                                                             |

| created_at       | 2017-10-24T21:56:13Z                                                             |

| direct_url       | rbd://c2ec84dc-                                                                  |

|                  | 7cb3-4208-be66-27ebaa07bddc/images/8a8345c7-58b9-4648-88d6-6ed6479d8a4e/snap     |

| disk_format      | qcow2                                                                            |

| id               | 8a8345c7-58b9-4648-88d6-6ed6479d8a4e                                             |

| min_disk         | 0                                                                                |

| min_ram          | 0                                                                                |

| name             | sysdocu_17427_2935                                                                  |

| owner            | 23723a296a8e42b487a855bfc68d5d40                                                 |

| protected        | False                                                                            |

| size             | 3110731776                                                                       |

| status           | active                                                                           |

| tags             | []                                                                               |

| updated_at       | 2017-11-03T02:38:45Z                                                             |

| virtual_size     | None                                                                             |

| visibility       | private                                                                          |

+------------------+----------------------------------------------------------------------------------+



반응형

댓글()

[장애] service nova-consoleauth 호스트 con-217-2 문제 발생.!

리눅스/OpenStack|2017. 10. 26. 09:30
반응형

컨트롤 서버의 nova-consoleauth 데몬이 확인되지 않는다는 메세지가 올 경우..


> service nova-consoleauth 호스트 con-217-2 문제 발생.!      « 이런거


마스터 서버에서만 구동을 해주면 되요.

# service nova-consoleauth restart


슬레이브 서버에서는 nova service-list |grep nova-consoleauth 로 ID 값(번호)를 확인 후

nova service-delete [ID번호] 로 명령을 내리면 모니터링에서 제외됩니다.




—--- 참고로 두대의 컨트롤러중 어느게 마스터인지 모를 경우 —---

# drbd-overview 명령을 내렸을때 파티션 정보 및 사용량이 한 줄 나오면 마스터 입니다.


반응형

댓글()

원하는 만큼 vm 을 한번에 생성하기 (nova boot --max-count)

리눅스/OpenStack|2017. 10. 19. 14:07
반응형

--max-count 만큼 동시에 인스턴스 생성


example)

# nova boot --flavor SYSDOCU.SINGLE --image centos6 --nic net-id=282f0dcf-7054-40aa-9118-db1aea9db9d0 lkh1 --max-count=3

반응형

댓글()

heal instance info cache interval

리눅스/OpenStack|2017. 9. 25. 13:38
반응형

1분단위로 인스턴스 네트워크 상태체크 

# tail -f /var/log/neutron/neutron-server.log 

2017-09-25 10:19:53.822 24829 INFO neutron.wsgi [req-448162bd-dc52-45d1-b2c7-8bb9fe59bb1f 1c3b76bac514414ba0c7ac2233b5ebea 5440c3eab4604978b676ffe6f748a96e - - -] 172.16.217.31 - - [25/Sep/2017 10:19:53] "GET /v2.0/ports.json?tenant_id=12c23eb3174d44e391389c0e69e2a4b8&device_id=3591e5e8-cc80-4e7f-a49f-e915e86faf95 HTTP/1.1" 200 1073 3.262539

2017-09-25 10:19:54.136 24829 INFO neutron.wsgi [req-f3316317-df05-4b2f-b4bb-8598d82ba894 1c3b76bac514414ba0c7ac2233b5ebea 5440c3eab4604978b676ffe6f748a96e - - -] 172.16.217.31 - - [25/Sep/2017 10:19:54] "GET /v2.0/networks.json?id=9a6bafb9-aae2-46b8-b72c-26abd4ea41ec HTTP/1.1" 200 857 0.309153

2017-09-25 10:19:54.400 24829 INFO neutron.wsgi [req-494bde0e-8b4e-4466-877a-49c616c276a7 1c3b76bac514414ba0c7ac2233b5ebea 5440c3eab4604978b676ffe6f748a96e - - -] 172.16.217.31 - - [25/Sep/2017 10:19:54] "GET /v2.0/floatingips.json?fixed_ip_address=172.16.0.13&port_id=ef99e958-676d-420f-8715-98040783e659 HTTP/1.1" 200 609 0.260283

2017-09-25 10:19:54.737 24829 INFO neutron.wsgi [req-007a921b-385e-4fd5-80fb-51288acce0ee 1c3b76bac514414ba0c7ac2233b5ebea 5440c3eab4604978b676ffe6f748a96e - - -] 172.16.217.31 - - [25/Sep/2017 10:19:54] "GET /v2.0/subnets.json?id=67bbebe9-0ce3-4b49-b36b-43495101763d HTTP/1.1" 200 785 0.332609

2017-09-25 10:19:58.015 24829 INFO neutron.wsgi [req-9299fcb2-9323-4cdf-bf5f-20db2a4a1000 1c3b76bac514414ba0c7ac2233b5ebea 5440c3eab4604978b676ffe6f748a96e - - -] 172.16.217.31 - - [25/Sep/2017 10:19:58] "GET /v2.0/ports.json?network_id=9a6bafb9-aae2-46b8-b72c-26abd4ea41ec&device_owner=network%3Adhcp HTTP/1.1" 200 1076 3.274809



기본 interval 수정 (60 --> 120)

ComputeNode

# vim /usr/lib/python2.7/dist-packages/nova/compute/manager.py

165     cfg.IntOpt("heal_instance_info_cache_interval",

166                default=120,



# cp /usr/lib/python2.7/dist-packages/nova/compute/manager.py /usr/lib/python2.7/dist-packages/nova/compute/manager.py_20170925

# sed -i "166s/default=60/default=120/g" /usr/lib/python2.7/dist-packages/nova/compute/manager.py

# /etc/init.d/nova-compute restart 



[출처] https://chonnom.com/bbs/board.php?bo_table=OpenStack&wr_id=544&page=0&sca=&sfl=wr_subject%7C%7Cwr_content&stx=&sst=&sod=&spt=0&page=0

반응형

댓글()

aggregate 에서 컴퓨트 노드 추가, 제거하기

리눅스/OpenStack|2017. 9. 20. 14:41
반응형

# nova aggregate-list 

+----+----------------------+-------------------+ 

| Id | Name                 | Availability Zone | 

+----+----------------------+-------------------+ 

| 1  | share-zone1          | vCore             | 

| 3  | nonshare-zone1       | rCore             | 

| 4  | nonshare-8core-zone1 | rCore-8           | 

| 5  | sysdocu-group            | sysdocu               |

+----+----------------------+-------------------+ 


예제에서 nonshare 는 rCore 를 말합니다.

현재는 share, rCore, rCore(8core전용) 세 그룹이 있습니다.

각 그룹마다 어떤 컴퓨트 노드들이 포함되어있는지 확인하는 명령은 아래와 같습니다.


# nova aggregate-details 5    // ID 값 5번 (sysdocu) 에 포함된 리스트 출력


이제 아래와 같이 sysdocu 그룹에서 컴퓨트 노드를 빼고 rCore 그룹에 hl-217-50 컴퓨트 노드를 추가합니다.


# nova aggregate-remove-host 5 hl-217-50


# nova aggregate-add-host 3 hl-217-50


rCore 그룹에 포함되었으며 개통 가능한 상태인지 확인하는 방법은 아래와 같습니다.


# nova service-list |grep hl-217-50

| 216 | nova-compute     | hl-217-50  | rCore      | disabled  | up    | 2017-09-20T05:39:42.000000 | -               |


# nova service-enable hl-217-50 nova-compute    // 활성화 시키기

# nova service-disable hl-217-50 nova-compute    // 비활성화 시키기

반응형

댓글()

컴퓨트 노드 변경 (마이그레이션 migration) 하기

리눅스/OpenStack|2017. 9. 20. 14:37
반응형

VM 을 다른 컴퓨트 노드로 옮기는 방법입니다.


1. VM 이 위치한 컴퓨트 노드와 flavor 확인

# nova show cb8aa272-736d-43f4-abf0-596da4664234 |grep -E 'hyper|flavor'

| OS-EXT-SRV-ATTR:hypervisor_hostname  | hl-217-50                                                  |

| flavor                               | rCore.P1 (95d11601-728d-43b5-804d-4612673a30eb)            |


2. flavor 변경 (resize)

# nova resize cb8aa272-736d-43f4-abf0-596da4664234 vCore.V1


* 참고 flavor list 보기

# nova flavor-list


3. 확인

# nova show cb8aa272-736d-43f4-abf0-596da4664234 |grep -E 'hyper|flavor'

| OS-EXT-SRV-ATTR:hypervisor_hostname  | hl-217-51                                                  |

| flavor                               | vCore.V1 (e4b1a4be-9f72-42ce-b1d3-67e4546ad450)            |


조금 기다리면 컴퓨트 노드와 flavor 가 바뀐것이 확인 됩니다.

혹시 flavor 만 변경되고 컴퓨트 노드가 변경 안된다면 아래와 같은 명령으로 대체해서 테스트가 가능합니다.


(참고)

# nova migrate  cb8aa272-736d-43f4-abf0-596da4664234    // 껐다 이동후 켜기

# nova live-migration  cb8aa272-736d-43f4-abf0-596da4664234 hl-217-51    // 운영중 이동 & 컴퓨트 노드 지정


nova live-migration 이 안될 경우

nova live-migration --block-migrate 옵션을 추가하여 실행하면 됩니다.

그리고 잘 실행이 됐는지 nova show [VM ID] |grep status 로 확인해봅니다.

반응형

댓글()

블록 스토리지 생성 (ceph) 및 인스턴스에 연결하기

리눅스/OpenStack|2017. 7. 20. 16:38
반응형

볼륨 생성

  1. 다음 단계를 관리자가 아닌 프로젝트로 수행하기 위해 demo credential을 소스로 가져옵니다:

    $ source demo-openrc.sh
    
  2. 1 GB 볼륨을 생성합니다:

    $ cinder create --display-name volume1 1
    +---------------------------------------+--------------------------------------+
    |                Property               |                Value                 |
    +---------------------------------------+--------------------------------------+
    |              attachments              |                  []                  |
    |           availability_zone           |                 nova                 |
    |                bootable               |                false                 |
    |          consistencygroup_id          |                 None                 |
    |               created_at              |      2015-10-12T16:02:29.000000      |
    |              description              |                 None                 |
    |               encrypted               |                False                 |
    |                   id                  | 09e3743e-192a-4ada-b8ee-d35352fa65c4 |
    |                metadata               |                  {}                  |
    |              multiattach              |                False                 |
    |                  name                 |               volume1                |
    |      os-vol-tenant-attr:tenant_id     |   ed0b60bf607743088218b0a533d5943f   |
    |   os-volume-replication:driver_data   |                 None                 |
    | os-volume-replication:extended_status |                 None                 |
    |           replication_status          |               disabled               |
    |                  size                 |                  1                   |
    |              snapshot_id              |                 None                 |
    |              source_volid             |                 None                 |
    |                 status                |               creating               |
    |                user_id                |   58126687cbcc4888bfa9ab73a2256f27   |
    |              volume_type              |                 None                 |
    +---------------------------------------+--------------------------------------+
    
  3. 잠시 후, 볼륨 상태가 creating 에서 available 로 바뀌어야 합니다:

    $ cinder list
    +--------------------------------------+-----------+---------+------+-------------+----------+-------------+-------------+
    |                  ID                  |   Status  |   Name  | Size | Volume Type | Bootable | Multiattach | Attached to |
    +--------------------------------------+-----------+---------+------+-------------+----------+-------------+-------------+
    | 09e3743e-192a-4ada-b8ee-d35352fa65c4 | available | volume1 |  1   |      -      |  false   |    False    |             |
    +--------------------------------------+-----------+---------+------+-------------+----------+-------------+-------------+
    

볼륨을 인스턴스에 연결합니다

  1. 볼륨을 인스턴스에 연결합니다:

    $ nova volume-attach INSTANCE_NAME VOLUME_ID
    

    INSTANCE_NAME 을 인스턴스 이름으로, 그리고 VOLUME_ID 를 연결하고자 하는 볼륨에 대한 ID로 변경합니다.

    예시

    09e3743e-192a-4ada-b8ee-d35352fa65c4 볼륨을 public-instance 인스턴스에 연결합니다:

    $ nova volume-attach public-instance 09e3743e-192a-4ada-b8ee-d35352fa65c4
    +----------+--------------------------------------+
    | Property | Value                                |
    +----------+--------------------------------------+
    | device   | /dev/vdb                             |
    | id       | 158bea89-07db-4ac2-8115-66c0d6a4bb48 |
    | serverId | 181c52ba-aebc-4c32-a97d-2e8e82e4eaaf |
    | volumeId | 09e3743e-192a-4ada-b8ee-d35352fa65c4 |
    +----------+--------------------------------------+
    
  2. 볼륨 목록:

    $ nova volume-list
    +--------------------------------------+-----------+--------------+------+-------------+--------------------------------------+
    | ID                                   | Status    | Display Name | Size | Volume Type | Attached to                          |
    +--------------------------------------+-----------+--------------+------+-------------+--------------------------------------+
    | 09e3743e-192a-4ada-b8ee-d35352fa65c4 | in-use    |              | 1    | -           | 181c52ba-aebc-4c32-a97d-2e8e82e4eaaf |
    +--------------------------------------+-----------+--------------+------+-------------+--------------------------------------+
    
  3. SSH를 사용하여 인스턴스에 액세스하고 /dev/vdb 블럭 스토리지 장치에 대한 볼륨이 있는지를 검증하기 위해 fdisk 명령어를 사용합니다:

     $ sudo fdisk -l
    
     Disk /dev/vda: 1073 MB, 1073741824 bytes
     255 heads, 63 sectors/track, 130 cylinders, total 2097152 sectors
     Units = sectors of 1 * 512 = 512 bytes
     Sector size (logical/physical): 512 bytes / 512 bytes
     I/O size (minimum/optimal): 512 bytes / 512 bytes
     Disk identifier: 0x00000000
    
        Device Boot      Start         End      Blocks   Id  System
    /dev/vda1   *       16065     2088449     1036192+  83  Linux
    
     Disk /dev/vdb: 1073 MB, 1073741824 bytes
     16 heads, 63 sectors/track, 2080 cylinders, total 2097152 sectors
     Units = sectors of 1 * 512 = 512 bytes
     Sector size (logical/physical): 512 bytes / 512 bytes
     I/O size (minimum/optimal): 512 bytes / 512 bytes
     Disk identifier: 0x00000000
    
     Disk /dev/vdb doesn't contain a valid partition table
    

     
    주석

    장치에 파일 시스템을 생성하고 해당 볼륨을 사용하기 위해 마운트해야 합니다.


[출처] https://docs.openstack.org/liberty/ko_KR/install-guide-rdo/launch-instance-cinder.html


반응형

댓글()