[Nutanix] Acropolis File Services(AFS)에 대해서-1

 

AFS(Acropolis File Services)는 AOS 5.0에서 GA된 스케일-아웃형 화일 서버 서비스입니다. 이 AFS를 이용하면 간단히 그리고 강건한 화일 서버를 구축할 수 있습니다.

 

AFS는 3대 이상의 FSVM(File Server Services VM)을 전개하여 클러스터를 구성하므로써 이용할 수 있습니다. 데이터는 전개한 FSVM 사이에서 분산 저장됩니다. 현시점에서의 최신 버전은 AFS 2.2으로 지원하고 있는 프로토콜은 SMB 2.0/2.1/3.0 이며 AFS를 이용할 수 있는 하이퍼바이저는 AHV와 ESXi입니다.

 

 

앞으로 몇차례에 걸쳐 AFS를 구성하는 방법에 대해서 소개를 하고자할까 합니다.

 

— AFS의 도입 —

 

우선 AFS를 이용하기위한 조건을 소개하겠습니다.

    • AFS를 이용하기위해서는 AOS의 Ultimate 에디션이나 별도로 AFS의 라이센스가 필요합니다.
    • Active Directory 도메인 환경이 필요합니다.
    • 2 이상의 네트워크를 이용할 수 있어야 됩니다.

 

그럼, 시작해보겠습니다.

 

① 우선 AFS는 인증환경으로 Active Directory 도메인 인증을 이용합니다. 따라서 AFS를 구성하기 전에 Active Directory 도메인을 Nutanix 환경에 추가해줄 필요가 있습니다. Active Directory 도메인의 추가에 대해서는 과거의 포스팅을 확인하세요.

 

② AD 도메인을 추가하였다면 메인 메뉴로부터 [File Server]를 클릭합니다.

 

③ 화면 왼쪽 상단의 [+ File Server]를 클릭합니다. AFS 구성에 필요한 사전 체크가 자동적으로 이루어집니다. AFS 이미지의 업로드, AFS의 데이터 서비스용 IP 어드레스, 2 이상의 이용가능한 네트워크의 유무가 자동적으로 이루어집니다. AFS의 데이터 서비스용 IP 어드레스는 [Network Configuration]에서 작성한 User VM Interfaces로부터 데이터 서비스로써 이용할 수 있는 네트워크에 ”IP 어드레스 풀”을 정의해두면 됩니다.

 

④ [Basic] 탭으로부터 FSVM의 사이즈를 정의합니다.

    • NAME:작성하는 FSVM 이름
    • FILE SERVER STORAGE:작성하는 FSVM 단위의 스토리지 용량
    • PERFORMANCE CONFIGURATION:전개하는 FSVM의 수, CPU, 메모리 용량

※ 전개하는 FSVM의 수는  디폴트 3대입니다. 이 FSVM는 최대 16대까지 전개할 수 있습니다. 메모리는 FSVM에 접속하는 동시접속 세션수에 따라 달라집니다.

 동시접속 세션수  메모리 사이즈
 250 12GB
 500 16GB
 1,000 24GB
 1,500 32GB
 2,000 40GB
 2,500 60GB
 4,000 96GB

⑤ [Client Network] 탭에서는 이용자가 FSVM에 접근할 수 있는 네트워크를 구성합니다. 사전  체크 항콕의 하나였던 ”데이터 서비스용 IP 어드레스”입니다. 랩환경에서는 ”VLAN-21″이란 네트워크에 ”IP 어드레스 풀”로 192.168.21.150-192.168.21.160까지 정의를 해놓았기 때문에 자동적으로 할당되어집니다.  이외에는 DNS와 NTP를 설정후 [Next]를 클릭합니다.

 

⑥ 이번에는 내부 네트워크의 구성입니다. 내부 네트워크는 FSVM와 CVM 사이의 통신에 이용됩니다.

    • VLAN:내부 통신용 네트워크. 기본적으로는 CVM의 네트워크로 문제없습니다.
    • SUBNET:내부 통신용 네트워크의 서브넷마스크
    • GATEWAY:내부 통신용 네트워크의 게이트웨이
    • IP ADDRESS:FSVM용 IP 어드레스. 여기는 수동으로 IP 어드레스를 설정합니다만, 처음의 IP 어드레스를 지정하면 나머지는 자동적으로 할당됩니다.

 

⑦ [Join AD Domain]에서는 Activev Directory 도메인을 선택하여, 위임 정보를 입력합니다.

 

⑧ [Summary]탭에서는 Protection Domain 이름을 지정합니다. AFS를 구성하면 자동적으로 Protection Domain이 작성되어집니다. 모든 설정 내용을 확인하고 문제가 없다면 [Create]를 클릭하여 AFS의 구성을 시작합니다.

 

⑨ FSVM가 전개되어 AFS의 구성이 끝나면 [File Server] 리스트에 작성한 화일서버가 표시됩니다.

 

⑩ [Storage] 메뉴에서는 AFS용 컨테이너가 만들어진 것을 확인할 수 있습니다.

 

⑪ DNS 서버에도 FSVM, AFS의 레코드가 등록되어있습니다.

⑫ [Active Directory 사용자및 컴퓨터]에서도 컴퓨터 계정이 등록되어있는것을 확인할 수  있습니다.

 

여기까지가 AFS의 도입에 대한 방법의 소개였습니다.

 

다음에는 도입한 화일 서버에 공유 폴더나 쿼터를 설정하는 방법에 대해서 소개를 하겠습니다.

 

#acropolis-file-services, #afs, #ahv, #aos, #cvm, #esxi, #%eb%8f%84%ec%9e%85, #fsvm, #nutanix

[Nutanix] Remote Site의 삭제가 않됨

얼마전의 경험입니다.

Nutanix AOS 5.5의 환경에서 작성한 Remote Site를 삭제하려고 했더니 다음과 같은 메시지가 표시되며 삭제가 않되더군요.

 

Deletion of the remote site is currently not supported from Prism. Contact Nutanix support for further assistance.

 

 

Prism에서 삭제를 실행할 경우는 위의 그림처럼 어떻게 손을 쓸 방법이 없었기에 ncli의 remote-site remove 명령어를 실행하여 삭제를 시도해봤습니다만 동일하게 않되더군요.

ncli> remote-site remove name=리모트 사이트명

Error: Deletion of the remote site is currently not supported from Prism. Contact Nutanix support for further assistance.

 

AOS 5.1에서는 전혀 문제없이 Remote Site가 삭제된 것을 보아 AOS 5.5 고유의 문제인거 같았습니다. 결국 Nutanix에 지원을 의뢰, Remote Site를 할 수 있었습니다. 삭제한 방법은…

ncli> rs rm name=리모트 사이트명 force=true
Remote site 리모트 사이트명 has been successfully marked for deletion

 

(; ̄Д ̄) 이런… force 옵션을 지정했으면 지원을 요청하지 않아도 되었었네요…  Nutanix 지원팀에 연락을 한게 정답이었습니다. Remote-site remove 명령어로 리모트 사이트를 삭제한  뒤에도 Firewall 구성을 수정할 필요가 있었던 것 같으니 말이죠… 🙂

여담입니다만 Nutanix 지원팀의 신속한 대응은 소문대로였습니다. 문제가 생겨서 곤란할 경우는 정말 안심이 되죠… 단지… 이번에는 WebEX로 대응중임에도 불구하고 “앞으로 7분후 근무시간이 끝나니까 다른 엔지니어에게 인계를 하겠다”고 말할 때는 어처구니가 없더군요. 🙂 음… 하지만 그게 글로벌 스탠더드이겠죠?

 

#aos-5-5, #%eb%b2%84%ea%b7%b8, #%ec%a7%80%ec%9b%90, #nutanix, #remote-site

[VMware] vSAN 팁 몇가지

이미 10,000사 이상에서 도입되었으며 기세가 점점 거대해지는 vSAN입니다만 고객과 얘기를 해보면 의외로 vSAN에 대한 정보가 부족한 것 같습니다. 왜냐하면 vSAN이란 솔루션의 특징은 알고 있어도 실제로 도입할 경우나 도입후 운용해나갈 경우 주의해야될 점들에 대해서는 잘모르는것 같았기 때문입니다.

 

따라서 도입시나 운용시 조금은 주의가 필요한 내용을 정리해 봤습니다.(이미 알려진 내용일지 모르겠습니다)

 

● 하나의 RAID Controller에서는 VMFS과 vSAN FS을 구성할 수 없습니다.

아마 초기 버전의 vSAN 구성에서 있을 수 있는 경우일지 모르겠습니다만, 최근에도 지원 의뢰가 있는거 같습니다. 하나의 RAID Controller상에서 VMFS과 vSAN FS을 구성하는 것은 지원을 받을 수 없습니다. 하나의 RAID Controller에 ESXi용 RAID 1과 vSAN용 non-RAID를 구성하는 것은 피해야 됩니다. 

vSAN을 구성할 경우 ESXi의 부트 디바이스로 내장 SD카드나 SATADOM 같은 플래시 디바이스를 이용하는 것이 일반적이라고 할 수 있습니다만 스크래치 파티션을 로컬 데이터스토어에 보존하기위해 하드 디스크에 ESXi를 설치하고자 할 때는, ESXi용으로 RAID Controller를 준비, vSAN용 RAID Controller를 추가로 준비해줘야 됩니다.


● 부트 디바이스로 내장 SD 카드를 이용할 경우, 스크래치 파티션을 고려해야 됩니다.

내장 USB 메모리나 SD 카드에 ESX를 설치할 경우 로그는 RAM 디스크상에 보존됩니다. 단지 RAM 디스크상에 보존되기 때문에 ESXi 호스트를 재기동하면 로그는 사라지고 이로인해 장해의 원인 규명이 힘들어지게 됩니다.

 

이를막기위해서는 스크래치 파티션을 구성할 필요가 있습니다만, vSAN에서는 ① ESXi 호스트의 로컬 데이터스토어를 이용하든지 ② NFS의 디렉토리를 호스트별로 준비하는 방법뿐입니다. 단지 ①의 경우는 위의 팁에서 소개를 했듯이 RAID Controller를 추가로 준비해야되죠. ②역시 NFS 디렉토리를 준비해줘야 됩니다.

 

지금까지의 경험상, 스크래치 파티션 때문에 ①이나 ②를 준비하는 사례는 거의 없었습니다. 때문에  Remote Syslog와 Network Dump를 구성하는 방법이 가장 무난할지 모르겠습니다. 단지 이것도 모든 로그를 보존할 수 있는 것이 아니기 때문에 vSAN을 도입할 경우는 돈을 들여 스크래치 파티션을 준비하든지 syslog 만을 준비하여 최소한의 로그라도 보존을 하든지를 고려해야될 필요가 있습니다. 개인적으로는 vRealize Log Insight에 로그를 전송하는 것을 추천하고 싶네요. 

 


● vsanDatastore의 미사용영역을 항상 30% 확보하도록 합니다.

운용시작후 vsanDatastore의 사용영역이 전체영역의 80%를 넘지않도록 주의하는 것은 널리 알려져 있습니다. (SIer에 따라서는 70%를 이용가능한 최대영역으로 안내를 하는 경우도 있죠)

이와 비슷한 내용일지 모르겠습니다만 vsanDatastore의 미사용영역은 항상 30% 정도 확보해두는 것을 추천합니다. FTT가 다른 복수의 스토리지 정책을 이용는 환경에서 스토리지 정책을 변경할 경우, 일시적으로 변경전의 스토리지 정책과 변경하는 스토리지 정책이 공존하게 됩니다.

 

예를들어 가상머신에 FTT=1의 스토리지 정책이 적용되어있다고 하죠 이 가상머신의 스토리지 정책을 erasure coding의 스토리지 정책으로 변경할 경우, 데이터의 변환이 끝날 때까지 RAID 1와 RAID 5가 공존하게 됩니다. RAID 5의 스토리지 정책으로 변경중 vsanDatastore의 영역이 부족하면 정책 변경은 실패합니다.

 

따라서 vsanDatastore의 미사용영역은 항상 30% 정도 남겨두도록 하는 것을 추천합니다.


● 최소 구성은 3 호스트, 하지만 4 호스트를 추천합니다.

네, 알고 있습니다. vSAN의 최소 구성의 호스트 수는 3 호스트입니다.(ROBO나 2 호스트 다이렉트 접속 구성을 제외) 지원도 문제없이 받을 수 있습니다.

 

하지만 3 호스트면 가상머신의 가용성 유지에 불안한 점이 있습니다. 특히 운용중의 리스크가 커지게 됩니다. 3 호스트 구성시는 1 호스트를 유지보수하더라도 FTT=1를 충족할 수 없게되어 가용성을 확보할 수 없게 되기 때문이죠.

 

1 호스트 유지보수중 다른 호스트에 장해가 발생할 경우는 거의 드물다고요? 이렇게 생각하시는 분들, 장해가 발생한 뒤에는 늦습니다. 저같으면 싫습니다. 매번 두근두근하면서 패치 적용하는 건… 흐흐 🙂

 

호스트 장해에 대한 대비는 물론이지만, 운용시 유지보수의 편리성을 생각한다면 vSAN 클러스터는 최소 4 호스트 구성을 추천합니다.

 

 


● “중복제거와 압축” 기능의 유효시, 디스크 단위의 삭제는 않됩니다.

All-Flash 모드의 vSAN을 도입하여 ”중복제거와 압축”기능을 검토하고 계신 분들은 “중복제거와 압축” 기능은 디스크 그룹 단위로 구성된다는 것에 주의하시길… 디스크 그룹 단위로 구성이 되기 때문에 capacity SSD에 장애가 발생하면 해당 디스크 그룹을 일단 삭제, SSD 교환후 새롭게 작성을 해야됩니다.

 

운용을 시작하여 일정 시간이 경과후 발생하면 의외로 번거로운 문제가 될 수 있으므로 “중복제거와 압축”기능을 검토할 경우는 운용면에서의 부하도 충분히 검토를 하시길 바랍니다.


● vSAN을 구성하면 ESXi 호스트의 reboot는 시간이 걸립니다.

거의 포스팅에서도 소개를 했습니다만, vSAN의 호스트는 부팅시 vSAN 메타 데이터 테이블을 재작성합니다. (KB에 의하면 디스크 그룹당 최장 1시간이 걸릴 수도 있다고 합니다)

때문에 non-vSAN의 ESXi 호스트보다 시작에 시간이 걸립니다. 기동에 실패하여 에러가 표시되기 전까지는 인내심을 갖고 기다리기 바랍니다.

 

ESXi 호스트의 시작이내 재시작시에는 DCUI나 원격 콘솔에서 부팅 프로세스를 확인하는 것을 추천합니다.


● 가동중에 디스크를 뽑는 것은 장해 테스트라고 할 수 없습니다.

vSAN 도입직후 대부분 장해 테스트를 하실겁니다. 네트워크나 전원, 혹은 호스트 장해 테스트를 하시겠죠. 물론 디스크(cache 티어나 capacity 티어) 장해에 대해서도 테스트를 하실겁니다. 단지 디스크는 다른 장해 테스트와는 달리 간단히 장해 상태를 만들 수 없죠. 결국 가동중인 디스크를 뽑는 것이 일반적으로 이루어지고 있지 않을까 합니다.(과거에 저도 장해 테스트로 가동중인 디스크를 뽑는 방법을 소개한 적이 있습니다… )

 

이건 absent 상태가 되어 제대로 된 장해 테스트라고 할 수 없습니다.(물론 이 상태에서 ClomRepairDelay의 타임아웃이 되면 데이터의 동기가 실행되므로 결과적으로는 같을지 모르겠습니다…)

 

그렇다면 어떻게 해야되느냐…? Failure Testing을 이용하면 됩니다.

 

VMware 공식 문서인 이 Failure Testing에는 호스트 장해, 디스크 장해시의 동작에 대한 설명과 함께 디스트 장해를 발생시킬 수 있는 방법도 소개하고 있습니다.

/usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc

 

위의 명령어를 이용하면 간단히 디스크를 Permanent Error 상태로 만들 수 있습니다. 장해 테스트를 하실 경우는 꼭 이용해보세요.

음… 원래 HCI의 디스크 장해 테스트의 목적은 “장해가 발생해도 서비스(가상머신)는 정지하지 않는 것을 확인”하는 것이라고 생각합니다만, 이상하게 “가상머신의 가용성을 어떻게 수복하는가“를 확인하는 쪽으로 바뀐 것 같네요. 🙂


● 격리 어드레스 변경후는 vSphere HA를 재유효화해야 됩니다.

이것도 이미 알고 계시리라 생각됩니다. vSAN을 구성하면 하트비트가 관리 네트워크로부터 vSAN 네트워크로 변경되죠. 따라서 호스트 격리시에 이용되는 격리 어드레스도 변경해줘야 됩니다. 격리 어드레스는 vSphere HA의 고급설정에서 변경이 가능합니다만 변경후 추가 작업이 필요합니다.

 

격리 어드레스의 변경은 vSphere HA를 일단 무효후 다시금 유효화해주지 않으면 반영되지 않습니다. 격리 어드레스를 변경한 뒤에는 반드시 vSphere HA를 재유효화해 주는 것을 잊지마세요. 🙂



 VCSA을 Easy Install로 설치하였을 경우는 vSAN 구성후 스토리지 정책을 적용해주세요.

vSAN 6.6부터 vSAN 클러스터상에 VCSA를 설치하는 것이 무지하게 편해졌습니다. VCSA 설치시 “새로운 vSAN 클러스터에 포함되는 ESXi 호스트에 설치” 옵션을 선택해주기만 하면 되죠. 간단히 싱글 호스트에 일시적으로 vsanDatastore를 구성, VCSA를 설치해줍니다. VCSA가 설치되면 남은 ESXi 호스트를 vSAN 클러스터에 추가해주면 vSAN 구성이 끝납니다. 간단하죠. 🙂
 
하지만 잘 생각해보세요. vsanDatastore 상에 가상머신(VCSA)를 설치했다는 말은 자동적으로 vSAN Default Storage Policy가 적용된다는 말이죠. vSAN Default Storage Policy는 FTT=1에 Stripe=1입니다. 이말은 최소한 3 호스트가 필요하다는 말이죠. 하지만 VCSA를 설치한 시점에서는 1 호스트밖에 없으므로 VCSA는 스토리지 정책이 적용되지 않은 상태가 됩니다.

 

Easy Install로 VCSA를 설치했을 경우는 vSAN 구성이 끝난 뒤에 잊지말고 스토르지 정책을 적용해주세요. 

 



● 컴포넌트 사이즈에는 최대치가 있습니다.

vsanDatastore에는 최대 62TB의 vmdk 화일을 작성할 수 있습니다. 최대 사이즈는 다른 스토리지와 다를바없습니다만 vSAN의 경우는 조금 특수합니다. vSAN은 최종적으로 capacity 디스크에 “컴포넌트”로 저장이 됩니다. 이 컴포넌트에는 최대 사이즈가 있어, 255GB가 최대 사이즈입니다. 255GB를 넘는 화일은 자동적으로 분할되어 복수의 capacity 디스크에 저장이 됩니다. 컴포넌트는 분할되어 각 정보는 메타데이터에 의해 관리됩니다. 예를들어 vmdk 화일 사이즈가 1TB의 경우, capacity 디스트에 저장되는 컴포넌트 수는 4 이상이 됩니다. FTT=1의 경우 8 이상이 되는거죠. 참고로 오브젝트는 분할되지 않습니다.
 

위의 그림처럼 가상머신에 3개의 vmdk 화일이 있다고 하죠. 스토리지 정책은 FTT=1입니다. 하드 디스크 1과 2는 100GB 정도입니다. 이에비해 하드 디스크 3은 약 400GB 정도됩니다. 하드 디스크 1과 2는 FTT=1의 정책이 적용되어 각각 2개의 컴포넌트가 각각 다른 호스트상에 저장되게 됩니다.

 

하드 디스크 3은 400GB 이므로 컴포넌트의 최대 사이즈를 넘습니다. 따라서 RAID 1의 안에 각각 RAID 0로 3개의 컴포넌트로 분할되어 저장되어 있는 것을 확인할 수 있습니다.(몇개의 컴포넌트로 분할될지는 화일의 사이즈에 따라서 달라집니다)

 

재미있죠? 🙂

 

거대한 가상머신을 작성할 경우는 이 컴포넌트의 구성이나 배치도 고려하는 것이 좋습니다.


 

이외에도 팁이 있으리라 싶습니다만, 생각나는건 이정도네요. vSAN의 도입이나 운용에 조금이나마 도움이 되었으면 합니다. 🙂

#%ed%8c%81, #vmware, #vsan

[ETC] 새해 복많이 받으세요

신년이 밝았습니다. 새해 복많이 받으세요.

올한해도 잘 부탁 드리겠습니다.

 

[Nutanix] Nutanix Technology Champions 2018

영광스럽게 올해도 NTC(Nutanix Technology Champions) 2018을 수상하게 되었습니다.

 

Welcome to the 2018 Nutanix Technology Champions (NTC)

 

NTC는 현장이나 커뮤니티, 블로그 등 소셜미디어를 통해 Nutanix 프로덕트나 기술 전파에 공헌한 이들에게 수여되는 vExpert와 같은 명예직입니다. 라고 작년에 얘기한거 같네요. 

 

또한 보다 많은 Nutanix의 관련 정보를 소개해 나가겠다고 말했습니다만, 솔직히 올해는 Nutanix 관련 커뮤니티 활동이나 블로그 포스팅을 하지 못했습니다. 그럼에도 불구하고 이같은 명예스러운 프로그램에 다시금 선택되어 영광일 뿐입니다. 

 

내년에는 보다 도움이 될 정보를 공유해 나가겠습니다. 잘 부탁드리겠습니다.  

 

#ntc-2018, #nutanix, #nutanix-technology-champions

[VMware] vRealize Automation 7.3 (21)

(0) vRA 개요
(1) vRA 구성요소
(2) vRA 설치 – vRA어플라이언스
(3) vRA 설치 – IaaS서버
(4) vRA 초기설정 – 테넌트 작성
(5) 테넌트 구성 – AD
(6) 엔드포인트 작성
(7) 데이터 콜렉션과 패브릭 그룹 작성
(8) 머신 접두사와 네트워크 프로화일 작성
(9) 비지니스 그룹과 예약 작성
(10) 블루프린트 작성
(11) 서비스 카탈로그 작성
(12) 블루프린트의 요구
(13) 승인 정책의 설정
(14) 커스텀 속성(사용자 지정 속성)의 설정
(15) vRO 엔드포인트 작성
(16) NSX와의 통합
(17) 가상머신의 임포트
(18) 가상머신의 해제
(19) Nutanix 엔드포인트 작성
(20) vROps와의 통합
(21) 이벤트 브로커의 이용

이번에는 vRA 7.0부터 새롭게 등장한 ”이벤트 브로커(Event Broker 또는 라이프사이클의 확장=Life Cycle Extensibility이라고도 함)”에 대해서 소개하도록 하겠습니다.

“이벤트 브로커”는 6.x까지 이용되었던 Workflow Stub를 대신하여 향후 가상머신의 라이프사이클을 관리하는 방법이 됩니다.

“이벤트 브로커”를 간단히 정리해보자면 유저의 요구에 의해 프로비저닝되는(또는 되어진) 가상머신의 라이프사이클과 vRO를 연결하는 것입니다.

이 “이벤트 브로커”를 활용하므로써 단순한 가상머신의 프로비저닝이나 프로비저닝되어진 가상머신의 관리를 유저에게 떠맡기는 것이 아닌 좀더 유연한 서비스를 제공할 수 있게됩니다.

예를들어…

  • 가상머신이 프로비저닝된 후에 DNS 서버에 레코드를 작성, 가상머신이 삭제되면 레코드도 삭제
  • 특정 블루프린트에서 가상머신을 프로비저닝했을 경우 특정 어플리케이션을 설치, 가상머신의 리스 기간이 만료되면 어플리케이션도 삭제
  • 특정 가상머신을 재기동하기 전에 백업이나 스냅숏을 작성

등과 같이, 보다 자동화에 가까운 레벨의 서비스를 제공할 수 있습니다.

이 “이벤트 브로커“를 실현하기 위해서는 “이벤트 서브스크립션”을 이용해야 됩니다.

이벤트 서브스크립션이란 vRA의 이벤트를 트리거로 vRO의 워크플로를 실행하도록 하는 정의(definition)라고 할 수 있습니다. 정의라고 하면 조금 딱딱하게 들릴 수도 있겠습니다만, 내용은 어떤 이벤트가 발생했을 경우는 vRO의 워크플로를 실행한다는 말입니다. 🙂

이벤트 서브스크립션을 작성하기 위해서는 우선, “이벤트 토픽”을 지정합니다. “이벤트 토픽”은 발생하는 이벤트의 카테고리를 의미합니다. vRA 7.3에서는 약 20개의 이벤트가 준비되어있으며 그중에서도 대표적인 이벤트 토픽은 다음과 같습니다.

  • Machine lifecycle
  • Machine provisioning

 

각 이벤트 토픽은 복수의 스키마(프로퍼티-속성)로 구성되어있습니다. 이 프로퍼티를 필요에 따라 “조건”으로 구성을 합니다. 그 다음에는 어느 단계에서 vRO의 워크플로에 프로퍼티를 넘겨줄 것인지를 결정하면 이벤트 서브스크립션의 작성은 끝입니다.

이런저런 등장인물이 있다보니 설명만으로는 헷갈릴 수가 있기에 그림으로 표현을 하면 이렇습니다.

“WinSvr”란 이름의 블루프린트로 작성되는 가상머신은 프로비저닝후에 DNS 서버에 레코드를 작성하는 vRO의 워크플로를 실행하는 이벤트 브로커를 예로들어 보겠습니다.

 

간단히 이벤트 브로커를 이용하는 방법을 소개하겠습니다.

※이 이벤트 브로커 기능을 이용하기 위해서는 vRO가 엔드포인트로 추가되어있어야하며 이벤트 서브스크립션을 통해 실행하는 vRO의 워크플로가 준비되어있어야 합니다.



(21) 이벤트 브로커의 이용

① [관리] → [Event]를 클릭합니다.

 

② [Subscription]을 선택하여, [New]를 클릭합니다.

 

③ 우선 [이벤트 토픽]에서 서브스크립션에서 이용할 이벤트 토픽을 선택합니다. 이용가능한 이벤트 토픽의 종류에 대해서는 여기에서 확인할 수 있습니다. 여기서 소개하는 예로는 가상머신이 프로비저닝된 후에 DNS 서버에 A 레코드를 등록하는 방법을 소개하고자하므로 ”머신 프로비저닝”을 선택했습니다. 이벤트 토픽을 선택후 [Next]를 클릭합니다.

 

④ [조건] 탭에서는 다음의 조건을 지정합니다.

  • 블루프린트 이름에 Linux란 문자열이 포함되어있을 경우
  • 라이프사이클 이벤트가 가상머신의 프로비저닝의 경우(VMPSMasterWorkflow32.BuildingMachine)
  • 라이프사이클의 단계가 프로비저닝이 완료되었을 경우 (POST)

위의 3조건이 충족되었을 경우 이벤트 토픽이 발동됩니다.

 

⑤ [워크플로] 탭을 선택하여 순서④의 조건을 충족했을 경우 실행하는 vRO의 워크플로를 선택합니다.

※입력 파라메터가 ”payload”인 것을 주목하세요. 이 payload는 이벤트 토픽에서 생성된 스키마(속성)을 vRO에 넘겨주는 프로퍼티입니다. 이벤트 브로커를 이용할 경우는 이 payload가 100% 필요하게 됩니다. vRO의 워크플로의 처음에 이 payload가 실행되지않으면 워크플로가 정상적으로 동작하지않습니다.

 

⑥ [상세] 탭에서 필요한 정보를 입력, [Finish]를 클릭합니다.

  • 이름 : 작성하는 서브스크립션 이름입니다. 알기쉬운 이름을 지정합니다.
  • 우선순위 : 여러 서브스크립션이 존재할 경우 실행하는 순위입니다.
  • 타임아웃 : 워크플로의 실행 타임아웃치입니다. 어떤 이유로 워크플로의 실행이 종료되지않고 이 타임아웃치에 도달하면 서브스크립션은 실패합니다.
  • 블록 : 여러 서브스크립션을 순서대로 실행하도록합니다. 이 블록을 유효화하지 않으면 ”우선순위”와 ”타임아웃”이 활성화되지 않습니다.

※”블록(블로킹)”에 대해서 조금 설명을 하자면… 서브스크립션을 실행할 경우 ”블로킹”과 ”넌블로킹(non-blocking)”을 지정합니다. 하나의 이벤트 토픽에 복수의 서브스크립션이 존재할 경우, 각 서브스크립션은 동시에 실행됩니다. 이것을 막기위해 각 서브스크립션에 ”블로킹”을 설정, 우선순위를 결정합니다. ”넌블로킹”은 ”블로킹”을 지정한 서브스크립션이 실행된 뒤, 또는 타임아웃으로 서브스크립션이 실행했을 경우 실행됩니다.

 

⑦ 작성한 서브스크립션은 블루프린트와 동일, ”드래프트” 상태이므로 [공개]를 클릭합니다.

 

⑧ 공개되었다면 서브스크립션의 작성은 끝입니다.

 

⑨ 다음에는 블루프린트의 [커스터 속성]에 서브스크립션에 넘겨줄 라이프사이클용 커스텀 속성을 지정합니다. 여기서는 아래의 속성을 지정했습니다.

  • 속성명 : Extensibility.Lifecycle.Properties.VMPSMasterWorkflow32.BuildingMachine
  • 값 : __*,*

 

이 설정으로 가상머신이 프로비저닝되었을 경우의 각종 속성값이 서브스크립션에 넘어갑니다. 값의 __*,*(언더스코어언더스코어*,*)는 __*は비표시(hidden)값을, *는 표시값을 모두 넘기게 됩니다.

 

이로써 준비완료입니다. 🙂

 

⑩ 그렇다면 제대로 동작을 하는지 확인해보도록 하겠습니다. 이름이 Linux6인 블루프린트로부터 가상머신을 프로비저닝해봅니다.

 

⑪ 요구의 처리가 실행되고 있습니다.

 

⑫ vSphere Web Client를 확인해보도록 하죠. ”LX-VM-018″이란 가상머신이 프로비저닝중으로 IP 어드레스는 ”192.168.205.153″가 네트워크 프로화일에서 할당되어져 있습니다.

 

⑬ 가상머신의 프로비저닝이 끝난 뒤 ”Add DNS-Host”란 워크플로가 정상적으로 끝난 것을 확인할 수 있습니다. 이 ”Add DNS-Host”는 순서⑤에서 지정한 vRO의 워크플로입니다.

 

⑭ DNS 서버를 확인해보면 ”LX-VM-018″란 호스트가 ”192.168.205.153″로 레코드가 등록된 것을 확인할 수 있습니다.

 

⑮ 마지막으로 vRO를 확인해보죠. 워크플로가 정상적으로 완료된 것을 확인할 수 있습니다. 워크플로 진행중 가상머신 이름과 IP 어드레스를 vRA로부터 넘겨받은 것도 확인할 수 있답니다.

 

이로써 이벤트 브로커의 이용 방법의 소개는 끝입니다.

 

[VMware] vExpert 2018 응모개시

vExpert 2018의 응모가 시작되었습니다.

vExpert 2018 Applications are Now Open

 

올해부터는 vExpert 전용 포털이 준비되어 응모도 vExpert 전용 포털에서 이루어집니다.

 

vExpert이 되면 Expert 전용 Slack 채널 참가를 비롯하여 vExpert 인증서, 1년간 이용할 수 있는 평가 라이센스 등이 VMware사로부터 제공되며 각 3rd 파티에서 제공되는 각종 혜택이 있습니다.

Andrea Mauro씨의 정리 : vExpert 2017 Benefits

 

응모기간은 2017년 12월 19일부터 1개월간이며 수상자 발표는 2018년 2월 16일로 예정되어있습니다.

 

2017년 VMware 제품이나 테크놀러지의 보급에 공헌한 분이나 VMware Love인 분들은 꼭 응모해보세요. 🙂

 

[VMware] vSAN 6.2 Essentials 무료 공개

vSAN계에서는 유명한 인물이 2명있습니다. Cormac Hogan씨와 Duncan Epping씨가 바로 그 2명입니다.

2명 모두 VMware사의 SABU(Storage & Availability Business Unit) CTO면서도 vSphere Clustering관련, 스토리지나 vSAN 관련의 유익한 정보를 많이 소개해주고 있어 항상 도움을 받고있죠. 🙂

 

이 두명이 집필한 Essential Virtual SAN (VSAN): Administrator’s Guide to VMware Virtual SAN의 vSAN 6.2 대응판을 무료로 공개해주었습니다.

 

Holiday gift: vSAN Essentials book available for free

vSAN Essentials e-book is now free

 

300 페이지에 걸쳐 아키텍쳐를 시작으로 설치, 스토리지 정책, 관리/운용 그리고 트러블슈팅까지 vSAN의 모든 것을 커버하고 있습니다. vSAN 6.2 대응이라 조금은 오래된 내용일 듯 보일지도 모르겠습니다만, 대부분은 지금도 충분히 활용할 수 있는 내용입니다. vSAN 인프라의 관리자분들이나 vSAN 도입을 검토하고 계신 분들에게는 필독서라고 생각합니다.

 

다시 한번 Cormac Hogan씨와 Duncan Epping씨에게 감사를 드리고 싶네요. 🙂

 

#%eb%ac%b4%eb%a3%8c, #%ec%b1%85, #vmware, #vsan

[Nutanix] AOS 5.5 릴리스

프로젝트명 “Obelix”로 알려진 AOS 5.5가 오늘 릴리스되었습니다.

새롭게 추가된 기능의 일부를 소개하자면…

  • CVM이 CentOS 7.3 기반으로 업데이트되었습니다.(ESXi 5.0와 5.1로부터의 CVM 업그레이드는 지원을 하지않으니 주의가 필요합니다)
  • 머신 러닝 능력이 추가되었다고 합니다. 이 머신 러닝 능력은 리소스의 소비 감시는 물론 비정상적인 움직임을 행동을 검색하여 올바른 계획을 세울수 있도록 가이드 해준다고 하네요.
  • SSP(Self Service Portal)이 Prism Central에 통합되었다고 합니다.
  • SSP의 인증기반으로 OpenLDAP도 지원을 하게되었다고 합니다.
  • Calm을 드디어 이용할 수 있게되었습니다! 🙂

  • 레포트 기능이 추가되어 메일을 통해 정기적으로 레포팅을 받을 수 있게 되었다고 합니다.
  • 비동기 DR 기능에 RPO를 1분이내에 지점으로 복구할 수 있는 NearSync 기능이 추가되었다고 합니다.
  • 싱글 노드 클러스터를 지원하게 되었습니다. (대응 모델은 NX-1175S-G5)
  • Acropolis Image 관리가 Prism Element으로부터 Prism Central로 변경되었습니다.(Prism Central 환경이 없을 경우, 또는 한번도 Prism Central에 Prism Element를 등록한적이 없는 경우는 종전대로 Prism Element에서 이용을 할 수 있다고 합니다)
  • Windows Server 2016와 Hyper-V 2016를 이용할 수 있게되었습니다.
  • AHV 클러스터에서 vGPU를 이용할 수 있게 되었습니다.
  • 가상머신에 대해 vNUMA를 지원할 수 있게되었습니다.
  • 마이크로 세그멘테이션을 이용할 수 있게되었습니다.

 

또한 변경되거나 개선된 기능도 몇가지 소개를 하자면…

  • Acropolic Container Services(ACS)를 지원하지않게 되었습니다.
  • 암호화로써 TLS1.0、1.1、SSLv3가 비추천이 되었습니다. 모든 Nutanix 제품은 TLS1.2로 암호화를 실현한다고 합니다.
  • NGT(Nutanix Guest Tool)도 TLS1.2을 이용하게 되었다고 합니다.
  • Linux 게스트 OS에서도 SSR(Self Service Restore)를 이용할 수 있게되었습니다.
  • 가상머신의 Hot-Plug 기능을 이용할 수 있게되었습니다.
  • Data-at-REST 암호화도 지원을 하게되었습니다.

 

이외의 자세한 내용은 릴리스 노트를 확인하세요.

 

#5-5, #acropolis, #ahv, #aos, #calm, #%eb%a6%b4%eb%a6%ac%ec%8a%a4, #nutanix, #prism, #prism-central

[VMware] vRealize Suite Lifecycle Manager(vRSLCM) 구성 – 실패담?

음… 너무 까분거 같네요. 쩝…

얼마전에 vRSLCM의 구성을 소개하면서 기존의 vRA를 추가했었습니다. 아무 생각없이 여기에 다른 제품을 추가했습니다.

 

결과는…  2/3 성공, 1/3 실패였습니다.

 

왜 실패를 했는지를 포함, 간단히 제품 추가에 대해서 소개를 하겠습니다.

vRealize Suite Lifecycle Manager(vRSLCM) 설치
vRealize Suite Lifecycle Manager(vRSLCM) 구성

 

우선 지난번에 vRA를 추가한 환경에 새롭게 제품을 추가하기로 했습니다.

 

① “Manage Environments”를 클릭, 지난번에 추가한 vRA의 타일 메뉴로부터 “Add Products”를 실행합니다.

 

② 왠지 그냥 CEIP를 참가해버렸습니다. 흐흐

 

③ vRA이외의 나머지 제품을 모두 선택했습니다. 선택후 “Create Environment”를 클릭… 제대로 진행된다면 vRealize Business for Cloud, vRealize Log Insight, vRealize Operations Manager가 설치될겁니다.

 

④ 설치에 필요한 정보를 입력합니다. 우선 vRealize Business for Cloud의 설치에 필요한 정보를 입력하고…

 

⑤ 이번에는 vRealize Log Insight의 정보…

 

⑥ 마지막으로 vRealize Operations Manager의 설치 정보를 입력후 “NEXT”를 클릭….

 

⑦ 구성의 유효화 체크에 문제가 없다면 “SUBMIT” !

 

⑧ 설치가 시작됩니다.

 

⑨ “Request”에서 진행중인 job을 클릭하면…

 

⑩ 설치 상태를 확인할 수 있습니다.

 

⑪ 의외로 아무런 문제없이 진행되길래 ‘간단~ ♪’ 흥얼거렸더니만…

 

⑫ 실패했습니다. 쩝… 원인은 vRealize Business for Cloud의 라이센스 추가에서 실패한거 같았습니다. 가만히 생각을 해보니 vRealize Business for Cloud의 라이센스 지정하는 부분이 없었습니다. –; 실패하고보니 이 vRSLCM는 일단 설치가 시작되면 job를 취소할 수 없는걸 알았습니다. 정보도 그다지 많지않고 말이죠… 음…

 

⑬ 불행중 다행(?)이랄까 vRealize Business for Cloud이외의 두 제품은 제대로 설치가 된 거 같았습니다.

 

⑭ 설치된 각 제품은 “Manage Environments”에서 vRA과 동일하게 상세정보나 컴포넌트의 추가, 버전의 호환성 확인이 가능합니다.

 

음… 이 vRSLCM, 확실히 vRealize 제품의 라이프사이클를 관리 부분에서 각 제품의 버전을 확인한다든지 호환성이 있는 컴포넌트를 추가할 수 있는 것은 설치의 포스팅에서도 언급했듯이 매력적입니다만… job(요청)에 대한 부분은 로그 확인이나 재실행 같은 조작의 부분을 조금 더 개선해줬으면 하네요… 🙂