[VMware] vExpert VSAN 2018을 수상했습니다

 

영광스럽게 올해도 vExpert VSAN 2018을 수상하게 되었습니다.

 

 

vExpert VSAN 2018 Announcement

 

vExpert VSAN 프로그램은 vExpert의 서브 프로그램으로 vExpert 안에서 모집하여 vExpert 팀과 Storage & Availability 부문(SABU)에서 심사, 수상자를 결정합니다. VSAN 이외에는 NSX와 Cloud가 있으며 각각 8월, 10월경에 수상자를 발표하는 것 같습니다. (작년에는 그랬네요)

 

하여간 굉장히 기쁘네요. 흐흐 올해는 한국분도 수상을 하신 것 같아 더욱 반갑네요. 😉

 

Horizon 관련의 프로그램도 있습니다만, Horizon의 경우는 vExpert의 서브 프로그램이 아닌 독립 프로그램인 것 같습니다. 정식 명칭은 VMware EUC Champions입니다.

Here They Are: VMware 2018 EUC Champions

 

 

#2018, #%ec%88%98%ec%83%81, #vexpert, #vmware, #vsan

[VMware] vSAN 팁 몇가지

이미 10,000사 이상에서 도입되었으며 기세가 점점 거대해지는 vSAN입니다만 고객과 얘기를 해보면 의외로 vSAN에 대한 정보가 부족한 것 같습니다. 왜냐하면 vSAN이란 솔루션의 특징은 알고 있어도 실제로 도입할 경우나 도입후 운용해나갈 경우 주의해야될 점들에 대해서는 잘모르는것 같았기 때문입니다.

 

따라서 도입시나 운용시 조금은 주의가 필요한 내용을 정리해 봤습니다.(이미 알려진 내용일지 모르겠습니다)

 

● 하나의 RAID Controller에서는 VMFS과 vSAN FS을 구성할 수 없습니다.

아마 초기 버전의 vSAN 구성에서 있을 수 있는 경우일지 모르겠습니다만, 최근에도 지원 의뢰가 있는거 같습니다. 하나의 RAID Controller상에서 VMFS과 vSAN FS을 구성하는 것은 지원을 받을 수 없습니다. 하나의 RAID Controller에 ESXi용 RAID 1과 vSAN용 non-RAID를 구성하는 것은 피해야 됩니다. 

vSAN을 구성할 경우 ESXi의 부트 디바이스로 내장 SD카드나 SATADOM 같은 플래시 디바이스를 이용하는 것이 일반적이라고 할 수 있습니다만 스크래치 파티션을 로컬 데이터스토어에 보존하기위해 하드 디스크에 ESXi를 설치하고자 할 때는, ESXi용으로 RAID Controller를 준비, vSAN용 RAID Controller를 추가로 준비해줘야 됩니다.


● 부트 디바이스로 내장 SD 카드를 이용할 경우, 스크래치 파티션을 고려해야 됩니다.

내장 USB 메모리나 SD 카드에 ESX를 설치할 경우 로그는 RAM 디스크상에 보존됩니다. 단지 RAM 디스크상에 보존되기 때문에 ESXi 호스트를 재기동하면 로그는 사라지고 이로인해 장해의 원인 규명이 힘들어지게 됩니다.

 

이를막기위해서는 스크래치 파티션을 구성할 필요가 있습니다만, vSAN에서는 ① ESXi 호스트의 로컬 데이터스토어를 이용하든지 ② NFS의 디렉토리를 호스트별로 준비하는 방법뿐입니다. 단지 ①의 경우는 위의 팁에서 소개를 했듯이 RAID Controller를 추가로 준비해야되죠. ②역시 NFS 디렉토리를 준비해줘야 됩니다.

 

지금까지의 경험상, 스크래치 파티션 때문에 ①이나 ②를 준비하는 사례는 거의 없었습니다. 때문에  Remote Syslog와 Network Dump를 구성하는 방법이 가장 무난할지 모르겠습니다. 단지 이것도 모든 로그를 보존할 수 있는 것이 아니기 때문에 vSAN을 도입할 경우는 돈을 들여 스크래치 파티션을 준비하든지 syslog 만을 준비하여 최소한의 로그라도 보존을 하든지를 고려해야될 필요가 있습니다. 개인적으로는 vRealize Log Insight에 로그를 전송하는 것을 추천하고 싶네요. 

 


● vsanDatastore의 미사용영역을 항상 30% 확보하도록 합니다.

운용시작후 vsanDatastore의 사용영역이 전체영역의 80%를 넘지않도록 주의하는 것은 널리 알려져 있습니다. (SIer에 따라서는 70%를 이용가능한 최대영역으로 안내를 하는 경우도 있죠)

이와 비슷한 내용일지 모르겠습니다만 vsanDatastore의 미사용영역은 항상 30% 정도 확보해두는 것을 추천합니다. FTT가 다른 복수의 스토리지 정책을 이용는 환경에서 스토리지 정책을 변경할 경우, 일시적으로 변경전의 스토리지 정책과 변경하는 스토리지 정책이 공존하게 됩니다.

 

예를들어 가상머신에 FTT=1의 스토리지 정책이 적용되어있다고 하죠 이 가상머신의 스토리지 정책을 erasure coding의 스토리지 정책으로 변경할 경우, 데이터의 변환이 끝날 때까지 RAID 1와 RAID 5가 공존하게 됩니다. RAID 5의 스토리지 정책으로 변경중 vsanDatastore의 영역이 부족하면 정책 변경은 실패합니다.

 

따라서 vsanDatastore의 미사용영역은 항상 30% 정도 남겨두도록 하는 것을 추천합니다.


● 최소 구성은 3 호스트, 하지만 4 호스트를 추천합니다.

네, 알고 있습니다. vSAN의 최소 구성의 호스트 수는 3 호스트입니다.(ROBO나 2 호스트 다이렉트 접속 구성을 제외) 지원도 문제없이 받을 수 있습니다.

 

하지만 3 호스트면 가상머신의 가용성 유지에 불안한 점이 있습니다. 특히 운용중의 리스크가 커지게 됩니다. 3 호스트 구성시는 1 호스트를 유지보수하더라도 FTT=1를 충족할 수 없게되어 가용성을 확보할 수 없게 되기 때문이죠.

 

1 호스트 유지보수중 다른 호스트에 장해가 발생할 경우는 거의 드물다고요? 이렇게 생각하시는 분들, 장해가 발생한 뒤에는 늦습니다. 저같으면 싫습니다. 매번 두근두근하면서 패치 적용하는 건… 흐흐 🙂

 

호스트 장해에 대한 대비는 물론이지만, 운용시 유지보수의 편리성을 생각한다면 vSAN 클러스터는 최소 4 호스트 구성을 추천합니다.

 

 


● “중복제거와 압축” 기능의 유효시, 디스크 단위의 삭제는 않됩니다.

All-Flash 모드의 vSAN을 도입하여 ”중복제거와 압축”기능을 검토하고 계신 분들은 “중복제거와 압축” 기능은 디스크 그룹 단위로 구성된다는 것에 주의하시길… 디스크 그룹 단위로 구성이 되기 때문에 capacity SSD에 장애가 발생하면 해당 디스크 그룹을 일단 삭제, SSD 교환후 새롭게 작성을 해야됩니다.

 

운용을 시작하여 일정 시간이 경과후 발생하면 의외로 번거로운 문제가 될 수 있으므로 “중복제거와 압축”기능을 검토할 경우는 운용면에서의 부하도 충분히 검토를 하시길 바랍니다.


● vSAN을 구성하면 ESXi 호스트의 reboot는 시간이 걸립니다.

거의 포스팅에서도 소개를 했습니다만, vSAN의 호스트는 부팅시 vSAN 메타 데이터 테이블을 재작성합니다. (KB에 의하면 디스크 그룹당 최장 1시간이 걸릴 수도 있다고 합니다)

때문에 non-vSAN의 ESXi 호스트보다 시작에 시간이 걸립니다. 기동에 실패하여 에러가 표시되기 전까지는 인내심을 갖고 기다리기 바랍니다.

 

ESXi 호스트의 시작이내 재시작시에는 DCUI나 원격 콘솔에서 부팅 프로세스를 확인하는 것을 추천합니다.


● 가동중에 디스크를 뽑는 것은 장해 테스트라고 할 수 없습니다.

vSAN 도입직후 대부분 장해 테스트를 하실겁니다. 네트워크나 전원, 혹은 호스트 장해 테스트를 하시겠죠. 물론 디스크(cache 티어나 capacity 티어) 장해에 대해서도 테스트를 하실겁니다. 단지 디스크는 다른 장해 테스트와는 달리 간단히 장해 상태를 만들 수 없죠. 결국 가동중인 디스크를 뽑는 것이 일반적으로 이루어지고 있지 않을까 합니다.(과거에 저도 장해 테스트로 가동중인 디스크를 뽑는 방법을 소개한 적이 있습니다… )

 

이건 absent 상태가 되어 제대로 된 장해 테스트라고 할 수 없습니다.(물론 이 상태에서 ClomRepairDelay의 타임아웃이 되면 데이터의 동기가 실행되므로 결과적으로는 같을지 모르겠습니다…)

 

그렇다면 어떻게 해야되느냐…? Failure Testing을 이용하면 됩니다.

 

VMware 공식 문서인 이 Failure Testing에는 호스트 장해, 디스크 장해시의 동작에 대한 설명과 함께 디스트 장해를 발생시킬 수 있는 방법도 소개하고 있습니다.

/usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc

 

위의 명령어를 이용하면 간단히 디스크를 Permanent Error 상태로 만들 수 있습니다. 장해 테스트를 하실 경우는 꼭 이용해보세요.

음… 원래 HCI의 디스크 장해 테스트의 목적은 “장해가 발생해도 서비스(가상머신)는 정지하지 않는 것을 확인”하는 것이라고 생각합니다만, 이상하게 “가상머신의 가용성을 어떻게 수복하는가“를 확인하는 쪽으로 바뀐 것 같네요. 🙂


● 격리 어드레스 변경후는 vSphere HA를 재유효화해야 됩니다.

이것도 이미 알고 계시리라 생각됩니다. vSAN을 구성하면 하트비트가 관리 네트워크로부터 vSAN 네트워크로 변경되죠. 따라서 호스트 격리시에 이용되는 격리 어드레스도 변경해줘야 됩니다. 격리 어드레스는 vSphere HA의 고급설정에서 변경이 가능합니다만 변경후 추가 작업이 필요합니다.

 

격리 어드레스의 변경은 vSphere HA를 일단 무효후 다시금 유효화해주지 않으면 반영되지 않습니다. 격리 어드레스를 변경한 뒤에는 반드시 vSphere HA를 재유효화해 주는 것을 잊지마세요. 🙂



 VCSA을 Easy Install로 설치하였을 경우는 vSAN 구성후 스토리지 정책을 적용해주세요.

vSAN 6.6부터 vSAN 클러스터상에 VCSA를 설치하는 것이 무지하게 편해졌습니다. VCSA 설치시 “새로운 vSAN 클러스터에 포함되는 ESXi 호스트에 설치” 옵션을 선택해주기만 하면 되죠. 간단히 싱글 호스트에 일시적으로 vsanDatastore를 구성, VCSA를 설치해줍니다. VCSA가 설치되면 남은 ESXi 호스트를 vSAN 클러스터에 추가해주면 vSAN 구성이 끝납니다. 간단하죠. 🙂
 
하지만 잘 생각해보세요. vsanDatastore 상에 가상머신(VCSA)를 설치했다는 말은 자동적으로 vSAN Default Storage Policy가 적용된다는 말이죠. vSAN Default Storage Policy는 FTT=1에 Stripe=1입니다. 이말은 최소한 3 호스트가 필요하다는 말이죠. 하지만 VCSA를 설치한 시점에서는 1 호스트밖에 없으므로 VCSA는 스토리지 정책이 적용되지 않은 상태가 됩니다.

 

Easy Install로 VCSA를 설치했을 경우는 vSAN 구성이 끝난 뒤에 잊지말고 스토르지 정책을 적용해주세요. 

 



● 컴포넌트 사이즈에는 최대치가 있습니다.

vsanDatastore에는 최대 62TB의 vmdk 화일을 작성할 수 있습니다. 최대 사이즈는 다른 스토리지와 다를바없습니다만 vSAN의 경우는 조금 특수합니다. vSAN은 최종적으로 capacity 디스크에 “컴포넌트”로 저장이 됩니다. 이 컴포넌트에는 최대 사이즈가 있어, 255GB가 최대 사이즈입니다. 255GB를 넘는 화일은 자동적으로 분할되어 복수의 capacity 디스크에 저장이 됩니다. 컴포넌트는 분할되어 각 정보는 메타데이터에 의해 관리됩니다. 예를들어 vmdk 화일 사이즈가 1TB의 경우, capacity 디스트에 저장되는 컴포넌트 수는 4 이상이 됩니다. FTT=1의 경우 8 이상이 되는거죠. 참고로 오브젝트는 분할되지 않습니다.
 

위의 그림처럼 가상머신에 3개의 vmdk 화일이 있다고 하죠. 스토리지 정책은 FTT=1입니다. 하드 디스크 1과 2는 100GB 정도입니다. 이에비해 하드 디스크 3은 약 400GB 정도됩니다. 하드 디스크 1과 2는 FTT=1의 정책이 적용되어 각각 2개의 컴포넌트가 각각 다른 호스트상에 저장되게 됩니다.

 

하드 디스크 3은 400GB 이므로 컴포넌트의 최대 사이즈를 넘습니다. 따라서 RAID 1의 안에 각각 RAID 0로 3개의 컴포넌트로 분할되어 저장되어 있는 것을 확인할 수 있습니다.(몇개의 컴포넌트로 분할될지는 화일의 사이즈에 따라서 달라집니다)

 

재미있죠? 🙂

 

거대한 가상머신을 작성할 경우는 이 컴포넌트의 구성이나 배치도 고려하는 것이 좋습니다.


 

이외에도 팁이 있으리라 싶습니다만, 생각나는건 이정도네요. vSAN의 도입이나 운용에 조금이나마 도움이 되었으면 합니다. 🙂

#%ed%8c%81, #vmware, #vsan

[VMware] vSAN 6.2 Essentials 무료 공개

vSAN계에서는 유명한 인물이 2명있습니다. Cormac Hogan씨와 Duncan Epping씨가 바로 그 2명입니다.

2명 모두 VMware사의 SABU(Storage & Availability Business Unit) CTO면서도 vSphere Clustering관련, 스토리지나 vSAN 관련의 유익한 정보를 많이 소개해주고 있어 항상 도움을 받고있죠. 🙂

 

이 두명이 집필한 Essential Virtual SAN (VSAN): Administrator’s Guide to VMware Virtual SAN의 vSAN 6.2 대응판을 무료로 공개해주었습니다.

 

Holiday gift: vSAN Essentials book available for free

vSAN Essentials e-book is now free

 

300 페이지에 걸쳐 아키텍쳐를 시작으로 설치, 스토리지 정책, 관리/운용 그리고 트러블슈팅까지 vSAN의 모든 것을 커버하고 있습니다. vSAN 6.2 대응이라 조금은 오래된 내용일 듯 보일지도 모르겠습니다만, 대부분은 지금도 충분히 활용할 수 있는 내용입니다. vSAN 인프라의 관리자분들이나 vSAN 도입을 검토하고 계신 분들에게는 필독서라고 생각합니다.

 

다시 한번 Cormac Hogan씨와 Duncan Epping씨에게 감사를 드리고 싶네요. 🙂

 

#%eb%ac%b4%eb%a3%8c, #%ec%b1%85, #vmware, #vsan

[Microsoft] VMware vSphere on Azure hardware

2017/12/23 updated

두 회사, 협의를 한거 같네요.

VMware사는 얼마전 “지원을 하지않을 것”이라는 발표내용을 “지원을 한다“고 내용을 변경했습니다.

Recently, Microsoft announced a preview of VMware virtualization on Azure, a bare-metal solution that is stated to run a VMware stack on Azure hardware, co-located with other Azure services in partnership with VMware-certified partners. This offering is being developed independent of VMware, however it is being offered as a dedicated, server-hosted solution similar in approach to other VMware Cloud Provider Partners (VCPP). The deployment is on VMware certified hardware consisting of FlexPod. VMware is in the process of engaging with the partner to ensure compliance and that the appropriate support model is in place.

VMware vSphere on Azure 서비스는 다른 VCPP(클라우드 제공 파트너)와 같은 방식의 전용 하드웨어를 이용한 호스팅 서비스로써 지원을 한다는 내용입니다.

한편 마이크로소프트사도 동일한 내용을 소개하며 Cisco사와 NetApp사의 컨버지드 솔루션인 Flexpod를 제공 기반으로 이용할 것이라고 밝혔습니다.

To enable this solution, we are working with multiple VMware Cloud Provider Program partners and running on existing VMware-certified hardware. For example, our preview hardware will use a flexpod bare metal configuration with NetApp storage.

 

흐음… 이걸로 일단은 두 회사의 관계가 진정된거 같네요. 🙂


작년 AWS의 하드웨어 상에서 vSphere 환경을 이용할 수 있는 VMware Cloud on AWS가 발표되어, 올해 미국 서부 리전에서 처음으로 서비스가 개시되었죠. 

Azure에서도 동일한 내용의 서비스를 제공한다는 발표가 있었습니다.

Transforming your VMware environment with Microsoft Azure

위의 발표에 의하면 Azure 하드웨어상에서 완전한 vSphere 환경을 제공한다 고합니다.

Today, we’re excited to announce the preview of VMware virtualization on Azure, a bare-metal solution that runs the full VMware stack on Azure hardware, co-located with other Azure services.

 

아마도 온프레미스의 vSphere 환경을 Azure에 이행할 수 있도록 일시적인 용도의 서비스가 아닐까 싶습니다. 왜냐하면 “Azure 하드웨어상에서 vSphere 환경을 제공”한다는 내용이 메인이라기보다는 “vSphere 환경에서 가동중인 워크로드를 Azure에 이행”하는 것이 주요목적인 듯 하기 때문입니다.

 

위의 발표에 대해 2일후 VMware사에서도 발표를 했습니다만 뉘앙스가 다릅니다.

VMware – The Platform of Choice in the Cloud

Recently, Microsoft announced preview of VMware virtualization on Azure, a bare-metal solution that is stated to run a VMware stack on Azure hardware, co-located with other Azure services in partnership with VMware-certified partners. No VMware-certified partner names have been mentioned nor have any partners collaborated with VMware in engineering this offering.

This offering has been developed independent of VMware, and is neither certified nor supported by VMware.

 

내용인즉근 AWS처럼 두회사가 공동으로 서비스를 개발한 것이 아니고 마이크로소프트사가 단독으로 서비스를 제공하고 있기 때문에 VMware사의 인증도 받지않았으며 지원도 받을 수 없다는 것입니다. 흐음…

 

두 회사의 발표 내용을 정리하자면…

Azure에서도 베어메탈 기반의 vSphere 환경을 이용할 수 는 있다. 하지만 VMware사의 지원을 받을 수 없으니 서비스가 개시되어도 이행 목적이 아닌 실환경의 가동은 신중히 검토해야된다… 가 아닐까 싶네요.

 

#aws, #azure, #microsoft, #vmware, #vsphere

[VMware] vRealize Automation 7.3 (20)

은근슬쩍 vRA의 버전을 7.3으로 바꿨습니다. 🙂

 

(0) vRA 개요

(1) vRA 구성요소

(2) vRA 설치 – vRA어플라이언스

(3) vRA 설치 – IaaS서버

(4) vRA 초기설정 – 테넌트 작성

(5) 테넌트 구성 – AD

(6) 엔드포인트 작성

(7) 데이터 콜렉션과 패브릭 그룹 작성

(8) 머신 접두사와 네트워크 프로화일 작성

(9) 비지니스 그룹과 예약 작성

(10) 블루프린트 작성

(11) 서비스 카탈로그 작성

(12) 블루프린트의 요구

(13) 승인 정책의 설정

(14) 커스텀 속성(사용자 지정 속성)의 설정

(15) vRO 엔드포인트 작성

(16) NSX와의 통합

(17) 가상머신의 임포트

(18) 가상머신의 해제

(19) Nutanix 엔드포인트 작성

(20) vROps와의 통합

 

이번에는 vROps와의 통합에 대해서 소개를 하겠습니다.

 

아시다시피 vROps는 성능감시및 인프라의 수용능력이나 장애 예측을 제공하는 툴이죠. vROps와의 통합을 하므로써 vRA는 전개한 가상머신의 헬스 뱃지를 아이템 상에 표시를 할 수 있게됩니다. 이용자는 자신의 아이템 화면에서 가상머신의 건강상태를 한눈에 파악할 수 있죠. vROps는 vRA의 테넌트나 비지니스 그룹, 블루프린트 등의 오브젝트를 대쉬보드에 표시할 수 있게됩니다. 어느 테넌트, 어느 비지니스 그룹의 건강상태가 좋은지 나쁜지, 어떤 블루프린트가 인기가 있는지 등을 파악할 수 있죠.

 

vROps 6.5까지는 vRA를 모니터링하기 위해서는 관리팩을 설치해야되었습니다만, 6.6부터는 vSAN과 동일하게 vRA도 관리팩이 통합되었습니다. 따라서 관리팩을 설치할 필요없이 vRA 접속정보를 등록해주기만 하면 됩니다.

 

(20) vROps와의 통합

 

① vRA 포털에 테넌트 관리자로 접속을 하여 [관리] → [리소스의 재이용] 순으로 클릭을 합니다.

 

② [메트릭 프로바이더]로부터 “vRealize Operations Manager 엔드포인트”를 선택, 다음의 vROps 정보를 입력합니다.

  • URL : https://vROps 서버/suite-api
  • 유저명 : vROps 관리자 계정
  • 패스워드 : vROps 관리자 패스워드

 

③ [접속 테스트]를 실행하여 정상적으로 접속되는 것을 확인후 [보존]을 클릭합니다.

 

④ vROps의 증명서를 신뢰해주시면 설정은 끝입니다.

 

⑤ vROps로부터 가상머신의 헬스 정보가 표시됩니다. 위의 화면처럼 가상머신을 디플로이하면 [리소스의 재이용]의 [디플로이] 메뉴에 헬스 정보가 표시되기 시작합니다.

 

⑥ 이번에는 이용자로 접속을 해봤습니다. 자신의 아이템을 선택하면 화면 오른쪽 하단에 가상머신의 건강상태를 알 수 있는 헬스 뱃지가 표시되는 것을 확인할 수 있습니다.

 

이걸로 vROps와의 통합은 끝입니다. 간단하죠? vROps쪽에서 vRA의 오브젝트를 모니터링하기 위해서는 vROps에서 vRA의 솔루션을 설정해줘야 됩니다. 이건 나중에 소개를 하도록 하죠. 🙂

 

#6-6, #7-3, #%ed%86%b5%ed%95%a9, #vmware, #vrealize-automation, #vrealize-operations-manager, #vrops

[VMware] vRealize Suite Lifecycle Manager(vRSLCM) 구성

이번에는 설치한 vRSLCM상에 기존 환경의 vRealize 제품을 임포트해 보겠습니다. 검증에 이용하는 환경에는 현재 vRA뿐이므로 일단 vRA만 임포트를 하겠습니다.

 

결론부터 말하자면 의외로 간단히 되었습니다. 이번 검증에서는 설치 마법사를 통한 임포트였습니다만, 구성 화일을 작성하면 훨씬 쉽게 임포트를 할 수 있을거 같네요.

 

① “홈”메뉴로 부터 “Create Environment”를 클릭합니다.

 

② 설치 방법은 “설치 마법사”를 선택했습니다.

 

③ 우선 작성할 환경을 구성합니다.

  • Data Center : 작성해둔 데이터 센터
  • Environment Type : ‘Development’, ‘Test’, ‘Staging’, ‘Production’ 중 적당한 타입을 선택
  • Environment Name :  알기쉬운 환경 이름을 입력
  • Administrator Email : 관리자의 메일 어드레스
  • Default Password : 작성(또는 임포트할) 제품의 패스워드

 

④ EULA에 동의후, 제품을 선택합니다. 이번에는 기존 vRA의 임포트이므로 vRealize Automation의 체크, “Import”를 선택후 “Create Environment”를 클릭합니다.

 

⑤ 설치 마법사가 표시됩니다. 먼저 ‘EULA’에 동의후 “NEXT”를 클릭합니다.

 

⑥ vRA의 라이센스를 선택합니다.

 

⑦ 임포트할 인프라 정보를 입력합니다.

 

⑧ 네트워크 정보를 입력후…

 

⑨ 증명서 구성도 해주고…

 

⑩ 임포트할 vRA의 정보를 입력합니다.

 

⑪ 최종적으로 입력한 모든 정보를 확인하기 위해 “PRE-VALIDATE CONFIGURATION”을 클릭, 사전 확인이 성공했다면 “SUBMIT”을 클릭합니다.

 

⑫ 기존 환경의 vRA의 임포트 상태가 단계별로 확인이 가능합니다.

 

⑬ 임포트가 성공했다면 “Manage Environment”에 환경의 타일이 표시됩니다. “VIEW DETAILS”를 클릭해보겠습니다.

 

⑭ 임포트한 vRA의 버전 정보는 물론 IP 어드레스나 컴포넌트의 정보까지 확인을 할 수 있습니다.

 

⑮ 타일로 돌아와 상단의 메뉴를 보면 컴포넌트의 추가나 다른 제품과의 버전 호환성 확인, 업그레이드 등이 가능한 것을 확인할 수 있습니다.

 

여기까지가 기존 vRealize 제품의 임포트에 대한 소개였습니다.

환경을 임포트해보니 vRSLCM의 장점이 보이네요. 등록한 환경의 vRealize 제품에 대한 컴포넌트의 추가나 스냅숏, 버전 호환성 매트릭스, 업그레이드가 한 화면에서 가능한 것은 훌륭하네요. 개인적으로는 이 부분만으로도 vRSLCM을 설치하겠습니다. 흐흐

 

#%ea%b5%ac%ec%84%b1, #%ec%84%a4%ec%b9%98, #vmware, #vrealize, #vrealize-suite-lifecycle-manager, #vrslcm

[VMware] vRealize Suite Lifecycle Manager(vRSLCM) 설치

지난달인 10월 조용히(다른 프로덕트에 비하면…) GA된 제품이 있습니다.

vRealize Suite Lifecycle Manager(vRSLCM)가 바로 그것입니다.

 

이 vRSLCM가 어떤 제품인가하면 “vRealize 제품의 라이프사이클을 관리”하는 제품입니다.

솔직히 인프라 관리 제품인 vRealize군은 ESXi나 Horizon 등과 비교하면 그다지 빈번히 전개를 하는 제품은 아니죠. 중규모 이상에서도 각 제품을  1대 전개하면 충분한 경우가 많죠.

하지만…

 

vRSLCM을 도입하면 이런 장점이 있습니다.

    • vRealize 제품을 간단히 도입할 수 있습니다.
    • vRealize 제품을 간단히 업그레이드할 수 있습니다.
    • vRealize 제품의 버전을 통합관리할 수 있습니다.
    • vRealize 제품의 라이프사이클을 한 곳에서 관리할 수 있습니다.

라고 VMware사는 말하고 있죠. 🙂

 

그렇긴하지만, 위의 내용을 실현하기위해 vRSLCM를 따로 도입해야되는건… 솔직히… 번거롭습니다.

따라서 이제까지 소개한 제품과는 달리 적극적으로 도입을 권장하지는 않겠습니다. 흐흐 우선은 이런 제품가 릴리스되었다.라는 정도로 읽어주시면 되겠습니다.

 

그럼 이제부터 몇회에 걸쳐 vRSLCM의 도입과 이용방법에 대해서 간단히 소개를 하겠습니다.

 

도입전에 vRSLCM는 vRealize Suite 2017의 모든 에디션에 포함되어있습니다.(vRealize Suite 7.0에는 포함되어있지 않습니다) 또한 현시점에서는 관리 가능한 vRealize 프로덕트는 다음의 4 프로덕트입니다.

    • vRealize Automation
    • vRealize Operations
    • vRealize LogInsight
    • vRealize Bussiness for Cloud

vRealize Network Insight는 대상외입니다.

 

① vRSLCM의 ova 화일을 다운로드하여 가상 어플라이언스로 vSphere 환경에 임포트합니다.

 

② 임포트가 완료되었다면 vRSLCM를 기동하여 다음의 초기정보로 로그인합니다.

  • 로그인 계정 : admin@localhost
  • 디폴트 패스워드 : vmware

③ 패스워드를 변경합니다.

 

메뉴의 구성은 다음과 같습니다.

    • Home : 홈 대쉬보드
    • Create Environment : 관리할 환경의 신규설치 또는 기존 환경의 임포트
    • Manage Environments : Create Environment에서 작성/임포트한 환경의 관리
    • Manage Data Centers : 데이터센터의 작성과 vCenter의 등록
    • Requests : 조작(리퀘스트)의 상태 확인
    • Settings : vRSLCM의 설정(vRealize 프로덕트 전개용 관리자 설정, OVA리포지트리 구성, Identity Manager 설정, My VMware 설정, 로그, 증명성 등)

 

④ vRSLCM 전개후 최초로 하는 일은 Settings 메뉴에서 필요한 항목을 구성합니다. 제 경우는 검증 환경이므로 “OVA 구성”과 “My VMware”만을 구성했습니다.

또한 OVA는 My VMware로부터 다운로드하도록 설정을 했습니다.(OVA는 로컬 리포지트리나 NFS 환경을 준비해도 됩니다)

 

우선 My VMware의 계정을 등록합니다. 등록하면 해당 OVA를 당장 다운로드할 것인지 아닌지를 결정합니다.(전 아무생각없이 “Yes”를 클릭해버렸습니다.일단 다운로드가 시작되면 도중에 취소를 할 수 없는거 같네요…)

다운로드 상태는 “Requests”로부터 확인이 가능합니다.

 

⑤ OVA의 다운로드가 끝나면 “OVA 구성”으로부터 소스 로케이션을 “My VMware”를 선택합니다.

 

⑥ 다음에는 데이터센터 작성과 vCenter의 등록입니다.

여기서 작성하는 데이터센터는 vRSLCM에서 관리를 하기위한 정의입니다. 환경에 영향을 주는 것은 아닙니다.

“Manage Data Center” → “Add Data Center”를 클릭합니다. 알기쉬운 데이터센터 이름을 지정후 위치를 선택합니다.

 

⑦ “Manage vCenters” 탭을 선택하여 vCenter를 등록합니다.

    • Host Name : vCenter의 FQDN
    • User Name : vCenter의 로그인 계정
    • Password : vCenter의 로그인 패스워드
    • vCenter Type : 관리용 vCenter의 경우는 “Management”, 리소스 클러스터 관리용 vCenter의 경우는 “Payload”를 선택합니다.

 

등록한 vCenter로부터 데이터가 수집되는 상태는 “Requests”로부터 확인이 가능합니다.

 

이로써 vRSLCM의 도입과 초기 데이터센터의 등록은 끝입니다. 다음 회에는 기존 환경의 임포트에 대해서 소개를 하겠습니다.

 

#%ec%84%a4%ec%b9%98, #vmware, #vrealize, #vrealize-suite-lifecycle-manager, #vrslcm

[VMware] 인벤토리에 레플리카가 표시됨

얼마전 vSAN을 도입한 고객사에서 장애가 발생했습니다.

 

4 호스트의 소규모 구성이었습니다만 운없게 2 호스트가 1시간안에 멈춰버린거 같았습니다.(FTT=1임에도 불구하고 “접근불가” 상태의 가상머신이 많았기 때문이죠)

장애 발생후 호스트는 복구를 했으며 vSAN 클러스터의 헬스 상태나 오브젝트의 헬스 상태도 정상이었도 모든 가상머신도 정상적이었던거 같습니다.(표면적으로는 말이죠)

몇시간 뒤에 고객으로부터 연락을 받았습니다. 일부 리눅스 가상머신의 반응이 느려진거 같다고 하더군요. 아울러 이상하게도 가상머신에 로그인하여 명령어를 실행하면 일부 명령어가 먹히질 않는다고 하더군요.

 

다음날 직접 확인을 해봤습니다.

확실히 고객이 말한대로 더군요. SSH의 접속도 늦고 일단 접속이 되더라도 일부 명령어, 예를들어 sudo나 reboot 등을 실행하면 “버스 에러”란 메시지가 표시되더군요. 리눅스에 대해서 그다지 자세하질 않아서 검색을 해보니 “버스 에러”는 일반적으로 리소스가 부족하거나 일부 라이브러리가 파손되었을 경우 발생하는 것 같더군요. 장애 발생전과 후에 해당 가상머신의 리소스를 변경한 일은 없으니, 역시나 호스트 장애로 HA가 발동한 타이밍에 게스트 OS에 영향이 있던 것이 아닌가라는 잠정 결론의 분위기였습니다.

 

다행히도 문제가 발생한 가상머신은 수일전에 새롭게 작성한 것으로 최악의 경우 삭제를 해도 문제가 없다길래 일단 가상머신을 강제적으로 정지했습니다.

정지했더니 인벤토리에서 가상머신이 사라졌더군요. 대신 FTT=1로 생성된 레플리카가 표시되더군요. 이렇게 말이죠.

 

음… 호스트 장애로 HA가 발동한 타이밍에 레플리카가 인벤토리에 등록이 된 것일까요? 자세한 내용은 확인을 할 수가 없었습니다만, 인벤토리에서 레플리카를 삭제한 뒤에 가상머신을 인벤토리에 재등록 해주니 가상머신이 등록되었고 반응도 정상적으로 돌아왔으며 모든 명령어도 실행을 할 수 있게 되었습니다.

추축에 불과합니다만 레플리카가 인벤토리에 등록된 바람에 가상머신의 화일이 읽기 전용이 되어 명령어가 실행되지 않았던거 같네요… 쩝… 좀더 빨리 로그를 수집해서 지원부서에 돌리지 않은게 후회되네요.

 

#%eb%a0%88%ed%94%8c%eb%a6%ac%ec%b9%b4, #%ec%9e%a5%ec%95%a0, #vmware, #vsan

[VMware] 기존 스토리지에서 vSAN으로의 이행 가이드

얼마전 세계적으로 vSAN을 도입한 고객수가 10,000사를 넘었다는 소식을 들었습니다.

 

개인적인 경험으로도 개발 환경이나 검증 환경이 아닌 실환경에 도입을 하는 사례가 부쩍 늘었으며 SSD의 가격이 낮아진 때문인지 All Flash 모드가 주류를 이루고 있으며 기존 SAN 환경의 교체로써 vSAN을 선택하는 기업들도 늘고 있습니다.

 

이런 시기에 아주 도움이 될 가이드가 공개되었습니다.

 

Migrating to vSAN“이란 타이틀의 이 가이드는 기존 SAN 환경의 교체로써 vSAN을 이용할 경우 가상머신의 이행에 대한 다음과 같은 방법을 소개하고 있습니다.

  • VMFS로부터의 이행
  • NFS로부터의 이행
  • 비공유 RDM로부터의 이행
  • 공유 RDM로부터의 이행
  • 물리 서버로부터의 이행

 

vSAN 도입이나 이행을 고려중이신 관리자분들은 꼭 읽어보시길 권장합니다.

 

#%ea%b0%80%ec%9d%b4%eb%93%9c, #%ec%9d%b4%ed%96%89, #vmware, #vsan

[VMware] VMworld 2017의 자료 공개

올해 8월과 9월에 라스베이거스와 바르셀로나에서 열린 VMworld 2017의 제네럴 세션 동영상이 공개되었습니다.

Video On Demand – VMworld US

Video On Demand – VMworld Europe

 

또한 기술 관련의 세션인 브레이크아웃 세션 자료도 공개되었습니다.

(본 자료는 VMware R&D 부문에서 근무, 올해 VMware  관련 블로그 투표에서 1위를 차지한 William Lam씨가 공개를 한 것입니다)

VMworld US 2017 Breakout Sessions

VMworld Europe 2017 Breakout Sessions

 

내용이 많으니, 일단은 관심있는 자료를 중심으로 확인을 하시면 될거 같네요. 🙂

 

#%ec%9e%90%eb%a3%8c, #vmware, #vmworld-2017