펜타네스트님께서 질문해주신 내부에서 사용중인 VM을 disk 형태로 꺼내서 마이그레이션 하는방법입니다.
기본적으로 Proxmox에서 스냅샷을 사용하기위해서는 lvm(btrfs)이나 ZFS를 사용해야합니다. 이경우에 VM의 가상디스크는 자동으로 Data 볼륨에 마운트 되기때문에 실제로 그 파일의 경로를 찾을수는 없는데요.
아래 방법을 통해 디스크의 논리적 위치를 확인하고 qcow2 파일로 떨궈서 보관하는방법을 진행하겠습니다. 보관장소는 NAS의 NFS를 사용하거나 외장하드를 사용하거나 편하신대로 하시면 되며 저같은경우 예를들기위해 작성하는거라 기본 셋팅된 lvm-local에서 진행하겠습니다.
1. 사용하고있는 VM의 확인하기.
먼저 백업할 디스크가있는 VM의 설정 -> 하드웨어로 가서 하드디스크의 위치를 확인해줍니다.
여기서는 local-lvm:vm-103-disk-0 이 되겠네요.
2. qcow 파일로 변환하기.
그다음 Proxmox Host의 쉘로 접근한뒤에 백업을 할 디렉터리로 이동해주시고 아래명령어를 통해 해당 vm disk의 논리적 위치를 확인해줍니다.
pvesm path [VMdisk 경로]
경로는 /dev/pve/vm-103-disk-0이 되겠군요.
이제 백업할 디렉터리로 이동해주신뒤에 qemu-img 명령어를 통해 파일로 떨궈줍니다.
qemu-img convert -O qcow2 -f raw [VM-Disk경로] [output.qcow2]
명령어가 잘실행되면 아래처럼 파일이 잘떨어집니다.
3. 로컬로 내려받기 and 복구방법.
이제 winscp를 통해 로컬로 내려받으시거나 보관하시면되며 여기서는 간단히 복구 방법도 기술해보겠습니다.
이 장의 목표는 시스템 디스크 공간을 통합하고 스왑 파티션과 local-lvm 파티션 계정을 로컬 파티션에 통합하는 것입니다.
PVE와 함께 제공되는 Shell 기능을 엽니다.
다음과 같이하세요
pve에서 local-lvm 파티션 제거
lvremove pve/data
lvextend -l +100%FREE -r pve/root
볼륨 제거 여부 확인 [y/n] y를 입력하세요.
root@rh1288v3:~# lvremove pve/data 활성 논리 볼륨 pve/data를 제거하시겠습니까? [y/n]: y 논리 볼륨 "data"가 성공적으로 제거되었습니다. FREE -r pve/root 논리 볼륨 pve/root의 크기가 37.45GiB(9588 익스텐트)에서 101.82GiB(26067 익스텐트)로 변경되었습니다.resize2fs 1.47.0(2023년 2월 5일)파일 시스템 크기가 조정되었습니다./dev/mapper/pve-root는 /에 마운트됩니다. 온라인 크기 조정 필요old_desc_blocks = 5, new_desc_blocks = 13/dev/mapper/pve-root의 파일 시스템 길이는 이제 26692608(4k) 블록입니다.
Data Center-Storage-local-lvm을 클릭하고 제거를 클릭한 후 확인합니다.
pve와 함께 제공되는 스왑 파티션을 제거하십시오.
기본 스왑 파티션은 시스템 디스크에 생성되므로 시스템 디스크의 작동에 영향을 미치고 시스템 디스크의 수명을 소모하므로 삭제하는 것이 좋습니다.
(다음 기사에서는 Optane M10 16G를 스왑 캐시 디스크로 사용합니다)
쉘에 들어가서 다음 명령을 입력하십시오
swapoff -a
lvremove /dev/pve/swap
lvresize -l +100%FREE/dev/pve/root
예
root@RH1288V3:~# swapoff -a root@RH1288V3:~# lvremove /dev/pve/swap 활성 논리 볼륨 pve/swap을 제거하시겠습니까? [y/n]: y 논리 볼륨 "swap"이 성공적으로 제거되었습니다. root@RH1288V3:~# lvresize -l +100%FREE /dev/pve/root 논리 볼륨 pve/root의 크기가 101.82 GiB(26067 익스텐트)에서 109.82 GiB(28115 익스텐트)로 변경되었습니다. 논리 볼륨 pve/root의 크기가 조정되었습니다.
Proxmox에서가상 머신 내보내기 및 가져오기는 가상화된 환경을 관리하는 주요 작업 중 하나입니다. VM을 백업하든, 다른 노드로 마이그레이션하든, VM 이미지를 공유하든 관계없이 내보내기 및 가져오기 작업을 올바르게 수행하는 것이 중요합니다.
Proxmox에서 VM 내보내기 및 가져오기의 이점
Proxmox에서 VM 내보내기 및 가져오기를 수행할 때 얻을 수 있는 네 가지 주요 이점은 다음과 같습니다.
유연성: Proxmox는 서로 다른 Proxmox 호스트 간에 가상 머신을 쉽게 마이그레이션할 수 있도록 하여 뛰어난 유연성을 제공합니다. 필요에 따라 VM 리소스를 재할당하고 관리할 수 있습니다.
단순성: Proxmox는 직관적인 사용자 인터페이스와명령줄 도구를제공하므로 Proxmox VM 내보내기 및 가져오기 작업을 쉽게 사용할 수 있습니다. 하나의 Proxmox 환경에서 다른 환경으로 VM을 쉽게 내보내고 내보낸 VM 파일에서 VM을 빠르게 가져올 수 있습니다.
데이터 보안: Proxmox VM을 내보내면 안정적인 백업을 생성하여 VM의 중요한 데이터를 효과적으로 보호할 수 있습니다. 필요한 경우 Proxmox VM 가져오기 작업을 통해 빠르고 제어된 복구가 가능합니다.
노드 마이그레이션 및 부하 분산: Proxmox VM을 내보내면 Proxmox 클러스터의 노드를 쉽게 마이그레이션할 수 있습니다. 이는 로드 밸런싱, 리소스 최적화, 유지 관리 및 업그레이드에 유용합니다. 더 나은 리소스 할당 및 관리를 위해 필요한 경우 Proxmox VM을 다른 노드로 내보내고 Proxmox VM을 대상 노드로 가져올 수 있습니다.
Proxmox VM을 내보내고 가져오는 방법은 무엇입니까?
WinSCP는Proxmox Virtual Environment (Proxmox VE) 에서 가상 머신을 내보내고 가져오는 프로세스를 단순화하는 강력한 그래픽 파일 전송 도구입니다 .전체 프로세스에는 Proxmox VM 백업, 나중에 사용하기 위해 VM 백업 내보내기, 필요할 때 VM 가져오기가 포함됩니다.
2. 원격 디렉터리를 백업 디렉터리로 전환합니다(로컬 저장소의 백업 디렉터리는/var/lib/vz/dump입니다 ) > VM 백업 파일 찾기 > 마우스 오른쪽 버튼을 클릭하여 다운로드
3. vma 백업 파일을 로컬 디렉터리에 다운로드하고확인을 누르세요.
백업 업로드
1.새 탭을클릭 하고 위의 로그인 단계를 반복하여 다른 노드에 로그인합니다.
2. 로컬 디렉터리를 방금 다운로드하고 백업한 디렉터리로 전환하고 > VM을 마우스 오른쪽 버튼으로 클릭한 후 >업로드를 선택합니다.
3. 업로드 경로를 입력하십시오: /var/lib/vz/dump/. (로컬 저장소의 백업 디렉토리는:/var/lib/vz/dump)>확인을 클릭하십시오.
WinSCP에서 백업이 성공적으로 업로드되었음을 확인할 수 있습니다.
가상 머신 복구
1. Proxmox VE에서 다른 노드에 로그인 > 적절한 업로드 저장소로 전환(로컬)
2. 방금 업로드한 vma 백업 파일 선택 >복원클릭 > 관련 복원 매개변수 구성 > 복원 버튼 누르기
여기에서 복구가 성공적으로 완료되었음을 확인할 수 있습니다.
Vinchin을 사용하여 Proxmox VM을 백업하고 복원하는 방법은 무엇입니까?
WinSCP를 사용하여 Proxmox VM을 가져오고 내보내는 것은 간단한 방법입니다. 그러나 업무상 중요한 환경에서는 데이터 무결성과 신뢰성을 보장하기 위해 전문적인 백업 솔루션을 권장합니다.
데이터 백업 솔루션이 필요하든 가상 머신 마이그레이션 솔루션이 필요하든Vinchin Backup & Recovery 는 이상적인 선택입니다. 전문적인 백업 및 마이그레이션 솔루션으로서 Proxmox, VMware, Hyper-V, XenServer, XCP-ng, oVirt, RHV 및 기타 VM 플랫폼을 포함한 광범위한 가상 환경에 널리 적용 가능합니다.
에이전트 없는 백업 기술, 즉각적인 복구 및V2V 마이그레이션 지원을 통해 Vinchin Backup & Recovery는 가상화된 환경에서 중요한 데이터를 포괄적으로 보호하고 효율적으로 관리하는 데 전념하고 있습니다.
Vinchin Backup & Recovery의 작동은 몇 가지 간단한 단계만으로 매우 간단합니다.
Proxmox에서 가상 머신 내보내기 및 가져오기를 이해하는 것은 가상화된 환경을 효과적으로 관리하는 데 중요합니다. WinSCP는 중요한 비즈니스 요구 사항에 있어 작동 용이성을 제공하는 반면, Vinchin 백업 및 복구는 데이터 무결성과 신뢰성을 보장하는 전문가급 솔루션을 제공합니다.
이번에는 Proxmox의 핵심기능중 하나인 Cluster입니다. ESXi에서 vMotion으로 할수있는 데이터센터에서 데이터센터로 노드간 VM이동등 서버여러대의 관리부터 각종 기능까지 사용할 수 있는 좋은 기능입니다.
Proxmox Cluster란?
pvecm 를 사용하여 새 클러스터를 만들고, 노드를 클러스터에 가입하고, 클러스터를 떠나고, 상태 정보를 얻고, 기타 다양한 클러스터 관련 작업을 수행할 수 있습니다. Proxmo x C 클러스터 파일 시스템 ( " pmxcfs ")은 클러스터 구성을 모든 클러스터 노드에 투명하게 배포하는 데 사용됩니다.
노드를 클러스터로 그룹화하면 다음과 같은 이점이 있습니다.
중앙 집중식 웹 기반 관리 다중 마스터 클러스터: 각 노드가 모든 관리 작업을 수행할 수 있습니다. corosync 를 사용하여 모든 노드에서 실시간으로 복제되는 구성 파일 저장을 위한 데이터베이스 기반 파일 시스템인 pmxcfs 사용 물리적 호스트 간에 가상 머신 및 컨테이너의 손쉬운 마이그레이션 빠른 배포 방화벽 및 HA와 같은 클러스터 전체 서비스
쉽게말해 여러 서버를 웹 사이트에 하나로 통합하여 관리할 수 있다는 뜻입니다. 단순히 서버의 상태만 볼수있는게 아닌 각 VM의 가상머신 LXC 컨테이너등의 생성/삭제 등등 모두 가능합니다
가장 핵심기능은 노드간 가상 머신 및 컨테이너의 복제입니다. 노드1에서 사용하다가 노드2로 옮길 수 있고 뭐 그런거죠 ㅎㅎ
여기서는 간단하게 Proxmox에서 클러스터를 만들고 노드를 가입시켜보겠습니다.
테스트환경
Proxmox 7.1-7 2대
Cluster 생성하기
클러스터 생성은 매우 간단합니다.
이렇게 클릭 두번으로 클러스터 생성은 끝납니다 ㅎㅎ
클러스터 가입하기
이제 만든 클러스터의 가입정보를 눌러주세요. 클러스터의 가입정보를 가지고 노드의 클러스터 가입이 가능합니다.
이제 가입하고자 하는 노드에서 클러스터 가입을 누른뒤에 위 정보를 복붙해주면
아래처럼 피어주소가 나오며 연결하는 노드의 PW를 입력 후 가입을 누르면 클러스터 가입이 됩니다. *주의할점은 가입하는 노드에 VM이 있으면 가입이 불가능합니다.
domain skbroadband //skbroadband를 사용하고있기에 이렇게 적어주는 것
search skbroadband
nameserver [해당통신사의 DNS주소]
/etc/network/interfaces
auto lo
iface lo inet loopback
iface [인터페이스 이름] inet manual
auto [가상 인터페이스 이름]
iface [가상 인터페이스 이름] inet dhcp //dhcp로 설정할것
bridge-ports [인터페이스 이름]
bridge-stp off
bridge-fd 0
오늘 빠른 것은 NIC를 Promxox VE의 가상 머신으로 전달하기 위한 매우 간단한 자습서입니다.통과 NIC는 하이퍼바이저 오버헤드를 방지하고 가상 NIC와 pfSense 및 OPNsense와 같은 일부 방화벽 어플라이언스를 사용하여 호환성 문제를 해결하는 데 도움이 될 수 있습니다.단점은 NIC가 SR-IOV를 지원하지 않는 한 이 구성에서 공유 장치가 아닐 가능성이 높다는 것입니다.
1단계: BIOS 설정
가장 먼저 해야 할 일은 시스템에서 IOMMU 기능을 켜는 것입니다.이를 위해서는 CPU와 플랫폼이 해당 기능을 지원해야 합니다.오늘날 대부분의 플랫폼은 IOMMU를 지원하지만 일부 이전 플랫폼은 지원하지 않습니다.Intel 플랫폼에서는 이를 "VT-d"라고 합니다.Intel Virtualization Technology for Directed I/O(VT-d)의 약자입니다.
Intel VT D를 활성화하여 IOMMU 작동
AMD 플랫폼에서는 AMD-Vi를 옵션으로 볼 수 있습니다.때로는 다른 시스템 펌웨어에서 IOMMU를 볼 수 있습니다.활성화하려는 옵션입니다.
물론 이것은 Proxmox VE이므로 BIOS에 있는 동안에도 기본 가상화가 켜져 있는지 확인하고 싶을 것입니다.또한 이 가이드를 사용하는 사람들에게 주요 초점이 될 것이므로 시스템에 방화벽/라우터를 만드는 경우 일반적으로 AC 전원 설정을 "항상 켜짐" 또는 "마지막 상태"로 설정하는 것이 좋습니다. 정전이 발생하면 네트워크가 즉시 복구됩니다.
다음으로 GRUB 또는 systemd를 부트로더로 사용하고 있는지 확인해야 합니다.
2단계: GRUB 또는 systemd를 사용 중인지 확인
이것은 새로운 단계이지만 최신 버전의 Proxmox VE를 설치하고 ZFS를 루트로 사용하는 경우(향후 확장될 수 있음) GRUB이 아닌 systemd를 사용하고 있을 가능성이 높습니다.설치 후 이 명령을 사용하여 사용 중인 것을 확인합니다.
efibootmgr -v
"File(\EFI\SYSTEMD\SYSTEMD-BOOTX64.EFI)"와 같은 내용이 표시되면 GRUB이 아닌 systemd를 사용하고 있는 것입니다.
또 다른 이점은 부팅할 때 GRUB이 포함된 블루 스크린과 OS로 들어가기 직전에 여러 옵션이 표시되면 GRUB을 사용하고 있는 것입니다.다음과 같은 내용이 표시되면 systemd를 사용하고 있는 것입니다.
Proxmox VE 시스템 부팅 메뉴
이는 많은 이전 가이드가 GRUB를 사용하고 있기 때문에 중요하지만 systemd를 사용하고 GRUB 지침을 따르는 경우 NIC 패스스루에 필요한 IOMMU를 활성화하지 않습니다.
3a단계: GRUB를 사용하여 IOMMU 활성화
GRUB가 있고 현재 대부분의 설치가 있는 경우 구성 파일을 편집해야 합니다.
nano /etc/default/grub
Intel CPU의 경우 quiet intel_iommu=on을 추가합니다.
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"
AMD CPU의 경우 quiet amd_iommu=on을 추가합니다.
GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on"
다음은 배치할 위치를 보여 주는 인텔 라인이 있는 스크린샷입니다.
Proxmox VE Nano Grub Quiet Intel Iommu On
선택적으로IOMMU PT 모드를 추가할 수도 있습니다.PT 모드는 패스스루가 사용될 때 시스템의 다른 PCIe 장치의 성능을 향상시킵니다.이것은 Intel 및 AMD CPU에서 작동하며 iommu=pt입니다.다음은 추가될 AMD 버전이며 인텔 스크린샷은 다음과 같습니다.
이전에는 CLI 편집을 통해 통과 NIC를 VM에 추가했습니다.이제 Proxmox는 PCIe 장치 ID와 장치 공급업체 및 이름을 가져옵니다.이렇게 하면 시스템에서 NIC를 매우 쉽게 선택할 수 있습니다.많은 온보드 NIC에 대한 한 가지 좋은 점은 NIC가 시스템에 레이블이 지정되어 있기 때문에 물리적 순서는 순차적인 MAC 주소와 PCIe ID가 있음을 의미해야 한다는 것입니다.위의 0000:01:00.0에서 첫 번째 NIC(ETH0)입니다.장치 0000:02:00.0은 두 번째 등입니다.
Hunsn 4포트 2.5GbE I225 인텔 J4125 방화벽 박스 NIC 포트
이 시점에서 이미 완료되었습니다.OPNsense와 pfSense 모두에서 이 작업이 수행되고 프로세스가 매우 유사하다는 것을 알 수 있습니다.좋은 점은 이렇게 하면 pfSense/OPNsense가 가상화된 NIC 장치를 사용하는 대신 NIC에 직접 액세스할 수 있다는 것입니다.
pfSense 및 OPNsense를 사용하는 IOMMU에 대한 몇 가지 참고 사항
이러한 NIC가 할당된 후 염두에 두어야 할 몇 가지 주요 고려 사항이 있습니다.
통과 NIC를 사용하면 VM이 라이브 마이그레이션되지 않습니다.VM이 PCIe 위치에서 물리적 NIC를 기대하는데 이를 얻지 못하면 문제가 됩니다.
개념적으로 SR-IOV라는 고급 기능이 있어 NIC를 통해 여러 장치로 전달할 수 있습니다.pfSense 및 OPNsense 어플라이언스에서 일반적으로 볼 수 있는 저가형 i210 및 i225-V NIC의 경우 개념적으로 NIC를 VM 전용으로 지정합니다.즉, 다른 VM은 NIC를 사용할 수 없습니다.다음은 OPNsense NIC에도 할당된 NIC를 사용하는 pfSense VM(600)이 있는 예입니다.OPNsense를 시작하려고 하면 오류가 발생합니다.Proxmox VE GUI를 사용하면 두 VM이 꺼져 있는 경우 두 VM에서 패스스루를 구성할 수 있지만 한 번에 하나만 전용 NIC에서 켜고 활성화할 수 있습니다.
Proxmox VE 웹 GUI NIC가 이미 pfSense에 할당된 경우 OPNsense용 두 번째 VM에 할당됨
이전 하드웨어에는 IOMMU 기능이 없을 수 있습니다.최신 하드웨어에는 IOMMU와 ACS가 모두 있으므로 대부분의 최신 플랫폼에서는 PCIe 장치를 쉽게 분리하고 VM 전용으로 사용할 수 있습니다.이전 하드웨어에서 때때로 PCIe 장치가 그룹화되는 방식은 이 예에서와 같이 NIC를 다른 VM에 개별적으로 통과시키려는 경우 문제를 일으킵니다.
동일한 VM의 전용 통과 NIC와 함께 브리지에서 두 가상 NIC를 모두 활용할 수 있습니다.
1GbE 속도에서 통과는 가상화된 NIC를 사용할 때와 큰 차이가 없습니다.25GbE/100GbE 속도에서는 매우 큰 차이가 됩니다.
DPU에대해 논의할 때주요 차이점 중 하나는 DPU가 가상 네트워크 포트를 물리적 고속 포트에 브리징하는 것과 같은 기능을 처리할 수 있으며 호스트 CPU가 아닌 DPU에서 모두 발생한다는 것입니다.
이것은 베어 메탈 설치보다 설정하는 데 시간이 오래 걸리고 pfSense 또는 OPNsense 설치에 복잡성을 추가하는 영역입니다.이점은 재부팅과 같은 작업을 수행하는 것이 일반적으로 가상 머신에서 훨씬 빠르다는 것입니다.주요 변경 사항이 있는 경우 pfSense 또는 OPNsense 이미지의 스냅샷을 찍을 수도 있습니다.
Proxmox VE 관리 및 기타 VM 기능을 위해 시스템에 하나 이상의 NIC를 추가하는 것이 좋습니다.모든 NIC에 대한 패스스루를 사용하여 VM을 방화벽화하는 경우 시스템 NIC가 없습니다.
이것은 완전하지는 않지만 도움이 되기를 바랍니다.
마지막 말
이것은 pfSense, OPNsense 또는 다른 솔루션을 가상화할 때 Proxmox VE에서 PCIe 패스스루 NIC를 설정하는 빠른 가이드입니다.2017년 또는 2020년 이후에 만들어진 최신 하드웨어에 더 적합하므로 이전 시스템을 사용하는 경우 더 많은 조정이 필요할 수 있습니다.이것은 Intel과 같은 회사가 시장에서 자사 칩의 세분화에 사용했던 기능이었지만 요즘에는 대부분 VT-d를 지원할 것입니다.
오랜만에 최신버전으로 업데이트 해보려니 용량이 모자란다는 메시지가 나오고, 32기가가 넘어야 된다고 하네요.
클린 설치하려니 막막해서 이곳 고수님들께 여쭤봅니다.
질문1) 혹시 ESXi 부팅용 USB도 복사해서 부팅시킬 수 있나요?
질문2) (가능하다면) 일반적인 usb 클론 툴로 가능한가요? 아니면 혹시 추천해주실만한 어플리케이션이 있는지 여쭤봅니다.
답변 : ESXi Configuration 백업 후에 32GB 이상의 SD(다른 저장매체에 해도 됨)에 동일 버전으로 재 설치, 그리고 복원 하시면 됩니다. 주의 사항으로는 Build 버전까지 동일 한 버전으로 재 설치 하셔야 하며, 기존에 추가 등록한 VIB가 있는 경우에는 별도로 수동 설치 해야 합니다.
ESXi에 SSH으로 접근 후에 1. vim-cmd hostsvc/firmware/sync_config 실행 2. vim-cmd hostsvc/firmware/backup_config 실행. 3. http://Host_FQDN/downloads/xxxxxxxxxxx/configBundle-xx.xx.xx.xx.tgz 다운로드 4. 재 설치. 5.vim-cmd hostsvc/maintenance_mode_enter 으로 유지보수 모드 진입 6.다운로드한 configBundle-xx.xx.xx.xx.tgz 업로드 7.vim-cmd hostsvc/firmware/restore_config /backup_location/configBundle-xx.xx.xx.xx.tgz 실행으로 복원 그리고 재부팅.
이번편에서는 ESXi를 좀더 효율적으로 사용하기위한 RDM(Raw Device Mapping)을 사용하는 방법에 대해 포스팅해보도록 하겠습니다.
RDM이란 ESXi에서 사용이 가능한 원시 디스크를 의미합니다. 원시디스크는 디스크를 데이터스토어로 만들지않고 날것(?) 그대로 저장장치로 사용해서 가상머신에 붙이는걸 의미합니다.
이런 RDM을 사용하게되었을때 이점은 데이터스토어의 vmdk파일처럼 분리되어있지 않기때문에헤놀 -> 시놀, 시놀 -> 헤놀의 과정을 거쳤을때 불필요한 여러번의 과정을 줄여줍니다.
HDD 장치 자체를 가상머신에 매핑해주기때문에 시놀로지에서 사용하던 HDD를 ESXi에 꽂고 RDM으로 매칭후 헤놀을 만들게 되면 시놀로지에서 사용하던 그대로 붙게되는것 입니다.
ESXi SSH 사용 설정하기
RDM을 설정하기위해서는 ESXi에 SSH로 콘솔을 붙어야하기 때문에 SSH 활성화를 먼저 해주겠습니다.
접속프로그램은 Putty를 사용해서 붙겠습니다.
계정은 ESXi 웹 콘솔 접근 계정과 동일합니다.
RDM 적용 디스크 확인
이제 RDM을 적용할 디스크를 확인할 차례입니다.
ls /dev/disks/ -l명령어로 디스크 목록을 볼 수 있습니다. 명령어 결과에서 심볼릭링크로 되어있으며 뒤에 숫자가 없는걸 기록해주세요. 아래의 경우vml.01000000002020202020202020202020205a44453252305837535431303030
RDM 적용하기
RDM도 원시 디스크를 -> vmdk 형식으로 링크화(?)시켜서 저장하는것이기 때문에 데이터스토어 저장되는데 저는 기본 datasotre1에 RDM이라는 폴더에 만들어보겠습니다.
vmkfstools -r /vmfs/devices/disks/[디스크이름] /vmfs/volumes/[데이터스토어이름]/[디렉토리]/[생성할RDM이름].vmdk -a lsilogic
위 명령어가 기본인데 제 기준으로 작성해보겠습니다.
디스크 이름 : vml.01000000002020202020202020202020205a44453252305837535431303030 데이터스토어 이름 : datastore1 디렉토리 : RDM RDM이름 : Xpenology.vmdk
이걸 명령어로 나타내면 아래와 같습니다.
vmkfstools -r /vmfs/devices/disks/vml.01000000002020202020202020202020205a44453252305837535431303030 /vmfs/volumes/datastore1/RDM/Xpenology.vmdk -a lsilogic
그럼 이렇게 vmdk 파일이 생성되게 되고 VM 생성시에 기존 하드 디스크를 사용하면 자동으로 붙게됩니다.
"서비스형(as-a-Service)"이라는 용어는 제3사에서클라우드 컴퓨팅서비스를 제공한다는 의미입니다. 따라서 사용자는 코드, 고객 관계 관리와 같은 더 중요한 업무에 집중할 수 있습니다. 각 유형의 클라우드 컴퓨팅을 활용하면 관리해야 할 온프레미스 인프라가 지속적으로 감소합니다.
온프레미스 IT 인프라를 관리할 책임은 대부분 사용자와 관리자에게 있습니다. 하드웨어와 소프트웨어가 모두 온프레미스에 위치하는 경우, 필요에 따라 각 구성 요소를 관리, 업데이트 및 교체하는 업무는 사용자 및 사용자 팀이 수행해야 합니다. 클라우드 컴퓨팅을 사용하면 인프라의 단일, 여러 또는 모든 부분을 제3사가 관리하도록 할당하여 다른 중요한 사안에 집중할 수 있습니다.
클라우드 컴퓨팅 서비스는 서비스로서의 인프라(Infrastructure-as-a-Service, IaaS), 서비스로서의 플랫폼(Platforms-as-a-Service, PaaS), 서비스로서의 소프트웨어(Software-as-a-Service, SaaS)의 3가지 기본 유형에 해당하는 서비스로서의 클라우드 컴퓨팅 옵션을 제공하며, 관리 수준이 저마다 다릅니다.
이 글에서는 각 모델 유형, 장점 및 그러한 유형의 일부 또는 전체를 사용하여 요구 사항을 충족하는 클라우드 컴퓨팅 환경을 구축하는 방법에 대해 알아봅니다. 또한, 쉽게 이해할 수 있도록 각각의 몇 가지 예도 알아봅니다.
IaaS
서비스로서의 인프라 또는IaaS는 온프레미스 인프라에서 한층 발전한 유형입니다. 이는 종량제 서비스로, 필요한 경우 제3사가 스토리지와 가상화와 같은 인프라 서비스를 인터넷을 통해 클라우드로 제공합니다.
사용자는 운영 체제 및 데이터, 애플리케이션, 미들웨어 및 런타임을 담당하고 제공업체는 사용자가 필요로 하는 네트워크, 서버, 가상화 및 스토리지의 관리와 액세스를 담당합니다.
제공업체가 사용자를 대신해 온사이트 데이터센터를 유지관리하거나 업데이트합니다. 대신, 사용자는 애플리케이션 프로그래밍 인터페이스(API) 또는 대시보드를 통해 인프라에 액세스하고 이를 제어합니다.
IaaS는 필요한 구성 요소만 구매하고 필요에 따라 확장 또는 축소할 수 있는 유연성을 제공합니다. IaaS는 간접비가 낮고 유지관리 비용이 들지 않는 매우 경제적인 옵션입니다.
IaaS는 개발 및 테스트 환경의 구축 및 제거가 빠르고 유연하다는 장점이 있습니다. 사용자는 개발 환경에서 구축해야 할 인프라만 사용하고 필요에 따라 확장 또는 축소하며, 개발이 완료되면 사용을 중단하고 사용량에 대한 비용만 지불합니다.
IaaS의 주요 단점은 제공업체의 보안 문제 가능성, 제공업체가 여러 클라이언트와 인프라 리소스를 공유해야 하는 멀티 테넌트 시스템 및 서비스 신뢰성입니다. 탄탄한 업력과 평판을 보유한 신뢰할 수 있는 제공업체를 선택하면 이러한 단점을 방지할 수 있습니다.
AWS, Microsoft Azure, Google Cloud와 같은 퍼블릭 클라우드 공급업체가 IaaS의 예시입니다.
PaaS
서비스로서의 플랫폼(PaaS)은 전체 온프레미스 인프라 관리가 조금 더 발전한 형태입니다. PaaS에서는 제공업체가 자체 인프라에서 하드웨어와 소프트웨어를 호스팅하고 이러한 플랫폼을 사용자에게 통합 솔루션, 솔루션 스택 또는 인터넷을 통한 서비스로 제공합니다.
주로 개발자와 프로그래머에게 유용한 PaaS는 보통 해당 프로세스와 관련된 인프라 또는 플랫폼을 구축하고 유지관리할 필요 없이 사용자가 자체 애플리케이션을 개발, 실행 및 관리할 수 있도록 해줍니다.
사용자는 애플리케이션 코드를 작성, 빌드, 관리하지만 소프트웨어 업데이트 또는 하드웨어 유지관리와 같은 번거로움이 사라집니다. 빌드 및 배포를 위한 환경이 사용자에게 제공됩니다.
PaaS는 개발자가 프레임워크를 개발하여 지속적으로 웹 기반 애플리케이션을 빌드 및 커스터마이징할 수 있는 방법입니다. 개발자는 기본 소프트웨어 구성 요소를 활용하여 자체 애플리케이션을 개발할 수 있으므로 자체적으로 작성해야 하는 코드의 양을 줄일 수 있습니다.
PaaS의 몇 가지 예로는 AWS Elastic Beanstalk, Heroku 및Red Hat OpenShift가 있습니다.
SaaS
서비스로서의 소프트웨어(SaaS) 또는 클라우드 애플리케이션 서비스는 가장 포괄적인 형식의 클라우드 컴퓨팅 서비스로, 모든 애플리케이션은 제공업체가 관리하며 웹 브라우저를 통해 제공됩니다.
제공업체가 소프트웨어 업데이트, 버그 수정 및 기타 일반 소프트웨어 유지관리 작업을 처리하며, 사용자는 대시보드 또는 API를 통해 애플리케이션에 연결합니다. 개별 시스템에 소프트웨어를 설치할 필요가 없으며 프로그램에 대한 그룹 액세스가 더욱 원활하고 안정적입니다.
Outlook이나 Gmail과 같은 웹 기반 서비스가 지원되는 이메일 계정이 있다면 어디서든 컴퓨터에서 계정에 로그인하고 이메일을 수신할 수 있다는 점에서 SaaS라는 형태가 이미 익숙할 것입니다.
SaaS는 소프트웨어 설치 및 업데이트를 처리할 인력이나 대역폭이 없으며 최적화가 그다지 필요하지 않거나 주기적으로 사용되는 애플리케이션이 있는 소기업에 매우 유용한 옵션입니다.
SaaS로 시간과 유지관리를 줄일 수 있지만 제어, 보안 및 성능과 관련한 비용이 소요되므로 신뢰할 수 있는 제공업체를 선택하는 것이 중요합니다.
Dropbox, Salesforce, Google Apps 및Red Hat Insights가 SaaS의 몇 가지 예입니다.
다운로드 받은 파일에 실행 권한을 준다. $ chmod +x VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle
관리자 권한으로 다운받은 파일을 실행한다. $ sudo VMware-Workstation-Full-16.1.2-17966106.x86_64.bundle
설치시 혹은 설치 후에 커널관련 오류가 발생하면 다음과 같이 처리한다. 사실 이 글을 남기는 궁극적인 목적이다. (커널헤더가 맞지 않는다는 오류) $ sudo apt-get install build-essential linux-headers-$(uname -r)
VMware Tools 설치 시 커널헤더를 찾지 못하는 오류를 해결하려면 아래와 같이 심볼릭 링크를 해주면 된다. $ sudo ln -s /usr/src/linux-headers-$(uname -r)/include/generated/uapi/linux/version.h /usr/src/linux-headers-$(uname -r)/include/linux/version.h