VMware ESXi™ 5.5 업데이트 1 | 2014년 3월 11일 | 빌드 1623387

마지막 업데이트 날짜: 2014년 3월 25일

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • VMware Virtual SAN Virtual SAN 5.5는 vSphere Hypervisor를 확장하여 서버측 자기 디스크(HDD) 및 SSD(Solid State Drive)를 풀링하는 새로운 하이퍼바이저 통합 스토리지 계층입니다. Virtual SAN에서는 서버측 HDD 및 SSD를 클러스터링하여 가상 환경에 맞게 설계되고 최적화된 분산 공유 데이터스토어를 만듭니다. Virtual SAN은 독립형 제품으로, vSphere와 별도로 판매되며 자체 라이센스 키가 필요합니다.

  • 해결된 문제 이 릴리스에서는 해결된 문제 섹션에서 설명된 여러 가지 버그 수정 사항을 제공합니다.

ESXi 5.5의 이전 릴리스

ESXi 5.5의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 ESXi 5.5 릴리스의 릴리스 정보를 보려면 VMware vSphere 5.5 릴리스 정보를 참조하십시오.

국제화

VMware vSphere 5.5 업데이트 1는 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체
  • 중국어 번체

호환성 및 설치

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi 또는 vCenter Server를 설치하기 전에 VMware 제품 상호 운용성 매트릭스에서 지원되는 관리 및 백업 에이전트 관련 정보도 확인하십시오.

vSphere Client 및 vSphere Web Client는 vCenter Server ISO 패키지에 포함되어 있습니다. VMware vCenter™ 설치 관리자 마법사를 사용하여 클라이언트를 하나 또는 둘 다 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.5.1에는 ESXi 5.5 업데이트 1 및 vCenter Server 5.5 업데이트 1 릴리스에 대한 지원이 추가되었습니다.
VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

ESXi 및 Virtual SAN 호환성

Virtual SAN에서는 5.5 업데이트 1 이전 버전의 ESXi 호스트로 구성된 클러스터를 지원하지 않습니다. Virtual SAN을 사용하도록 설정하려면 먼저 Virtual SAN 클러스터의 모든 호스트를 ESXi 5.5 업데이트 1로 업그레이드해야 합니다. vCenter Server도 5.5 업데이트 1로 업그레이드해야 합니다.

Virtual SAN의 테스트 릴리스
Virtual SAN 클러스터를 Virtual SAN 베타에서 Virtual SAN 5.5로 업그레이드할 수 없습니다.
Virtual SAN 베타를 사용하지 않도록 설정하고 ESXi 5.5 업데이트 1 호스트용 Virtual SAN 5.5를 새로 설치해야 합니다. Virtual SAN의 베타 버전을 테스트하는 중이었다면 해당 설치에서 보존하려는 데이터를 vSphere 5.5 업데이트 1에서 다시 생성하는 것이 좋습니다. 자세한 내용은 vSphere 5.5 업데이트 1로 업그레이드할 때 Virtual SAN 베타 클러스터의 가상 시스템 유지(KB 2074147)를 참조하십시오.

ESXi의 하드웨어 호환성

vSphere 5.5 업데이트 1과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스 목록을 보려면 VMware 호환성 가이드에 나와 있는 ESXi 5.5 업데이트 1 정보를 참조하십시오.

ESXi의 디바이스 호환성

ESXi 5.5 업데이트 1과 호환되는 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.5 업데이트 1 정보를 참조하십시오.

일부 디바이스는 ESXi 5.5 이상에서 사용되지 않으며 더 이상 지원되지 않습니다. 업그레이드 프로세스를 수행하는 동안 디바이스 드라이버가 ESXi 5.5.x 호스트에 설치되고 ESXi 5.5.x에서 계속 작동 가능하지만 디바이스가 ESXi 5.5.x에서 지원되지는 않습니다. 사용되지 않고 ESXi 5.5.x에서 더 이상 지원되지 않는 디바이스 목록은 VMware 기술 자료 문서 더 이상 사용되지 않는 디바이스 및 ESXi 5.5 업그레이드 프로세스 중 경고를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

vSphere 5.5 업데이트 1과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.5 업데이트 1 정보를 참조하십시오.

 

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 5.5 업데이트 1에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 지원되지 않습니다. ESXi 5.5 업데이트 1에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

vCenter Server 5.x와 연결 모드 환경에 vSphere Client 연결

vCenter Server 5.5은 연결 모드에서 vCenter Server 5.5의 다른 인스턴스와만 함께 있을 수 있습니다.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 다음 설명서를 읽어 보십시오.

타사 솔루션 마이그레이션

호스트 업그레이드의 일부로 ESX 또는 ESXi 호스트에 설치된 타사 솔루션은 직접 마이그레이션할 수 없습니다. ESXi 5.1과 ESXi 5.5 간의 아키텍처 변경으로 타사 구성 요소가 손실되거나 시스템이 불안정해질 수 있습니다. 이러한 마이그레이션을 성공적으로 수행하려면 Image Builder를 사용하여 사용자 지정 ISO 파일을 생성합니다. 타사 사용자 지정 항목을 사용한 호스트 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 5.5.x에서는 LAHF 및 SAHF CPU 명령 집합이 포함된 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.5.x와 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면에 비호환성 관련 메시지가 표시되고 vSphere 5.5.x를 설치하거나 업그레이드할 수 없습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

ESXi 5.5 업데이트 1로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.5 업데이트 1로의 업그레이드를 위해 지원되는 경로

ESX/ESXi 4.0:
포함 버전:
ESX/ESXi 4.0 업데이트 1
ESX/ESXi 4.0 업데이트 2

ESX/ESXi 4.0 업데이트 3
ESX/ESXi 4.0 업데이트 4

ESX/ESXi 4.1:
포함 버전:
ESX/ESXi 4.1 업데이트 1
ESX/ESXi 4.1 업데이트 2

ESX/ESXi 4.1 업데이트 3

 

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1

ESXi 5.0 업데이트 2
ESXi 5.0 업데이트 3

ESXi 5.1:
포함 버전:
ESXi 5.1 업데이트 1
ESXi 5.1 업데이트 2

ESXi 5.5

VMware-VMvisor-Installer-5.5.0.update01-1623387.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드

update-from-esxi5.5-5.5_update01.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

예*

예*

VMware 포털(온라인)에서 다운로드한 패치 정의 사용 VMware vCenter Update Manager(패치 기준선 포함)

아니요

아니요

아니요

아니요


*참고: ESXCLI의 경우에만 update-from-esxi5.5-5.5_update01.zip을 사용하여 ESXi 5.0.x 또는 ESXi 5.1.x에서 ESXi 5.5 업데이트 1로 업그레이드할 수 있습니다. esxcli 소프트웨어 프로필 업데이트 --depot=<depot_location> --profile=<profile_name>명령을 실행하여 업그레이드를 수행해야 합니다. 자세한 내용은 vSphere 업그레이드 가이드에서 ESXi 5.5.x 업그레이드 옵션 항목을 참조하십시오.

VMware vSphere 5.5 업데이트 1의 오픈 소스 구성 요소

vSphere 5.5 업데이트 1에 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/vsphere/open_source.html 페이지의 Open Source(오픈 소스) 탭에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vSphere Web Client. Linux 플랫폼은 Adobe Flash에서 더 이상 지원되지 않으므로 vSphere Web Client는 Linux OS에서 지원되지 않습니다. Linux 데스크톱 OS에서 Adobe Flash를 추가 지원하는 타사 브라우저는 계속 작동할 수 있습니다.

    VMware vCenter Server Appliance. vSphere 5.5에서 VMware vCenter Server Appliance는 DISA STIG(Security Technical Information Guideline)를 적용함으로써 수준 높은 관리 규정 준수 표준을 충족합니다. VMware vCenter Server Appliance를 배포하기 전에 작업을 성공적으로 수행하려면 VMware 강화 가상 장치 작업 안내서에서 새 보안 배포 표준에 대한 정보를 참조하십시오.

  • vCenter Server 데이터베이스. vSphere 5.5에서는 vCenter Server 데이터베이스로 IBM DB2를 지원하지 않습니다.

  • VMware Tools. vSphere 5.5부터 vSphere에서 VMware Tools를 설치 및 구성하는 방법에 대한 모든 정보가 다른 vSphere 설명서와 병합됩니다. vSphere에서 VMware Tools를 사용하는 방법에 대한 자세한 내용을 보려면 vSphere 설명서를 참조하십시오. VMware Tools 설치 및 구성은 vSphere 5.5 이상과는 관련이 없습니다.

  • VMware Tools. vSphere 5.5부터 VMware Tools는 ThinPrint 기능을 제공하지 않습니다.

  • vSphere Data Protection. vSphere Web Client의 작동 방식이 변경되어 vSphere Data Protection 5.1이 vSphere 5.5와 호환되지 않습니다. vSphere Data Protection 5.1 사용자가 vSphere 5.5로 업그레이드하는 경우 vSphere Data Protection을 계속 사용하려면 vSphere Data Protection도 업데이트해야 합니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi550-Update01에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi550-201403201-UG: ESXi 5.5 esx-base vib 업데이트
ESXi550-201403202-UG: ESXi 5.5 tools-light vib 업데이트
ESXi550-201403203-UG: ESXi 5.5 rste vib 업데이트
ESXi550-201403204-UG: ESXi 5.5 net-e1000e vib 업데이트
ESXi550-201403205-UG: ESXi 5.5 scsi-mpt2sas vib 업데이트
ESXi550-201403206-UG: ESXi 5.5 lsi-msgpt3 vib 업데이트
ESXi550-201403207-UG: ESXi 5.5 mtip32xx-native vib 업데이트
ESXi550-201403208-UG: ESXi 5.5 sata-ahci vib 업데이트
ESXi550-201403209-UG: ESXi 5.5 scsi-megaraid-sas vib 업데이트
ESXi550-201403210-UG: ESXi 5.5 net-igb vib 업데이트
ESXi550-201403211-UG: ESXi 5.5 net-tg3 vib 업데이트

패치 릴리스 ESXi550-Update01 Security-only에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi550-201403101-SG: ESXi 5.5 esx-base vib 업데이트
ESXi550-201403102-SG: ESXi 5.5 tools-light vib 업데이트

패치 릴리스 ESXi550-Update01에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.5.0-20140302001-standard
ESXi-5.5.0-20140302001-no-tools

패치 릴리스 ESXi550-Update01 Security-only에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.5.0-20140301001s-standard
ESXi-5.5.0-20140301001s-no-tools

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 해결된 문제에 대해 설명합니다.

CIM 및 API 문제

  • IPMI 센서 데이터를 가져올 수 없음
    exscli hardware ipmi sdr list명령을 실행할 때 사용한 리소스와 관련하여 다음과 유사한 오류가 표시될 수 있습니다.
    레코드가 없거나 버전이 호환되지 않거나 읽지 못함

    이 문제는 이 릴리스에서 해결되었습니다.
  • vmkapimod의 vmklinux_9:ipmi_thread에 CPU 사용량이 1시간 동안 100%로 표시됨
    ESXi 호스트에서 IPMI(Intelligent Platform Management Interface) 도구를 사용하여 FRU(Field Replaceable Unit) 인벤토리 데이터를 읽을 때 vmkapimod의 vmklinux_9:ipmi_thread에 CPU 사용량이 100%로 표시됩니다. 이는 IPMI 도구가 Read FRU Data 명령을 여러 번 사용해서 대량의 인벤토리 데이터를 읽기 때문입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 포트 5989에서 취약한 암호를 사용하지 않도록 설정할 수 없음
    PCI(지불 카드 산업) 규정 준수를 위해 CBC(암호 블록 연결) 알고리즘을 사용하지 않도록 설정하려면 CIM 포트 5989에서 취약한 암호를 사용하지 않도록 설정해야 할 수 있습니다. 이 작업은 허용되지 않습니다. 다음 명령을 실행하여 취약한 암호를 사용하지 않도록 sfcb.cfg의 구성을 업데이트할 수 있습니다.

    # vi /etc/sfcb/sfcb.cfg
    sslCipherList: HIGH:!DES-CBC3-SHA
    # /etc/init.d/sfcbd-watchdog restart

    이 문제는 이 릴리스에서 해결되었습니다.

  • EMC PowerPath를 사용하여 CIM_System을 쿼리할 때 쿼리 작업이 실패함
    PowerPath에서 /VMware/esxv2/아래의 CIM_System을 쿼리할 때 작업이 실패하고 CIM 서버에서 오류가 보고됩니다. 오류는 다음과 유사합니다.

    ThreadPool --- 요청을 대기열에 넣지 못했습니다. 이미 대기열에 넣은 요청이 너무 많음: vmwaLINUX
    ThreadPool --- 요청을 대기열에 넣지 못했습니다. 이미 대기열에 넣은 요청이 너무 많음: vmware_base, 활성 요청 5, 대기열에 포함된 요청 11 .\TreeViewHostDiscovery.cpp 611

    이 문제는 이 릴리스에서 해결되었습니다.

  • 센서 데이터를 업데이트하는 동안 이더넷 제공자에서 코어 덤프가 발견됨
    IBM x3650M3 서버의 하드웨어 상태 탭에서 센서 데이터를 업데이트하는 동안 이더넷 제공자에서 SFCB(Small Footprint CIM Broker) 코어 덤프가 발견됩니다. 여러 번 시도한 후에도 하드웨어 상태 탭에 데이터가 표시되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

기타 문제

  • 호스트가 재부팅할 때 SNMP 트랩 파일용 RAM 디스크가 생성되지 않음
    호스트가 재부팅되거나 ESXi 호스트에서 Direct Console User Interface를 통해 관리 에이전트를 다시 시작할 때 SNMP 트랩용 RAM 디스크가 생성되지 않습니다. ESXi 호스트의 /var/spool/snmp(디렉토리, 파일, 링크 또는 기타)에서 개체를 생성하는 경우 SNMP 서비스 시작 시 SNMP 트랩용 RAM 디스크가 생성되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 가상 시스템의 전원을 끌 때 VMX 프로세스가 실패하고 오류 메시지가 표시될 수 있음
    가상 시스템의 전원을 끄려고 할 때 VMX 프로세스가 실패할 수 있습니다.
    다음과 유사한 오류 메시지가 vmware.log파일에 기록될 수 있습니다.

    예기치 않은 신호: 11

    이 문제는 이 릴리스에서 해결되었습니다.
  • JavaFX 애플리케이션 항목이 3D 지원 가상 시스템에서 올바로 표시되지 않음
    가상 시스템 설정에서 3D를 사용하도록 설정하는 경우 JavaFX 애플리케이션의 사용자 인터페이스 구성 요소가 올바로 표시되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • lsilogic 가상 어댑터가 사용 가능한 모든 대상에서 I/O가 완료될 때까지 기다리는 동안 이 어댑터에 구성된 여러 가상 디스크가 응답하지 않을 수 있음
    lsilogic 가상 어댑터는 scsi 대상 재설정 명령을 실행할 때 가상 어댑터에서 사용 가능한 모든 대상에서 I/O가 완료될 때까지 기다립니다. 이로 인해 lsilogic 가상 어댑터에 구성된 여러 가상 디스크를 사용하는 가상 시스템이 응답하지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹 문제

  • RSS의 빈번한 변경으로 인해 Windows Server 2008 R2에서 VMXNET3 어댑터가 재설정됨
    다중 vCPU Windows 가상 시스템에서 수신측 배율을 사용하도록 설정하는 경우 반복되는 MAC 주소에 대해 포트를 사용하지 않도록 설정했다가 다시 사용하도록 설정함을 나타내는 NetPort 메시지가 표시됩니다. vmkernel.log에 다음과 유사한 메시지가 표시됩니다.

    2013-07-08T06:11:58.158Z cpu4:337203)NetPort: 1424: disabled port 0x1000020
    2013-07-08T06:11:58.177Z cpu4:337203)NetPort: 1237: enabled port 0x1000020 with mac 00:50:56:9e:50:24
    2013-07-08T06:12:46.191Z cpu1:337203)NetPort: 1424: disabled port 0x1000020
    2013-07-08T06:12:46.211Z cpu7:337203)NetPort: 1237: enabled port 0x1000020 with mac 00:50:56:9e:50:24

    이러한 MAC 주소를 사용하는 가상 시스템의 vmware.log파일에는 다음과 유사한 해당 이벤트가 포함됩니다.

    2013-07-08T06:18:20.175Z| vcpu-1| Ethernet4 MAC Address: 00:50:56:9e:50:24
    2013-07-08T06:18:20.199Z| vcpu-1| VMXNET3 user: Ethernet4 Driver Info: version = 833450 gosBits = 2 gosType = 2, gosVer = 24848, gosMisc = 212
    2013-07-08T06:18:36.165Z| vcpu-6| Ethernet4 MAC Address: 00:50:56:9e:50:24
    2013-07-08T06:18:36.187Z| vcpu-6| VMXNET3 user: Ethernet4 Driver Info: version = 833450 gosBits = 2 gosType = 2, gosVer = 24848, gosMisc = 212

    이 문제는 이 릴리스에서 해결되었습니다. VMXNET3 네트워크 드라이버는 이 릴리스에서 업데이트되었습니다.

  • E1000 또는 E1000e 가상 어댑터를 사용하는 가상 시스템이 있는 ESXi 5.x 호스트에서 오류가 발생하고 보라색 진단 화면이 나타남
    rxRing 버퍼가 채워지고 최대 Rx 링이 2개 이상으로 설정된 경우 ESXi 호스트에서 보라색 진단 화면이 나타나고 E1000PollRxRing 및 E1000DevRx에 대한 오류가 표시됩니다. 다음에 수신된 Rx 패킷, 즉 두 번째 링에서 처리하는 패킷은 NULL이므로 처리 오류가 발생합니다.
    보라색 진단 화면에 다음과 유사한 항목이 표시됩니다.

    @BlueScreen: #PF Exception 14 in world 63406:vmast.63405 IP 0x41801cd9c266 addr 0x0
    PTEs:0x8442d5027;0x383f35027;0x0;
    Code start: 0x41801cc00000 VMK uptime: 1:08:27:56.829
    0x41229eb9b590:[0x41801cd9c266]E1000PollRxRing@vmkernel#nover+0xdb9 stack: 0x410015264580
    0x41229eb9b600:[0x41801cd9fc73]E1000DevRx@vmkernel#nover+0x18a stack: 0x41229eb9b630
    0x41229eb9b6a0:[0x41801cd3ced0]IOChain_Resume@vmkernel#nover+0x247 stack: 0x41229eb9b6e0
    0x41229eb9b6f0:[0x41801cd2c0e4]PortOutput@vmkernel#nover+0xe3 stack: 0x410012375940
    0x41229eb9b750:[0x41801d1e476f]EtherswitchForwardLeafPortsQuick@<None>#<None>+0xd6 stack: 0x31200f9
    0x41229eb9b950:[0x41801d1e5fd8]EtherswitchPortDispatch@<None>#<None>+0x13bb stack: 0x412200000015
    0x41229eb9b9c0:[0x41801cd2b2c7]Port_InputResume@vmkernel#nover+0x146 stack: 0x412445c34cc0
    0x41229eb9ba10:[0x41801cd2ca42]Port_Input_Committed@vmkernel#nover+0x29 stack: 0x41001203aa01
    0x41229eb9ba70:[0x41801cd99a05]E1000DevAsyncTx@vmkernel#nover+0x190 stack: 0x41229eb9bab0
    0x41229eb9bae0:[0x41801cd51813]NetWorldletPerVMCB@vmkernel#nover+0xae stack: 0x2
    0x41229eb9bc60:[0x41801cd0b21b]WorldletProcessQueue@vmkernel#nover+0x486 stack: 0x41229eb9bd10
    0x41229eb9bca0:[0x41801cd0b895]WorldletBHHandler@vmkernel#nover+0x60 stack: 0x10041229eb9bd20
    0x41229eb9bd20:[0x41801cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x41229eb9be20
    0x41229eb9be20:[0x41801cdbc9bc]CpuSchedIdleLoopInt@vmkernel#nover+0x13b stack: 0x29eb9bfa0
    0x41229eb9bf10:[0x41801cdc4c1f]CpuSchedDispatch@vmkernel#nover+0xabe stack: 0x0
    0x41229eb9bf80:[0x41801cdc5f4f]CpuSchedWait@vmkernel#nover+0x242 stack: 0x412200000000
    0x41229eb9bfa0:[0x41801cdc659e]CpuSched_Wait@vmkernel#nover+0x1d stack: 0x41229eb9bff0
    0x41229eb9bff0:[0x41801ccb1a3a]VmAssistantProcessTask@vmkernel#nover+0x445 stack: 0x0
    0x41229eb9bff8:[0x0]<unknown> stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • 여러 VMkernel 포트에서 관리 트래픽을 사용하도록 설정하는 경우 DCUI에 표시되는 IP 주소가 재설정 시 변경됨
    여러 VMkernel 포트에서 관리 트래픽을 사용하도록 설정한 관리 네트워크를 재설정할 때마다 DCUI(Direct Console User Interface)에 표시되는 IP 주소가 변경됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 보라색 진단 화면에 예외 14 오류를 표시함
    DvFilter 모듈이 포함된 ESXi 호스트에서 보라색 진단 화면에 다음과 유사한 역추적을 표시할 수 있습니다.

    2013-07-18T06:41:39.699Z cpu12:10669)0x412266b5bbe8:[0x41800d50b532]DVFilterDispatchMessage@com.vmware.vmkapi#v2_1_0_0+0x92d stack: 0x10
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bc68:[0x41800d505521]DVFilterCommBHDispatch@com.vmware.vmkapi#v2_1_0_0+0x394 stack: 0x100
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bce8:[0x41800cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x412266b5bde8, 0x412266b5bd88,

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi TCP/IP 스택의 경합 조건으로 인해 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있음
    ESXi 호스트가 실패하고 보라색 화면에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    2013-02-22T15:33:14.296Z cpu8:4104)@BlueScreen: #PF Exception 14 in world 4104:idle8 IP 0x4180083e796b addr 0x1
    2013-02-22T15:33:14.296Z cpu8:4104)Code start: 0x418007c00000 VMK uptime: 58:11:48:48.394
    2013-02-22T15:33:14.298Z cpu8:4104)0x412200207778:[0x4180083e796b]ether_output@<None>#<None>+0x4e stack: 0x41000d44f360
    2013-02-22T15:33:14.299Z cpu8:4104)0x4122002078b8:[0x4180083f759d]arpintr@<None>#<None>+0xa9c stack: 0x4100241a4e00

    이 문제는 ESXi TCP/IP 스택의 경합 조건으로 인해 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Intel e1000e 네트워크 인터페이스 드라이버가 수신된 (RX) 트래픽에서 응답을 멈출 수 있음
    Intel e1000e 네트워크 인터페이스 드라이버가 수신된 (RX) 트래픽에서 응답을 멈출 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 네트워크 상태 점검 기능을 사용하도록 설정하는 경우 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있음
    네트워크 상태 점검 기능을 사용하도록 설정하고 이 기능에서 많은 상태 점검 패킷을 처리하는 경우, L2Echo 기능에서 많은 양의 네트워크 트래픽을 처리하지 못할 수 있으며 ESXi 호스트가 실패하여 다음과 유사한 보라색 진단 화면이 표시될 수 있습니다.

    2013-06-27T10:19:16.074Z cpu4:8196)@BlueScreen: PCPU 1: no heartbeat (2/2 IPIs received)
    2013-06-27T10:19:16.074Z cpu4:8196)Code start: 0x418024600000 VMK 가동 시간: 44:20:54:02.516
    2013-06-27T10:19:16.075Z cpu4:8196)Saved backtrace from: pcpu 1 Heartbeat NMI
    2013-06-27T10:19:16.076Z cpu4:8196)0x41220781b480:[0x41802468ded2]SP_WaitLockIRQ@vmkernel#nover+0x199 stack: 0x3b
    2013-06-27T10:19:16.077Z cpu4:8196)0x41220781b4a0:[0x4180247f0253]Sched_TreeLockMemAdmit@vmkernel#nover+0x5e stack: 0x20
    2013-06-27T10:19:16.079Z cpu4:8196)0x41220781b4c0:[0x4180247d0100]MemSched_ConsumeManagedKernelMemory@vmkernel#nover+0x1b stack: 0x0
    2013-06-27T10:19:16.080Z cpu4:8196)0x41220781b500:[0x418024806ac5]SchedKmem_Alloc@vmkernel#nover+0x40 stack: 0x41220781b690...
    2013-06-27T10:19:16.102Z cpu4:8196)0x41220781bbb0:[0x4180247a0b13]vmk_PortOutput@vmkernel#nover+0x4a stack: 0x100
    2013-06-27T10:19:16.104Z cpu4:8196)0x41220781bc20:[0x418024c65fb2]L2EchoSendPkt@com.vmware.net.healthchk#1.0.0.0+0x85 stack: 0x4100000
    2013-06-27T10:19:16.105Z cpu4:8196)0x41220781bcf0:[0x418024c6648e]L2EchoSendPort@com.vmware.net.healthchk#1.0.0.0+0x4b1 stack: 0x0
    2013-06-27T10:19:16.107Z cpu4:8196)0x41220781bfa0:[0x418024c685d9]L2EchoRxWorldFn@com.vmware.net.healthchk#1.0.0.0+0x7f8 stack: 0x4122
    2013-06-27T10:19:16.108Z cpu4:8196)0x41220781bff0:[0x4180246b6c8f]vmkWorldFunc@vmkernel#nover+0x52 stack: 0x0


    이 문제는 이 릴리스에서 해결되었습니다.
  • 사용되지 않는 VDS(vSphere Distributed Switch) 포트가 데이터스토어의 .dvsData 디렉토리에서 지워지지 않음
    vNIC가 VDS에 연결된 가상 시스템의 vMotion을 사용하는 동안 vMotion 소스 호스트의 포트 파일이 시간이 좀 지난 후에도 .dvsData 디렉토리에서 지워지지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vCenter 성능 차트 및 VMkernel에서 net.throughput.usage의 반환 값이 서로 모순됨
    vCenter 성능 차트에서 net.throughput.usage 관련 값은 KB 단위이지만 VMkernel에서는 동일한 값이 바이트로 반환됩니다. 이로 인해 vCenter 성능 차트에서 값이 잘못 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • tg3 NIC의 TSO(TCP 세분화 오프로드) 기능으로 인해 ESXi 호스트가 실패할 수 있음
    tg3 드라이버에서 TSO 기능을 사용하도록 설정하는 경우 tg3 NIC를 통과하는 데이터가 손상될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. tg3 NIC의 TSO 기능이 사용하지 않도록 설정됩니다.
  • 동일한 ESXi 호스트 및 vSwitch에 있는 두 가상 시스템 사이 네트워크 패킷 손실이 esxtop에서 잘못 보고됨
    호스트의 동일한 vSwitch에서 두 가상 시스템이 e1000 드라이버를 사용하여 구성된 경우 두 가상 시스템 사이의 네트워크 트래픽에서 상당한 패킷 손실이 esxtop을 통해 보고될 수 있습니다. 이 문제는 게스트에서 TSO를 사용하도록 설정된 경우 보고 중에 분할 패킷을 고려하지 않기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다. VMXNET3 네트워크 드라이버는 이 릴리스에서 업데이트되었습니다.

보안 문제

  • libxslt 업데이트
    ESXi userworld libxslt 패키지가 업데이트되었습니다.
  • NTP 대몬 업데이트
    보안 문제를 해결하기 위해 NTP대몬이 업데이트되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이 문제에 CVE-2013-5211이라는 이름을 할당했습니다.
    참고: 이 문제의 해결 방법은 KB 2070193에 설명되어 있습니다.
  • glibc 패키지 업데이트
    보안 문제를 해결하기 위해 ESXi glibc-2.5 패키지가 업데이트되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이 문제에 CVE-2013-4332라는 이름을 할당했습니다.

서버 구성 문제

  • esxtop 명령줄 도구에서 일관성 없는 CPU 사용률 값을 보고함
    하이퍼스레딩을 사용하도록 설정한 시스템에서 vSphere Client의 CPU 코어 사용률 값이 esxtop 코어 사용률을 사용하는 중에 발견된 값의 2배입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • esxcli network nic coalesce get 명령에서 잘못된 단위가 수신됨
    esxcli network nic coalesce get명령을 입력할 때 출력에서 수신된 단위가 밀리초입니다. 올바른 단위는 마이크로초입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 데이터스토어 또는 일부 파일에 액세스할 수 없음
    vCenter Server의 데이터스토어 탭에 누락된 VMFS(가상 시스템 파일 시스템) 데이터스토어가 있거나 이벤트 탭에 다음과 유사한 이벤트가 표시될 수 있습니다.

    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 또는 {1}({2}) 볼륨에서 디스크에 있는 잠금 중 하나 이상이 손상된 것으로 감지되었습니다. 볼륨의 다른 영역도 손상되었을 수 있습니다.

    다음 메시지가 vmkernel.log파일에 기록됩니다.

    [lockAddr 36149248] Invalid state: Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING: DLX: 908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk. Corrupt lock detected at offset 2279800: [type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$

    다음 메시지도 vmkernel.log파일에 기록될 수 있습니다.

    2013-07-24T05:00:43.171Z cpu13:11547)WARNING: Vol3: ValidateFS:2267: XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7: Non-zero generation of VMFS3 volume: 1

    이 문제는 이 릴리스에서 해결되었습니다.

  • HP 서버에 EMC PowerPath를 설치한 후 ESXi 로컬 디스크를 사용할 수 없음
    EMC PowerPath를 설치한 후 MPP(다중 경로 플러그인)에서 로컬 데이터스토어를 요청하지 않습니다. 클레임 규칙을 실행할 때 경로가 클레임 규칙과 일치하는 경우 해당 경로가 MPP에 제공됩니다. vSphere 5.1에서 MPP가 오류를 반환하는 경우 해당 경로를 다른 클레임 규칙과 비교하여 일치하는 항목이 있는 경우 이러한 클레임 규칙에서 경로가 MPP에 제공됩니다. MPP에서 경로를 요청하지 않는 경우 범용 클레임 규칙으로 인해 경로가 NMP에 제공됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 호스트가 보라색 진단 화면에 오류를 표시함
    userworld 프로그램 ps에서 VSI(VMkernel System Information)를 호출하는 동안 커널로 보낸 인스턴스 목록이 손상된 경우 VMkernel에서 오류가 발생합니다. 이 문제는 numParams가 너무 높은 상태에서 커널이 해당 인덱스 어레이에 액세스하려고 하는 경우에 발생합니다. 다음과 같이 보라색 진단 화면에 역추적이 표시됩니다.

    2013-09-06T00:35:49.995Z cpu11:148536)@BlueScreen: #PF Exception 14 in world 148536:ps IP 0x418004b31a34 addr 0x410019463308

    PTEs:0x4064ffe023;0x2080001023;0x100065023;0x0;

    2013-09-06T00:35:49.996Z cpu11:148536)Code start: 0x418004800000 VMK uptime: 2:11:35:53.448
    2013-09-06T00:35:49.996Z cpu11:148536)0x412250e1bd80:[0x418004b31a34]VSIVerifyInstanceArgs@vmkernel#nover+0xf3 stack: 0x410009979570
    2013-09-06T00:35:49.997Z cpu11:148536)0x412250e1bdd0:[0x418004b31bbb]VSI_CheckValidLeaf@vmkernel#nover+0xca stack: 0x8c8
    2013-09-06T00:35:49.998Z cpu11:148536)0x412250e1be40:[0x418004b32222]VSI_GetInfo@vmkernel#nover+0xb1 stack: 0x4100194612c0
    2013-09-06T00:35:49.999Z cpu11:148536)0x412250e1beb0:[0x418004ca7f31]UWVMKSyscallUnpackVSI_Get@<None>#<None>+0x244 stack: 0x412250e27000
    2013-09-06T00:35:50.000Z cpu11:148536)0x412250e1bef0:[0x418004c79348]User_UWVMKSyscallHandler@<None>#<None>+0xa3 stack: 0x0
    2013-09-06T00:35:50.001Z cpu11:148536)0x412250e1bf10:[0x4180048a8672]User_UWVMKSyscallHandler@vmkernel#nover+0x19 stack: 0xffea48d8
    2013-09-06T00:35:50.001Z cpu11:148536)0x412250e1bf20:[0x418004910064]gate_entry@vmkernel#nover+0x63 stack: 0x0
    2013-09-06T00:35:50.004Z cpu11:148536)base fs=0x0 gs=0x418042c00000 Kgs=0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 호스트가 응답하지 않게 되고 vCenter Server와의 연결이 끊김
    ESXi 호스트가 응답하지 않게 되고 vCenter Server와의 연결이 끊깁니다. 또한 Active Directory 환경의 오프라인 도메인 때문에 lsassd에서 메모리 누수가 발생하여 호스트에 대한 DCUI 및 SSH 로그인이 작동하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템이 물리적 호스트 일련 번호를 표시하도록 허용함
    가상 시스템이 물리적 ESXi 호스트의 일련 번호를 반영할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 resourceCpuAllocMax 시스템 카운터 값을 잘못 표시함
    호스트 시스템을 대상으로 resourceCpuAllocMax 및 resourceMemAllocMax 시스템 카운터 값을 검색하면 ESX 호스트에서 잘못된 값을 반환합니다. 이 문제는 vSphere Client를 vCenter Server에 연결한 경우에 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Fibre Channel HBA(호스트 버스 어댑터) 속도가 잘못 표시됨
    MOB(Managed Object Browser)에서 일부 ESXi 호스트에 대해 Fibre Channel HBA(호스트 버스 어댑터) 속도가 항상 0으로 잘못 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vCenter Server에서 여러 ESXi 호스트가 응답을 중지할 수 있음
    많은 수의 병렬 HTTP GET /folderURL 요청을 hostd로 보낼 경우 hostd 서비스가 실패합니다. 이로 인해 vCenter Server에 호스트가 다시 추가되지 않습니다. 다음과 유사한 오류 메시지가 표시될 수 있습니다.
     
    지정된 호스트에 액세스할 수 없습니다. 호스트가 없거나, 서버 소프트웨어가 응답하지 않거나, 네트워크 문제가 있습니다.
     
    이 문제는 이 릴리스에서 해결되었습니다.
  • 버전 10 이전의 하드웨어를 사용하는 가상 시스템을 NVS 네트워크에 연결할 수 없음
    버전 10 이전의 하드웨어를 사용하는 가상 시스템은 NVS(NSX 가상 스위치) 네트워크에 연결할 수 없습니다. 그러나 하드웨어 버전 4 이상을 사용하는 가상 시스템은 NVS 네트워크에 연결할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Hostd가 실패하고 hostd-worker 덤프를 생성함
    vDS에서 vmknic에 연결된 소프트웨어 iSCSI 디스크를 분리하고 나면 ESXi 5.5 호스트가 hostd-worker 덤프를 생성할 수 있습니다. 이 문제는 호스트에서 최신 정보를 검색할 때 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 공유 비영구 디스크를 전원이 켜진 다른 VM과 연결하거나 공유하는 경우 디스크의 무중단 제거에 더 많은 시간이 걸림
    가상 시스템에 공유 비영구 읽기 전용 디스크를 추가할 경우 가상 시스템에서 디스크를 제거하는 데 더 오랜 시간이 걸릴 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템을 프로비저닝 및 사용자 지정할 때 네트워크와의 연결이 끊길 수 있음
    사용 후 삭제 포트를 사용하는 vDS에서 템플릿을 통해 가상 시스템을 프로비저닝 및 사용자 지정할 때 가상 시스템의 네트워크 연결이 끊어질 수 있습니다.

    다음과 유사한 오류 메시지가 로그 파일에 기록될 수 있습니다.

    2013-08-05T06:33:33.990Z| vcpu-1| VMXNET3 user: Ethernet1 Driver Info: version = 16847360 gosBits = 2 gosType = 1, gosVer = 0, gosMisc = 0
    2013-08-05T06:33:35.679Z| vmx| Msg_Post: Error
    2013-08-05T06:33:35.679Z| vmx| [msg.mac.cantGetPortID] Unable to get dvs.portId for ethernet0
    2013-08-05T06:33:35.679Z| vmx| [msg.mac.cantGetNetworkName] Unable to get networkName or devName for ethernet0
    2013-08-05T06:33:35.679Z| vmx| [msg.device.badconnect] Failed to connect virtual device Ethernet0.
    2013-08-05T06:33:35.679Z| vmx|

    이 문제는 이 릴리스에서 해결되었습니다.

  • SNMP 에이전트가 중지된 경우 ESXi 호스트에서 트랩 파일이 생성됨
    SNMP(Simple Network Management Protocol) 에이전트가 중지된 경우 SNMP에서 ESXi 호스트의 /var/spool/snmp폴더에 트랩 파일( .trp)을 생성합니다. SNMP 에이전트가 중지되어 /var/spool/snmp디렉토리가 삭제되지 않는 경우 hostd가 트랩 파일(.trp)을 /var/spool/snmp에 기록하므로 호스트에서 inode가 부족해지고 vCenter Server에서 연결이 끊긴 것으로 표시됩니다. 결과적으로 호스트에서 아무 작업도 수행하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • PXE(Preboot Execution Environment) 부팅된 호스트에서 전원이 켜진 가상 시스템의 GuestNicInfo가 없음
    VMware Tools가 설치되어 실행 중일 때 전원이 켜진 가상 시스템에서 GuestNicInfo 및 GuestStackInfo를 사용할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXCLI 명령을 실행하거나 SNMP 에이전트를 이용하는 모니터링 도구를 사용하면 ESXi 호스트와의 연결이 끊길 수 있음
    ESXCLI 명령을 실행하거나 ESXi의 SNMP 에이전트에 있는 데이터를 이용하는 모니터링 도구를 사용하면 hostd 서비스 오류로 인해 ESXi 호스트와의 연결이 끊길 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 호스트의 bandwidthCap 및 throughputCap 옵션이 게스트 운영 체제에서 작동하지 않을 수 있음
    ESXi 호스트에서 bandwidthCap 및 throughputCap를 동시에 설정하는 경우 I/O 조정 옵션이 가상 시스템에서 작동하지 않을 수 있습니다. 이 문제는 SCSI 스케줄러에서 조정 옵션을 설정할 때 논리 비교가 잘못되었기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • SNMP를 사용하도록 설정하고 서버에 타사 CIM 제공자가 설치된 호스트에서 SNMP 트랩이 수신되지 않음
    SNMP를 사용하도록 설정하고 타사 CIM 제공자가 설치된 ESXi 호스트에서 모니터링되는 하드웨어 상태가 변경되는 경우 SNMP 트랩을 수신하지 못할 수 있습니다. 다음과 유사한 메시지가 syslog파일에 기록됩니다.

    2013-07-11T05:24:39Z snmpd: to_sr_type: unable to convert varbind type '71'
    2013-07-11T05:24:39Z snmpd: convert_value: unknown SR type value
    02013-07-11T05:24:39Z snmpd: parse_varbind: invalid varbind with type 0 and value: '2'
    2013-07-11T05:24:39Z snmpd: forward_notifications: parse file '/var/spool/snmp/1373520279_6_1_3582.trp' failed, ignored

    이 문제는 이 릴리스에서 해결되었습니다.

  • 가상 시스템에서 CPUID 마스크를 재설정하려 할 때 Hostd가 실패함
    가상 시스템에서 CPUID 마스크를 재설정하려 할 때 SetRegisterInfo값이 NULL이거나 빈 문자열인 경우 hostd가 충돌합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 설치가 실패하고 'UnboundLocalError' 오류가 표시됨
    ESXi 설치가 실패하고 다음 오류가 표시됩니다: "UnboundLocalError: 로컬 변수 'isLocalOnlyAdapter'가 할당 전에 참조됨"

    이 문제는 이 릴리스에서 해결되었습니다.

  • 간헐적으로 호스트 프로파일에서 NAS(Network Attached Storage) 프로파일을 적용하지 못함
    호스트가 NasStorageProfile을 적용하지 못하고 애플리케이션 오류 중 호스트가 유지 보수 모드를 종료할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 복잡한 호스트 프로파일을 적용하려고 시도하면 시간 초과가 발생할 수 있음
    복잡한 호스트 프로파일(예: 많은 수의 포트 그룹 및 데이터스토어를 포함하는 프로파일)을 적용하면 작업 시간이 초과되고 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    2013-04-09T15:27:38.562Z [4048CB90 info 'Default' opID=12DA4C3C-0000057F-ee] [VpxLRO] -- ERROR task-302 -- -- vim.profile.host.profileEngine.HostProfileManager.applyHostConfig:

    vmodl.fault.SystemError:
    --> 결과:
    --> (vmodl.fault.SystemError) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> reason = "",
    --> msg = "일반 시스템 오류가 발생했습니다. ",
    --> }

    hostd 시간 초과 기본값이 10분입니다. applyHostConfig는 점진적 작업이 아니므로 hostd 서비스가 시간 초과 중 실패한 작업과 장시간 실행 작업을 구별할 수 없습니다. 따라서 hostd 서비스에서 applyHostConfig가 실패했음을 보고합니다.

    이 문제는 이 릴리스에서 HostProfileManager Managed Object의 일부로 30분 시간 초과를 설정하여 해결되었습니다. 그러나 대용량 호스트 프로파일을 적용하는 경우 작업에 대한 30분의 시간 제한이 초과될 수 있으므로 이 문제가 계속 발생할 수 있습니다. 이 문제를 해결하려면 호스트 프로파일을 다시 적용합니다.

    참고: 시간 초과에 대한 실제 트리거는 호스트 프로파일의 복잡도에 따라 다릅니다.
  • 가상 시스템 모니터가 잘못된 시스템 페이지 번호를 반환하면 VMKernel이 실패함
    VMX가 VPN 값을 전달하여 페이지를 읽을 때 VMKernel이 해당 VPN 값의 유효한 시스템 페이지 번호를 찾지 못하여 호스트가 실패하고 보라색 진단 화면이 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지 문제

  • esxtop 성능 데이터의 출력이 0으로 표시될 수 있음
    esxtop 성능 데이터의 출력을 CSV 형식 파일로 리디렉션하는 경우 배치 모드로 수집된 esxtop.csv값이 0으로 변경될 수 있습니다. esxtop.csv파일에서 I/O 값을 다음과 같이 표시할 수 있습니다.

    "09/04/2013 22:00:00","1251.43","4.89","7.12","1839.62","7.19","4.99","1273.05","4.97","7.08""09/04/2013
    22:00:10","1283.92","5.02","7.06","1875.14","7.32","4.89","1290.37","5.04","7.07""09/04/2013
    22:00:20","1286.49","5.03","7.03","1914.86","7.48","4.87","1320.55","5.16","6.90""09/04/2013
    22:00:31","1222.56","4.78","7.44","1775.23","6.93","5.21","1253.87","4.90","7.28""09/04/2013
    22:00:41","1269.87","4.96","7.15","1847.40","7.22","4.97","1267.62","4.95","7.13""09/04/2013
    22:00:51","1291.36","5.04","7.05","1857.97","7.26","4.96","1289.40","5.04","7.08""09/04/2013
    22:01:01","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:11","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:22","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:32","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013 22:01:42","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00"


    이 문제는 잘못된 vSCSI 메시지가 기본적으로 False가 아니라 True로 설정된 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

Virtual SAN 문제

  • AHCI(Advance Host Controller Interface) 드라이버에서 할당한 스토리지 디스크는 Virtual SAN 디스크 그룹에 속한 경우 무중단 분리할 수 없음
    AHCI 드라이버는 마더보드의 SATA 포트에 연결되거나 AHCI 지원 스토리지 어댑터를 통해 연결된 SSD 스토리지 디스크 또는 데이터를 할당합니다. 디스크가 AHCI 드라이버에서 할당되고 Virtual SAN 디스크 그룹에 속한 경우 디스크를 ESXi 호스트에서 무중단 분리할 수 없습니다. 디스크를 무중단 분리하면 디스크를 다시 연결한 후 호스트가 디스크를 감지하지 못합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SSD 무중단 분리 시 ESXi 호스트에서 오류가 발생할 수 있음
    SSD를 무중단 분리하려고 할 때 ESXi 호스트가 충돌하고 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 무중단 분리했다가 무중단 다시 삽입하는 디스크를 Virtual SAN에서 감지하지 못할 수 있음
    SSD 또는 비SSD 디스크를 무중단 분리하는 경우 무중단 다시 삽입 후 Virtual SAN에서 디스크를 감지하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 단일 노드 클러스터를 구성하며 기존 Virtual SAN 클러스터에 가입할 수 없음
    이 문제는 Virtual SAN을 사용하도록 설정할 때 Virtual SAN에 대해 구성된 vmknic에 IP 주소가 없는 경우에 발생합니다. Virtual SAN 지원 vmknic에서 IP 주소를 가져올 때 hostd가 시작되지 않은 경우 호스트가 단일 노드 클러스터를 구성할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Virtual SAN 클러스터의 현재 용량 사용량이 70%를 초과한 경우 노드가 전체 데이터 제거옵션을 사용하여 유지 보수 모드를 시작하지 못함
    이 문제는 클러스터에서 노드를 제거하여 용량 사용량이 Virtual SAN 클러스터의 70%를 초과하는 경우에 발생합니다. 클러스터 용량은 Virtual SAN 클러스터의 공간을 나타냅니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 스토리지 정책이 포함된 가상 시스템을 복제하면 스토리지 정책이 필요 없는 경우에도 항상 스토리지 정책이 대상 가상 시스템에 전송됨
    스토리지 정책과 연결된 가상 시스템을 복제할 때 스토리지 정책을 대상 가상 시스템에 할당하지 않도록 선택해도 복제 프로세스가 성공합니다. 그러나 원래 가상 시스템의 스토리지 정책이 대상 가상 시스템 구성에 사용됩니다. 따라서 대상 가상 시스템이 의도하지 않게 Virtual SAN 데이터스토어의 리소스를 추가로 사용할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

vCenter Server 및 vSphere Web Client 문제

  • 가상 디스크 처리량에 대한 성능 통계 계산이 1024배 차이가 날 수 있음
    가상 디스크 처리량에 대한 성능 통계 계산이 초당 바이트 단위로 잘못 측정됩니다.

    이 릴리스에서 측정 단위를 초당 킬로바이트로 변경하여 이 문제가 해결되었습니다.

가상 시스템 관리 문제

  • BIOS에서 레거시 플로피 디스크를 사용하지 않도록 설정한 경우 가상 시스템이 CD 또는 DVD에서 부팅하지 못함
    BIOS에서 레거시 플로피 디스크를 사용하지 않도록 설정한 경우 가상 시스템이 부팅되지 않을 수 있습니다. 이 문제는 아래 단계를 수행할 때 발생합니다.
    1. 운영 체제가 없는 가상 시스템을 생성합니다.
    2. 가상 시스템 설정을 사용하여 ISO 이미지 파일에 연결할 CD나 DVD 또는 게스트 운영 체제를 설치할 물리적 드라이브를 구성합니다.
    3. BIOS에서 레거시 플로피 디스크를 사용하지 않도록 설정합니다.
    BIOS에서 레거시 플로피 디스크를 사용하지 않도록 설정하면 가상 시스템에서 경고음이 두 번 울리고 부팅되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템을 OVF로 내보내려고 하면 실패하고 시간 초과 오류가 발생함
    Ext 2또는 Ext 3파일 시스템을 사용하고 디스크에 대량의 빈 블록이 연속(예: 210GB가 넘는 빈 보조 디스크)으로 있는 가상 시스템을 OVF(Open Virtualization Format)로 내보내려고 하면 작업이 시간 초과됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance 문제

  • HA를 구성하려는 시도가 실패하고 HA 마스터 에이전트를 찾을 수 없다는 오류 메시지가 표시됨
    HA(High Availability)를 구성하지 못할 수 있습니다. 다음과 유사한 오류 메시지가 vpxd.log파일에 기록될 수 있습니다.

    vpxd-1967.log:2013-04-06T01:35:02.156+09:00 [07220 warning 'DAS'] [FdmManager::ReportMasterChange] VC에서 120초 동안 클러스터 HA_GD의 마스터를 찾지 못했습니다.
    vpxd-1968.log:2013-04-06T05:02:55.991+09:00 [07320 warning 'DAS'] [FdmManager::ReportMasterChange] VC에서 120초 동안 클러스터 HA_GD의 마스터를 찾지 못했습니다.


    이 문제는 hostd 기능의 세션이 부족할 때 발생합니다. 다음과 유사한 오류 메시지가 hostd.log파일에 기록됩니다.

    SOAP 세션 수 제한에 도달했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치 문제

  • ESXi 설치가 실패하고 UnboundLocalError 오류가 표시됨
    ESXi 설치가 실패하고 다음 오류가 표시됩니다: UnboundLocalError: 로컬 변수 'isLocalOnlyAdapter'가 할당 전에 참조됨

    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools 문제

  • VMware Tools 업데이트 동안 VSS 드라이버를 등록 취소하려고 하면 vCenter Protect 에이전트에서 경고 메시지를 표시할 수 있음
    서명되지 않은 comreg.exe파일을 사용하는 VMware Tools 빌드가 포함된 Windows 게스트 운영 체제에서 VMware Tools를 업데이트할 때 VSS 드라이버를 등록 취소하려고 하면 vCenter Protect 에이전트에서 다음과 유사한 경고 메시지를 표시할 수 있습니다.

    comreg.exe를 실행하려고 했습니다.

    이 문제는 이 릴리스에서 VMware 서명된 comreg.exe파일을 포함하여 해결되었습니다.
  • Microsoft Office에서 공유 디렉토리에 파일을 저장하지 못함
    Microsoft Office 2007 또는 Microsoft Office 2010 애플리케이션에서 파일을 VMware vShield Endpoint 및 에이전트 없는 바이러스 백신 솔루션으로 보호되는 가상 시스템의 공유 디렉토리에 저장할 때 다음과 유사한 오류가 표시됩니다.

    파일이 현재 사용되고 있습니다. 나중에 다시 시도하십시오.
    파일을 이 위치에 저장할 수 없습니다.

    공유에 저장된 파일이 비어 있고 크기가 0KB입니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • RHEL 6.2에서 VMware Tools를 업데이트하는 동안 오류 발생
    RHEL 6.2(Red Hat Linux Enterprise) 가상 시스템에서 RPM(Red Hat Package Manager)을 사용하여 이전 버전의 VMware Tools를 버전 9.0.5로 업데이트하는 동안 다음과 유사한 오류가 표시될 수 있습니다.

    오류: Package: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv)
    Requires: vmware-tools-vsock-common = 9.0.1
    Installed: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64)
    vmware-tools-vsock-common = 9.0.5-1.el6
    Available: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 8.6.10-1.el6
    Available: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 9.0.1-3

    이 문제는 이 릴리스에서 해결되었습니다.

  • --cmd 인수를 사용하여 가상 시스템 정보를 검색할 때 VMware Tools 서비스가 실패함
    vmtoolsd --cmd "info-get guestinfo.ovfEnv"와 같은 vmtoolsd쿼리를 실행할 때 VMware Tools 서비스가 실패할 수 있습니다. 이 문제는 VMware Tools 버전 9.0.1 및 9.0.5에서 발생하는 것으로 알려져 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Oracle Linux 5.x에 사전 구축된 커널 모듈이 없음
    VMware Tools가 업데이트되어 Oracle Linux 5.x에 2.6.39-200/400사전 구축 커널 모듈을 제공합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • OSP(Operating System Specific Package)를 사용하여 VMware Tools를 설치할 때 /tmp/vmware-root 디렉토리가 vmware-db.pl.* 파일로 채워짐
    OSP를 사용하여 VMware Tools를 설치하는 경우 /tmp/vmware-root디렉토리에 있는 로그 파일 수가 증가할 수 있습니다. 이 문제는 SUSE Linux Enterprise Server 11 서비스 팩 2 및 RedHat Enterprise Linux 6 가상 시스템에서 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Web Client가 Linux 게스트 운영 체제에 VMware Tools가 설치되었음을 인식하지 못할 수 있음
    vSphere Web Client가 Linux 게스트 운영 체제에 VMware Tools가 설치되었음을 인식하지 못할 수 있습니다.
    다음과 유사한 오류 메시지가 vSphere Web Client의 요약 탭에 표시될 수 있습니다.
    이 가상 시스템에 VMware Tools가 설치되어 있지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSGA 모드에서 Maxon Cinema 4D 애플리케이션이 실패할 수 있음
    vSGA(Virtual Shared Graphics Acceleration) 모드에서 Maxon Cinema 4D 애플리케이션의 UI 항목을 클릭할 때 VMware OpenGL 드라이버의 문제로 인해 이 애플리케이션이 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템에서 Petrel 3D 애플리케이션을 실행할 때 렌더링 관련 오류가 표시될 수 있음
    가상 시스템에서 Petrel 3D 애플리케이션을 실행할 때 OpenGL 그래픽 드라이버의 문제로 인해 렌더링 관련 오류가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools 업그레이드 중에 사용자가 Windows 8 및 Windows 8.1 가상 시스템에서 강제로 로그아웃됨
    Windows 8 및 Windows 8.1 가상 시스템에서 VMware Tools를 업그레이드할 때 사용자가 가상 시스템에서 자동으로 로그아웃됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

알려진 문제

이전에 문서화되지 않은 알려진 문제는 * 기호로 표시되어 있습니다. 알려진 문제는 다음과 같이 그룹화되어 있습니다.

설치 문제
  • Windows Server 2012에서 Simple Install 실패
    운영 체제가 DHCP IP 주소를 사용하도록 구성되어 있으면 Windows Server 2012에서 Simple Install에 실패합니다.

    해결 방법: 정적 IP 주소를 사용하도록 Windows 2012 Server를 구성합니다.

  • 소프트웨어 iSCSI LUN에서 설치에 실패하고 부팅 뱅크 2개가 필요함, 0개 발견이라는 오류가 발생함
    이 문제가 발생할 경우 표시되는 전체 오류는 다음과 같습니다.
    오류(자세한 내용은 로그 참조):
    부팅 뱅크 2개가 필요함, 0개 발견

    이 문제는 첫 번째 네트워크 어댑터가 iBFT iSCSI에서 부팅하도록 구성된 경우에 발생합니다. iBFT IP 설정은 iSCSI 부팅 디스크에 액세스하도록 생성된 VMkernel 네트워크 포트를 구성하는 데 사용됩니다. 이 경우 첫 번째 어댑터가 관리 트래픽에 사용되므로 이 포트는 관리 네트워크 포트입니다.

    설치가 대략 90% 정도 완료되면 설치 관리자가 DHCP를 사용하여 관리 인터페이스를 재구성합니다. 따라서 iBFT IP 설정이 손실되고 iSCSI 부팅 대상과의 TCP 연결이 끊어집니다.

    해결 방법: 다음 작업 중 하나를 수행합니다.

    • 네트워크 어댑터를 여러 개 사용할 수 있으면 두 번째 네트워크 어댑터를 사용하여 iSCSI 부팅 디스크에 액세스합니다.
    • 네트워크 어댑터를 하나만 사용할 수 있으면 DHCP를 사용하도록 iBFT를 구성합니다. iSCSI 대상은 관리 네트워크에 있어야 합니다. iSCSI 대상이 다른 서브넷에 있으면 기본 VMkernel 게이트웨이가 관리 및 iSCSI 트래픽을 모두 라우팅할 수 있습니다.

     

  • Auto Deploy 상태 비저장 캐시 또는 Auto Deploy 상태 저장 설치와 함께 VMFS 유지를 사용하는 경우 코어 덤프 파티션이 생성되지 않음
    빈 디스크에서 상태 비저장 캐시 또는 상태 저장 설치에 Auto Deploy를 사용하면 MSDOS 파티션 테이블이 생성됩니다. 그러나 코어 덤프 파티션은 생성되지 않습니다.

    해결 방법: 상태 비저장 캐시 또는 상태 저장 설치 호스트 프로파일 옵션을 사용하도록 설정한 경우 빈 디스크에 설치하더라도 VMFS 덮어쓰기를 선택합니다. 이렇게 하면 2.5GB 코어 덤프 파티션이 생성됩니다.

  • 스크립트로 작성된 설치 중 installorupgrade 명령에 --ignoressd 옵션을 사용해도 ESXi가 SSD에 설치됨
    ESXi 5.5에서는 installorupgrade명령에 --ignoressd옵션을 사용할 수 없습니다. installorupgrade명령에 --ignoressd옵션을 사용하면 설치 관리자가 잘못된 조합이라는 경고를 표시합니다. 설치 관리자가 설치를 중지하거나 오류 메시지를 표시하지 않고 SSD에서 ESXi 설치를 계속합니다.

    해결 방법: ESXi의 스크립트로 작성된 설치에서 --ignoressd옵션을 사용하려면 installorupgrade명령 대신 install명령을 사용합니다.

  • Auto Deploy 캐시 제거가 지연되어 삭제된 호스트 프로파일이 적용될 수 있음
    호스트 프로파일을 삭제한 후 Auto Deploy에서 해당 호스트 프로파일이 바로 제거되지는 않습니다. 호스트 프로파일이 캐시에 유지되는 동안에는 Auto Deploy가 계속 해당 호스트 프로파일을 적용합니다. 이 프로파일을 적용하는 모든 규칙은 캐시에서 해당 프로파일이 제거된 후에만 실패합니다.

    해결 방법: Get-DeployRuleSetPowerCLI cmdlet을 사용하여 규칙에서 삭제된 호스트 프로파일을 사용하는지 여부를 확인할 수 있습니다. 이 cmdlet은 규칙의 itemlistdeleted라는 문자열을 표시합니다. 그런 다음 Remove-DeployRulecmdlet을 실행하여 규칙을 제거할 수 있습니다.

  • 선택한 디스크에 ESX를 설치한 경우 상태 비저장 캐시와 함께 Auto Deploy를 사용하도록 설정된 호스트 프로파일 적용이 실패함
    호스트 프로파일을 사용하여 상태 비저장 캐시를 사용하도록 설정되어 있는 Auto Deploy를 설정합니다. 호스트 프로파일에서 ESX(ESXi가 아님) 버전이 설치되어 있는 디스크를 선택합니다. 호스트 프로파일을 적용하면 다음 텍스트가 포함된 오류가 나타납니다.
    Expecting 2 bootbanks, found 0(2개의 부팅 뱅크가 필요함, 0개 발견)

    해결 방법: 상태 비저장 캐시에 사용할 다른 디스크를 선택하거나 디스크에서 ESX 소프트웨어를 제거합니다. 제거한 ESX 소프트웨어는 사용할 수 없게 됩니다.

  • Oracle America(Sun) 공급업체의 서버에서 ESXi 버전 5.5.0 설치 또는 부팅에 실패함
    Oracle America(Sun) 공급업체의 서버에서 ESXi 버전 5.5.0을 새로 설치하거나 기존 ESXi 버전 5.5.0 설치를 부팅하면 설치 프로세스 중이나 기존 ESXi 5.5.0 빌드 부팅 시 서버 콘솔에 빈 화면이 표시됩니다. 이 문제가 발생하는 이유는 Oracle America(Sun) 공급업체의 서버가 헤드리스 플랫폼이 아닌데도 ACPI FADT테이블에 HEADLESS플래그가 설정되어 있기 때문입니다.

    해결 방법: ESXi 5.5.0을 설치하거나 부팅할 때 부팅 옵션 ignoreHeadless="TRUE"를 전달합니다.

업그레이드 문제

  • 패치 ID ESXi550-Update01의 패치 이름이 설명 참조로 표시됨 *
    vSphere Update Manager를 사용할 때 ESXi 5.5 업데이트 1 롤업 번들, 패치 ID ESXi550-Update01의 패치 이름이 설명 참조(KB 번호)로 표시될 수 있습니다.
    패치 이름이 없어도 기능에는 아무 영향이 없습니다. 롤업 번들 세부 정보는 KB 2065832에서 확인할 수 있습니다.

    해결 방법: 없음
  • ESXCLI 명령을 사용하여 물리적 RAM이 4GB 미만인 ESXi 호스트를 업그레이드하면 업그레이드에 성공하지만 재부팅 시 일부 ESXi 작업에 실패함
    ESXi 5.5에는 물리적 RAM이 4GB 이상 필요합니다. ESXCLI 명령줄 인터페이스는 필요한 4GB 메모리가 있는지 업그레이드 전에 확인하지 않습니다. ESXCLI를 사용하여 메모리가 부족한 호스트를 성공적으로 업그레이드할 수는 있지만 RAM이 4GB 미만인 업그레이드된 ESXi 5.5 호스트를 부팅하면 일부 작업에 실패할 수 있습니다.

    해결 방법: 없음. 버전 5.5로 업그레이드하기 전에 ESXi 호스트에 물리적 RAM이 4GB 이상 있는지 확인합니다.

  • vCenter Server Appliance 5.0.x에서 5.5로 업그레이드한 후 외부 vCenter Single Sign-On을 사용하면 vCenter Server가 시작되지 않음
    vCenter Server Appliance를 5.0.x에서 5.5로 업그레이드할 때 사용자가 외부 vCenter Single Sign-On 인스턴스를 사용하면 업그레이드 후 vCenter Server가 시작되지 않습니다. 장치 관리 인터페이스에서 vCenter Single Sign-On은 구성되지 않음으로 표시됩니다.

    해결 방법: 다음 단계를 수행합니다.

    1. 웹 브라우저에서 vCenter Server Appliance 관리 인터페이스(https:// appliance-address:5480)를 엽니다.
    2. vCenter Server/요약 페이지에서 서버 중지 버튼을 클릭합니다.
    3. vCenter Server/SSO 페이지에서 양식에 적절한 설정을 입력하고 설정 저장을 클릭합니다.
    4. 요약 페이지로 돌아가서 서버 시작을 클릭합니다.

     

  • ESXCLI를 사용하여 ESXi 4.x 또는 5.0.x 호스트를 버전 5.1 또는 5.5로 업그레이드하면 업그레이드 후 VMkernel 포트 그룹의 vMotion 및 FT 로깅(Fault Tolerance 로깅) 설정이 손실됨
    esxcli software profile update <options>명령을 사용하여 ESXi 4.x 또는 5.0.x 호스트를 버전 5.1 또는 5.5로 업그레이드하면 업그레이드에 성공하지만 VMkernel 포트 그룹의 vMotion 및 FT 로깅 설정이 손실됩니다. 따라서 vMotion 및 FT 로깅이 기본 설정(사용 안 함)으로 복원됩니다.

    해결 방법: 스크립트로 작성된 업그레이드 또는 대화형 업그레이드를 수행하거나 vSphere Update Manager를 사용하여 호스트를 업그레이드합니다. esxcli명령을 사용하는 경우에는 업그레이드 후 영향을 받는 VMkernel 포트 그룹에 vMotion 및 FT 로깅 설정을 수동으로 적용합니다.

  • vSphere 5.0.x 이전 버전에서 버전 5.5로 업그레이드할 때 수동으로 설정한 시스템 리소스 할당 값이 기본값으로 재설정됨
    vSphere 5.0.x 이전 버전에서는 임시 해결 방법으로 시스템 리소스 할당 사용자 인터페이스에서 설정을 수정합니다. ESXi를 완전히 재설치하지 않고는 이러한 설정의 값을 기본값으로 재설정할 수 없습니다. vSphere 5.1 이상에서는 시스템 동작이 변경되어, 사용자 지정 시스템 리소스 할당 설정을 유지하는 경우 안전하지 않은 값을 사용하게 될 수 있습니다. 업그레이드 시 이러한 값을 재설정합니다.

    해결 방법: 없음.

  • ESX 4.x에서 ESXi 5.5로 업그레이드한 후 가상 NIC vmk0의 IPv6 설정이 유지되지 않음
    IPv6을 사용하도록 설정된 ESX 4.x 호스트를 --forcemigrate옵션을 사용하여 ESXi 5.5로 업그레이드하면 업그레이드 후 가상 NIC vmk0의 IPv6 주소가 유지되지 않습니다.

    해결 방법: 없음.

vCenter Single Sign-On 문제
  • vSphere Web Client를 5.1 업데이트 1a에서 5.5로 업그레이드할 때 오류 29107이 나타남
    vSphere Web Client를 버전 5.1 업데이트 U1a에서 버전 5.5로 업그레이드할 때 업그레이드 전에 사용 중이던 vCenter Single Sign-On 서비스가 High Availability Single Sign-On으로 구성되어 있으면 오류 29107이 나타납니다.

    해결 방법: 업그레이드를 다시 수행합니다. 설치 관리자를 실행하고 사용자 지정 설치를 선택하여 vSphere Web Client만 업그레이드할 수 있습니다.

  • vSphere Web Client 풀다운 메뉴에서 administrator@vsphere.local의 암호를 변경할 수 없음
    vSphere Web Client에서 vCenter Single Sign-On Server에 로그인할 때 풀다운 메뉴에서 암호를 변경할 수 없습니다. administrator@vsphere.local로 로그인하면 암호 변경 옵션이 회색으로 비활성화됩니다.

    해결 방법:

    1. 관리 탭을 선택하고 vCenter Single Sign-On > 사용자 및 그룹을 선택합니다.
    2. 관리자를 마우스 오른쪽 버튼으로 클릭하고 사용자 편집을 클릭합니다.
    3. 암호를 변경합니다.

     

네트워킹 문제

  • vmknic 인터페이스 및 동적 IP 주소와 연결된 정적 경로가 재부팅 후 표시되지 않을 수 있음*
    호스트를 재부팅한 후 VMkernel 네트워크 인터페이스(vmknic) 및 동적 IP 주소와 연결된 정적 경로가 표시되지 않을 수 있습니다.
    이 문제는 DHCP 클라이언트와 경로 복원 명령 사이의 경합 조건으로 인해 발생합니다. 호스트가 재부팅 과정 중 사용자 지정 경로를 복원하려고 하는 경우 DHCP 클라이언트가 vmknic의 IP 주소 가져오기를 완료하지 못할 수 있습니다. 결과적으로 게이트웨이가 설정되지 않고 경로가 복원되지 않습니다.

    해결 방법: esxcfg-route –r명령을 실행하여 경로를 수동으로 복원합니다.
  • ESXi 호스트가 해당 IPv6 주소로 vCenter Server에 추가된 후 응답을 중지함
    ESXi 호스트를 fe80::/64형식의 IPv6 링크 로컬 주소를 사용하여 vCenter Server에 추가하면 짧은 시간 내에 호스트 이름이 흐리게 표시되고 호스트가 vCenter Server에 대한 응답을 중지합니다.

    해결 방법: 링크 로컬 주소가 아닌 올바른 IPv6 주소를 사용합니다.

  • vSphere Web Client에서 물리적 NIC가 지원하는 것보다 많은 가상 기능을 구성해도 오류 메시지를 표시하지 않음
    물리적 어댑터의 SR-IOV 설정에서 어댑터가 지원하는 것보다 많은 가상 기능을 구성할 수 있습니다. 예를 들어 가상 기능을 23개만 지원하는 NIC에서 가상 기능을 100개 구성할 수 있으며, 이때 오류 메시지가 표시되지 않습니다. SR-IOV 설정을 적용하려면 호스트를 재부팅해야 한다는 메시지가 표시됩니다. 호스트를 재부팅하면 NIC에 해당 어댑터가 지원하는 만큼의 가상 기능(이 예에서는 23개)이 구성됩니다. 호스트를 재부팅하라는 메시지가 표시되지 않아야 하는데도 계속 표시됩니다.

    해결 방법: 없음

  • SR-IOV를 사용하도록 설정된 ESXi 호스트에서 가상 기능과 연결된 가상 시스템이 시작되지 않을 수 있음
    Intel ixgbe NIC를 포함하는 ESXi 호스트 5.1 이상에서 SR-IOV를 사용하도록 설정하고 이 환경에서 몇 가지 가상 기능을 사용하도록 설정하면 일부 가상 시스템이 시작되지 않을 수 있습니다.
    vmware.log파일에는 다음과 유사한 메시지가 포함됩니다.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    해결 방법: 영향을 받는 가상 시스템과 연결된 가상 기능의 수를 줄인 후 가상 시스템을 시작합니다.

  • Emulex BladeEngine 3 물리적 네트워크 어댑터에서 가상 기능으로 지원되는 가상 시스템 네트워크 어댑터가 물리적 기능을 업링크로 사용하는 VMkernel 어댑터에 연결할 수 없음
    가상 기능과 물리적 기능 사이에는 트래픽이 흐르지 않습니다. 예를 들어 물리적 기능으로 지원되는 스위치에서 동일한 포트를 통해 가상 기능을 사용하는 가상 시스템은 동일한 스위치의 VMkernel 어댑터에 연결할 수 없습니다. 이는 Emulex BladeEngine 3 물리적 어댑터의 알려진 문제입니다. 자세한 내용은 Emulex에 문의하십시오.

    해결 방법: 호스트에서 Emulex BladeEngine 3 디바이스의 네이티브 드라이버를 사용하지 않도록 설정합니다. 자세한 내용은 VMware 기술 자료 문서 2044993을 참조하십시오.

  • ESXi Dump Collector가 ESXi 코어 파일을 원격 서버로 보내지 못함
    덤프 수집기의 트래픽을 처리하는 VMkernel 어댑터가 LAG(링크 집계 그룹)가 활성 업링크로 설정된 분산 포트 그룹으로 구성되어 있으면 ESXi Dump Collector가 ESXi 코어 파일을 보내지 못합니다. LACP 포트 채널이 물리적 스위치에 구성되어 있습니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • vSphere 표준 스위치를 사용하여 원격 서버에서 ESXi Dump Collector의 트래픽을 처리하는 VMkernel 어댑터를 구성합니다.
    • 독립 실행형 업링크를 사용하여 VMkernel 어댑터가 구성된 분산 포트 그룹의 트래픽을 처리합니다.
  • 호스트에서 vSphere Standard Switch 또는 vSphere Distributed Switch가 사용하는 포트 수를 vSphere Client를 사용하여 변경하면 재부팅 후에도 변경 내용이 저장되지 않음
    ESXi 5.5 호스트에서 vSphere Standard Switch 또는 vSphere Distributed Switch가 사용하는 포트 수를 vSphere Client를 사용하여 변경하면 호스트를 재부팅한 후에도 포트 수가 변경되지 않습니다.

    ESXi 5.5를 실행하는 호스트는 재부팅될 때 가상 스위치의 포트를 동적으로 늘리거나 줄입니다. 포트 수는 호스트가 실행할 수 있는 가상 시스템 수에 따라 다릅니다. 이러한 호스트에서는 스위치 포트 수를 구성할 필요가 없습니다.

    해결 방법: vSphere Client에서는 해결 방법이 없습니다.

서버 구성 문제

  • 직렬 콘솔에서 Direct Control User Interface에 액세스할 때 메뉴 탐색 문제가 발생함*
    직렬 콘솔에서 Direct Control User Interface에 액세스하는 경우 메뉴를 탐색할 때 위쪽 및 아래쪽 화살표 키가 작동하지 않고 사용자가 DCUI 구성 화면에서 강제로 로그아웃됩니다.

    해결 방법: DCUI 프로세스를 중지합니다. DCUI 프로세스가 자동으로 다시 시작됩니다.

  • ESXi 호스트를 5.5 업데이트 1로 업그레이드한 후 호스트 구성을 변경하면 호스트 프로파일 규정이 준수되는 것으로 잘못 표시될 수 있음*
    호스트 프로파일 규정을 준수하는 ESXi 호스트를 ESXi 5.5 업데이트 1로 업데이트한 다음 호스트 구성을 일부 변경하고 호스트가 호스트 프로파일 규정을 준수하는지 다시 확인하면 프로파일이 준수되는 것으로 잘못 보고됩니다.

    해결 방법:
    • vSPhere Client에서 문제가 있는 호스트 프로파일을 탐색하고 참조 호스트에서 프로파일 업데이트를 실행합니다.
    • vSPhere Web Client에서 문제가 있는 호스트 프로파일을 탐색하고 호스트에서 설정 복사를 클릭하고 구성 설정을 복사할 호스트를 선택한 다음 확인을 클릭합니다.
  • vSphere Distributed Switch를 사용한 호스트 프로파일 업데이트 적용에 실패함
    vSphere Distributed Switch를 사용하여 호스트 프로파일을 적용할 때 Fault Tolerance를 사용하는 가상 시스템이 해당 호스트 프로파일의 Distributed Switch를 사용하는 호스트에서 전원이 꺼진 상태이면 업데이트 적용 오류가 발생할 수 있습니다.

    해결 방법: 호스트 프로파일이 정상적으로 적용되도록 전원이 꺼진 가상 시스템을 다른 호스트로 이동합니다.

  • USB로 상태 비저장 캐시 또는 상태 저장 설치에 Auto Deploy를 사용한 후 비준수 메시지가 나타남
    호스트 프로파일을 편집하여 호스트의 USB 디스크에 상태 비저장 캐시를 사용하도록 설정한 후 업데이트를 적용하려고 할 때 호스트 프로파일에 규정 준수 오류가 발생합니다. 호스트가 재부팅되고 캐시가 완료됩니다. 규정 준수 여부를 검사한 후 다음과 같은 규정 준수 오류가 표시됩니다.
    호스트 상태가 규격과 일치하지 않음

    해결 방법: 해결 방법이 필요하지 않습니다. 메시지가 잘못되었습니다.

  • ESXi 5.5.x 호스트에 ESX 4.0 또는 ESX 4.1 프로파일을 적용할 때 호스트 프로파일에 방화벽 설정 규정 준수 오류가 발생함
    ESX 4.0 또는 ESX 4.1 호스트에서 호스트 프로파일을 추출하여 ESXi 5.5.x 호스트에 적용하려는 경우 프로파일 업데이트 적용이 성공합니다. 규정 준수 검사에서 다음을 포함하는 방화벽 설정 오류가 발생합니다.
    규칙 집합 LDAP를 찾을 수 없음
    규칙 집합 LDAPS를 찾을 수 없음
    규칙 집합 TSM을 찾을 수 없음
    규칙 집합 VCB를 찾을 수 없음
    규칙 집합 activeDrirectorKerberos를 찾을 수 없음

    해결 방법: 해결 방법이 필요하지 않습니다. ESX 4.0 또는 ESX 4.1 호스트의 방화벽 설정이 ESXi 5.5.x 호스트의 방화벽 설정과 다르기 때문에 나타나는 현상입니다.

  • ESXi 호스트에 대한 BIOS 디바이스 설정이 변경되면 디바이스 이름이 잘못될 수 있음
    ESXi 호스트에 대한 BIOS 디바이스 설정이 변경되면 해당 변경으로 인해 디바이스에 할당된 <segment:bus:device:function> 값이 전환될 경우 디바이스 이름이 잘못될 수 있습니다. 예를 들어 이전에 사용 안 함으로 설정되어 있던 통합 NIC를 사용하도록 설정하면 다른 PCI 디바이스에 할당된 <segment:bus:device:function> 값이 전환되어 ESXi에서 이러한 NIC에 할당된 이름이 변경됩니다. 이전 버전의 ESXi와 달리 ESXi 5.5에서는 호스트 BIOS가 특정 디바이스 위치 정보를 제공할 경우 <segment:bus:device:function> 값을 변경함으로써 디바이스 이름을 보존하려고 합니다. 이 기능에 버그가 발생하면 vmhba1 및 vmnic32처럼 잘못된 이름이 생성되는 경우도 있습니다.

    해결 방법: ESXi 호스트를 1~2회 재부팅하면 잘못된 디바이스 이름이 제거되고 기존의 이름이 복원될 수 있습니다. 운영 시 잘못된 디바이스 이름을 사용하여 ESXi 호스트를 실행하지 마십시오.

스토리지 문제

  • RDM 디스크가 포함된 가상 시스템의 라이브 Storage vMotion을 수행하려고 하면 작업이 실패할 수 있음*
    RDM 디스크가 포함된 가상 시스템의 Storage vMotion이 실패할 수 있고 가상 시스템 전원이 꺼진 상태로 표시될 수 있습니다. 가상 시스템 전원을 켜려는 시도가 실패하고 다음 오류가 표시됩니다.

    파일을 잠그지 못했습니다.

    해결 방법: 없음.
  • 이름이 바뀐 태그가 VM 스토리지 정책 편집 마법사에서 누락된 것으로 표시됨
    가상 시스템 스토리지 정책에는 데이터스토어 태그를 기반으로 하는 규칙이 포함될 수 있습니다. 태그 이름을 바꾸면 이 태그를 참조하는 스토리지 정책에서 태그를 자동으로 업데이트하지 않고 누락된 것으로 표시합니다.

    해결 방법: 가상 시스템 스토리지 정책에서 누락된 것으로 표시된 태그를 제거하고 이름이 변경된 태그를 추가합니다. 스토리지 정책을 오래된 모든 엔티티에 다시 적용합니다.

  • Flash Read Cache 블록 크기가 16KB, 256KB, 512KB 또는 1024KB로 설정된 경우 가상 시스템의 전원을 켤 수 없음
    Flash Read Cache가 구성되어 있고 블록 크기가 16KB, 256KB, 512KB 또는 1024KB인 가상 시스템의 전원을 켤 수 없습니다. Flash Read Cache의 경우 캐시 크기는 최소 4MB에서 최대 200GB까지, 블록 크기는 최소 4KB에서 최대 1MB까지 지원합니다. 가상 시스템의 전원을 켤 때 작업이 실패하고 다음과 같은 메시지가 표시됩니다.

    VM의 전원을 켜는 동안 ESX 호스트에서 오류를 수신했습니다.

    가상 시스템을 시작하지 못했습니다.

    DiskEarly 모듈의 전원을 켜지 못했습니다.

    scsi0:0 디스크를 구성하지 못했습니다.

    구성되지 않은 디스크가 있는 가상 시스템의 전원을 켤 수 없습니다. vFlash 캐시를 연결할 수 없습니다(msg.vflashcache.error.VFC_FAILURE).

    해결 방법: 가상 시스템 Flash Read Cache 크기 및 블록 크기를 구성합니다.

    1. 가상 시스템을 오른쪽 버튼으로 클릭하고 설정 편집을 선택합니다.
    2. 가상 하드웨어 탭에서 하드 디스크를 확장하여 디스크 옵션을 표시합니다.
    3. 가상 Flash Read Cache 필드 옆의 고급을 클릭합니다.
    4. 캐시 예약 크기를 늘리거나 블록 크기를 줄입니다.
    5. 확인을 클릭하여 변경 내용을 저장합니다.
  • 저장된 리소스 풀 트리 파일의 사용자 지정 확장자를 vSphere Web Client에서 로드할 수 없음
    호스트 요약 페이지에 DRS 오류 메시지가 나타납니다.

    vSphere Web Client에서 DRS를 사용하지 않도록 설정할 때 리소스 풀 구조를 나중에 다시 로드할 수 있도록 저장하라는 메시지가 표시됩니다. 이 파일의 기본 확장자는 .snapshot이지만 다른 확장자를 선택할 수 있습니다. 이 파일이 사용자 지정 확장자를 사용하는 경우 해당 파일을 로드하려고 하면 사용할 수 없는 것으로 표시됩니다. 이 동작은 OS X에서만 발견됩니다.

    해결 방법: OS X의 vSphere Web Client에 이 파일을 로드하려면 확장자를 .snapshot으로 변경합니다.

  • 호스트 요약 페이지에 DRS 오류 메시지가 표시됨
    호스트 요약 페이지에 다음과 같은 DRS 오류 메시지가 나타납니다.

    호스트에서 DRS 리소스 설정을 적용할 수 없습니다. 현재 상태에서 허용되지 않는 작업입니다. DRS의 효율성이 대폭 감소할 수 있습니다.

    일부 구성에서 경합 조건으로 인해 의미 없거나 조치를 취할 수 없는 오류 메시지가 로그에 생성될 수 있습니다. 이 오류는 DRS 리소스 설정을 적용하는 것과 동시에 가상 시스템의 등록을 취소하는 경우 발생할 수 있습니다.

    해결 방법: 이 오류 메시지를 무시하십시오.

  • 16TB보다 큰 VMDK에 대해 가상 Flash Read Cache를 구성하면 오류가 발생함
    가상 Flash Read Cache는 16TB보다 큰 가상 시스템 디스크를 지원하지 않습니다. 이러한 디스크를 구성하려고 하면 작업이 실패합니다.

    해결 방법: 없음

  • 캐시 크기를 재구성할 때 가상 시스템의 전원이 꺼질 수 있음
    가상 시스템에서 가상 Flash Read Cache를 재구성할 때 잘못된 값을 할당하는 등 올바르지 않게 재구성하면 가상 시스템의 전원이 꺼질 수 있습니다.

    해결 방법: vSphere Storage 설명서의 권장 캐시 크기 지침을 따르십시오.

  • 가상 Flash Read Cache를 사용하도록 설정된 가상 시스템을 재구성하면 작업이 실패하고 작업 시간 초과오류가 발생할 수 있음
    재구성 작업에는 상당한 양의 I/O 대역폭이 필요합니다. 로드를 많이 실행하는 경우 해당 작업이 완료되기 전에 시간이 초과될 수 있습니다. 호스트에 APD(모든 경로 다운) 상태인 LUN이 있는 경우에도 이 동작이 나타날 수 있습니다.

    해결 방법: 호스트 APD 상태를 모두 해결하고 LUN 및 호스트에서 보다 적은 I/O 로드로 작업을 다시 시도합니다.

  • DRS가 로드 밸런싱에 가상 Flash Read Cache를 사용하는 가상 시스템에 대해 vMotion을 수행하지 않음
    DRS가 로드 밸런싱에 가상 Flash Read Cache를 사용하는 가상 시스템에 대해 vMotion을 수행하지 않습니다.

    해결 방법: 다음과 같은 경우를 제외하고는 DRS에서 이러한 가상 시스템에 대해 vMotion을 수행하지 않는 것이 좋습니다.

    • 사용자가 유지 보수 또는 대기 모드로 전환하도록 요청한 호스트를 제거하려는 경우
    • DRS 규칙 위반을 해결하려는 경우
    • 호스트 리소스 사용량이 빨간색 상태인 경우
    • 하나 또는 대부분의 호스트가 초과 사용되고 가상 시스템 요구가 충족되지 않는 경우
      참고:필요한 경우 DRS에서 이 이유를 무시하도록 설정할 수 있습니다.
  • 가상 시스템의 활성 메모리가 낮지만 사용되는 메모리가 높은 경우 호스트가 대기 모드로 전환됨
    ESXi 5.5에서는 기능의 강도를 줄이기 위해 DPM의 기본 동작을 변경합니다. 이와 같이 변경하면 활성 메모리는 낮지만 사용되는 메모리가 높을 때 발생하는 가상 시스템의 성능 저하 문제를 방지하는 데 도움이 될 수 있습니다. DPM 메트릭은 X%*IdleConsumedMemory + 활성 메모리입니다. X% 변수는 조정할 수 있으며 기본적으로 25%로 설정됩니다.

    해결 방법: 고급 옵션에서 PercentIdleMBInMemDemand=0을 설정하여 이전 ESXi 릴리스에 포함된 적극적 DPM 동작으로 복구할 수 있습니다.

  • DRS에서 시작된 vMotion이 실패할 수 있음
    DRS가 가상 Flash Read Cache 예약이 있는 가상 시스템에 vMotion을 권장할 때 대상 호스트에서 사용 가능한 메모리(RAM)가 부족하여 가상 시스템의 Flash Read Cache 예약을 관리할 수 없기 때문에 vMotion이 실패할 수 있습니다.

    해결 방법: vSphere Storage에 나와 있는 Flash Read Cache 구성 권장 사항을 따르십시오.
    vMotion이 실패할 경우 다음 단계를 수행합니다.

    1. 대상 호스트에 있는 가상 시스템 및 들어오는 가상 시스템의 블록 크기를 재구성하여 대상 호스트에서 VMkernel 메모리의 전체 목표 사용량을 줄입니다.
    2. vMotion을 사용하여 가상 시스템을 대상 호스트에 수동으로 마이그레이션하여 상태가 해결되도록 합니다.
  • 개별 SSD 디바이스의 가상 플래시를 구성하는 동안 발생하는 문제를 볼 수 없음
    가상 플래시 리소스 구성은 SSD 디바이스 목록에서 작동하는 작업입니다. 전체 개체에 대해 작업이 완료되면 vSphere Web Client는 작업을 성공한 것으로 보고하며 개별 SSD 디바이스의 구성 관련 문제에 대한 알림을 받을 수 없습니다.

    해결 방법: 다음 작업 중 하나를 수행합니다.

    • 최근 작업 패널에서 완료된 작업을 두 번 클릭합니다.
      작업 세부 정보 대화상자의 관련 이벤트 섹션에 모든 구성 오류가 표시됩니다.
    • 또는 다음 단계를 따릅니다.
      1. 인벤토리에서 호스트를 선택합니다.
      2. 모니터 탭을 클릭하고 이벤트를 클릭합니다.
  • ESXi 호스트에서 Micron PCIe SSD에 대한 SMART 정보를 가져올 수 없음
    esxcli storage core device smart get -d명령을 사용하여 Micron PCIe SSD 디바이스에 대한 통계를 표시하려고 하면 작업에 실패합니다. 다음과 같은 오류 메시지가 표시됩니다.
    Smart 매개 변수를 가져오는 동안 오류가 발생했습니다. 디바이스를 열 수 없습니다.

    해결 방법: 없음. 이번 릴리스에서는 esxcli storage core device smart명령이 Micron PCIe SSD를 지원하지 않습니다.

  • ESXi는 가상 시스템의 구성 파일에서 SCSI 가상 디스크에 대해 구성된 대역폭 제한을 적용하지 않음
    SCSI 가상 디스크의 대역폭 및 처리량 제한은 가상 시스템 구성 파일( .vmx)의 매개 변수 집합을 사용하여 구성합니다. 예를 들어 구성 파일에는 다음과 같은 scsi0:0 가상 디스크의 제한이 포함될 수 있습니다.
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"

    ESXi는 sched.scsi0:0.bandwidthCap제한을 scsi0:0 가상 디스크에 적용하지 않습니다.

    해결 방법: vSphere Web Client 또는 esxcli system settings advanced set 명령을 사용하여 이전 버전의 디스크 I/O 스케줄러로 복구합니다.

    • vSphere Web Client에서 호스트의 고급 시스템 설정 목록에서 Disk.SchedulerWithReservation매개 변수를 편집합니다.
      1. 호스트로 이동합니다.
      2. 관리 탭에서 설정을 선택하고 고급 시스템 설정을 선택합니다.
      3. Disk.SchedulerWithReservation매개 변수를 찾습니다. 이때 필터 또는 찾기 텍스트 상자를 사용합니다.
      4. 편집을 클릭하고 매개 변수를 0으로 설정합니다.
      5. 확인을 클릭합니다.
    • 호스트에 대한 ESXi Shell에서 다음 콘솔 명령을 실행합니다.
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • 캐시에 오류가 있으면 Flash Read Cache가 구성된 가상 시스템을 호스트 밖으로 마이그레이션할 수 없음
    캐시가 오류 상태이고 사용할 수 없다면 Flash Read Cache가 구성된 가상 시스템에서 마이그레이션 오류가 발생했을 수 있습니다. 이 오류가 발생하면 가상 시스템 마이그레이션이 실패합니다.

    해결 방법:

    1. 가상 시스템을 재구성하고 캐시를 비활성화합니다.
    2. 마이그레이션을 수행합니다.
    3. 가상 시스템이 마이그레이션된 후 캐시를 다시 사용합니다.

    또는 가상 시스템을 껐다 켜서 캐시 오류를 교정합니다.

  • 호스트를 ESXi 5.5 베타에서 업그레이드하고 나서 VFFS 볼륨을 삭제할 수 없음
    호스트를 ESXi 5.5 베타에서 업그레이드하고 나서 VFFS 볼륨을 삭제할 수 없습니다.

    해결 방법: 이 문제는 ESXi 5.5 베타에서 ESXi 5.5로 업그레이드할 때만 발생합니다. 이 문제를 방지하려면 업그레이드하는 대신 ESXi 5.5를 설치합니다. ESXi 5.5 베타에서 업그레이드하려면 VFFS 볼륨을 삭제한 후 업그레이드합니다.

  • 이전 Windows 및 Linux 게스트 운영 체제를 사용하는 가상 시스템에서 가상 Flash Read Cache를 사용하도록 설정할 때 개선된 예상 지연 시간 런타임이 나타나지 않음
    가상 Flash Read Cache는 캐시 크기를 대상 작업 집합과 일치하도록 지정할 때와 게스트 파일 시스템을 4KB 이상 경계로 정렬했을 때 최적의 성능을 제공합니다. Flash Read Cache는 캐시 내에서 부분 블록 캐시가 수행되지 않도록 잘못 정렬된 블록을 필터링합니다. 이 동작은 일반적으로 Windows XP 및 Linux 2.6 이전 배포를 사용하는 가상 시스템의 VMDK에 대해 가상 Flash Read Cache가 구성되었을 때 나타납니다. 이러한 경우 캐시 점유율이 적은 낮은 캐시 적중률이 관찰되며, 이는 해당 VMDK의 캐시 예약이 낭비된다는 것을 나타냅니다. Windows 7, Windows 2008 및 Linux 2.6 이상 배포를 실행하는 가상 시스템에서는 파일 시스템이 4KB 경계로 정렬되어 최적의 성능을 보장하므로 이러한 동작이 나타나지 않습니다.

    해결 방법: 각 VMDK에 대해 캐시 적중률을 개선하고 캐시 예약을 최적으로 사용하려면 VMDK에 설치된 게스트 운영 체제가 4KB 이상 경계로 정렬되어 있는지 확인합니다.

Virtual SAN

  • Virtual SAN 디스크 그룹에 자기 디스크를 8개 이상을 추가하려는 시도가 실패하고 잘못된 오류 메시지가 표시될 수 있음*
    Virtual SAN 디스크 그룹에서는 최대 1개의 SSD와 7개의 자기 디스크(HDD)를 지원합니다. 자기 디스크를 더 추가하려고 하면 작업이 실패하고 다음과 유사한 잘못된 오류 메시지가 표시될 수 있습니다.

    디스크 수가 부족합니다.

    해결 방법: 없음
  • Virtual SAN 디스크를 추가할 때 다시 검색 실패가 발생함*
    Virtual SAN 디스크를 추가할 때 non-Virtual SAN 볼륨에 대한 검색 오류로 인해 다시 검색이 실패하고, 이로 인해 작업이 실패합니다.

    해결 방법: 디스크가 모두 올바로 등록되었으면 오류를 무시합니다.
  • 연결된 SSD(Solid State Drive)를 제거한 후 분리한 HDD(하드 디스크 드라이브)가 계속 Virtual SAN에서 할당된 스토리지 디스크로 표시될 수 있음*
    Virtual SAN 데이터스토어에서 SSD 및 이와 연결된 HDD를 차례로 제거하고 esxcli vsan storage list명령을 실행하는 경우 제거된 HDD가 Virtual SAN에서 할당된 스토리지 디스크로 계속 표시됩니다. HDD를 다른 호스트에 다시 삽입하는 경우 디스크가 2개의 다른 호스트에 속한 것으로 표시될 수 있습니다.

    해결 방법: 예를 들어 ESXi x에서 SSD와 HDD를 제거한 후 ESXi y에 삽입하는 경우 다음 단계를 수행하여 HDD가 ESXi x 및 ESXi y 모두에 속한 것으로 표시되지 않게 합니다.
    1. ESXi x에서 제거한 SSD 및 HDD를 ESXi y에 삽입합니다.
    2. ESXi x에서 SSD를 분리합니다.
    3. esxcfg-rescan -A명령을 실행합니다.
       HDD 및 SSD가 ESXi x에 더 이상 표시되지 않습니다.
  • vSphere Storage 설명서의 Virtual SAN 작업 섹션에는 디스크 그룹당 최대 HDD 디스크 수가 6개로 나와 있습니다. 그러나 허용되는 최대 HDD 수는 7개입니다.*
  • Virtual SAN 클러스터에 장애가 발생한 후 가상 시스템을 다시 시작하기 전 vSphere HA가 여러 이벤트를 보고할 수 있고, 그중 일부는 잘못된 것일 수 있음*
    Virtual SAN에 장애가 발생한 것으로 표시된 후 vSphere HA 마스터 에이전트가 Virtual SAN에서 실행 중인 가상 시스템을 다시 시작하려고 여러 번 시도합니다. 가상 시스템을 즉시 다시 시작할 수 없으면 마스터 에이전트가 클러스터 상태를 모니터링하여 다시 시작할 수 있는 조건이 되면 다시 시작을 또 한 번 시도합니다. Virtual SAN에서 실행 중인 가상 시스템의 경우 vSphere HA 마스터는 특수한 애플리케이션 로직을 통해 가상 시스템 개체의 접근성 변경 조건을 감지하고 접근성이 변경되었을 가능성이 높을 때마다 다시 시작을 시도합니다. 마스터 에이전트는 접근성이 변경되었을 가능성이 있을 때마다 다시 시작을 시도하고, 가상 시스템의 전원을 켜지 못한 경우에는 다시 시작을 포기하고 다음 접근성 변경 조건이 발생할 때까지 기다립니다.

    다시 시작 시도에 실패할 때마다 vSphere HA가 페일오버에 성공하지 못했다는 이벤트를 보고하고 다섯 번째 시도에 실패하면 최대 페일오버 시도 횟수에 도달해서 vSphere HA가 가상 시스템 다시 시작 시도를 중지했다고 보고합니다. 그러나 vSphere HA 마스터 에이전트가 다시 시작 시도를 중지했다고 보고한 후에도 다음에 접근성이 변경될 가능성이 생기면 다시 시도합니다.

    해결 방법: 없음.

  • Virtual SAN 호스트의 전원을 끄면 vSphere Web Client의 스토리지 제공자 보기가 새로 고쳐지는 데 예상보다 오래 걸림*
    Virtual SAN 호스트의 전원을 끄는 경우 스토리지 제공자 보기가 빈 상태로 표시될 수 있습니다. 아무 정보도 표시되지 않지만 새로 고침 버튼은 계속 돌아갑니다.

    해결 방법: 스토리지 제공자 보기가 다시 채워질 때까지 15분 이상 기다립니다. 또한 호스트의 전원을 켜면 보기가 새로 고쳐집니다.

  • Virtual SAN이 실패한 작업을 완료된 것으로 보고함*
    Virtual SAN이 특정 작업이 내부적으로 실패했음에도 불구하고 완료된 것으로 보고할 수 있습니다.

    오류의 조건 및 해당하는 원인은 다음과 같습니다.

    • 조건: Virtual SAN 라이센스가 만료되었는데 사용자가 새 디스크 그룹을 생성하거나 기존 디스크 그룹에 새 디스크를 추가하려고 합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 디스크를 추가할 수 없습니다. 이 호스트에는 VSAN에 대한 라이센스가 없습니다.
    • 조건: 사용자가 디스크 수가 지원되는 수보다 많은 디스크 그룹을 생성하려고 합니다. 또는 기존 디스크 그룹에 새 디스크를 추가하여 총 수가 디스크 그룹당 지원되는 디스크 수를 초과합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 디스크가 너무 많습니다.
    • 조건: 사용자가 오류가 발생한 디스크 그룹에 디스크를 추가하려고 합니다.
      오류 스택: 일반 시스템 오류가 발생했습니다. 파티션 테이블을 생성할 수 없습니다.

    해결 방법: 오류 원인을 식별했으면 원인을 수정하고 작업을 다시 시도합니다.

  • Virtual SAN 데이터스토어에서 호스트 로컬 및 시스템 스왑 파일을 저장할 수 없음*
    일반적으로 시스템 스왑 또는 호스트 로컬 스왑 파일은 데이터스토어에 저장할 수 있습니다. 그러나 Virtual SAN 데이터스토어는 시스템 스왑 파일 및 호스트 로컬 스왑 파일을 지원하지 않습니다. 따라서 Virtual SAN 데이터스토어를 시스템 스왑 또는 호스트 로컬 스왑의 파일 위치로 선택할 수 있는 UI 옵션을 사용할 수 없습니다.

    해결 방법: Virtual SAN 환경에서는 지원되는 다른 옵션을 사용하여 시스템 스왑 파일 및 호스트 로컬 스왑 파일을 저장합니다.

  • vSphere HA 클러스터의 Virtual SAN 가상 시스템의 전원이 꺼졌는데도 vSphere HA로 보호된다고 보고됨*
    이 문제는 Virtual SAN 데이터스토어에 홈 개체가 있는 가상 시스템의 전원을 끌 때 홈 개체에 액세스할 수 없는 경우에 발생할 수 있습니다. 이 문제는 개체가 액세스할 수 없게 된 후 HA 마스터 에이전트를 선택하는 경우에 발생합니다.

    해결 방법:

    1. 개체가 지정된 스토리지 정책을 준수하는지 확인하여 홈 개체에 다시 액세스할 수 있도록 합니다.
    2. 가상 시스템의 전원을 켰다가 다시 끕니다.

    상태가 보호되지 않음으로 변경됩니다.

  • 다시 적용 작업이 트리거되어 성공적으로 완료된 후에도 가상 시스템 개체가 최신 버전이 아님 상태로 유지됨*
    새로운 스토리지 요구 사항으로 인해 기존 가상 시스템 프로파일을 편집하는 경우 관련 가상 시스템 개체인 홈 또는 디스크가 최신 버전이 아님 상태로 전환될 수 있습니다. 이 문제는 현재 환경에서 가상 시스템 개체의 재구성을 지원하지 않는 경우에 발생합니다. 다시 적용 작업을 사용해도 상태가 변경되지 않습니다.

    해결 방법: Virtual SAN 클러스터에 리소스(호스트 또는 디스크)를 추가하고 다시 적용 작업을 다시 호출합니다.

  • Virtual SAN을 사용하도록 설정한 후 Virtual SAN에 라이센스를 할당한 경우 자동 디스크 할당이 예상대로 작동하지 않음*
    자동 모드에서 Virtual SAN을 사용하도록 설정한 다음 라이센스를 할당한 경우 Virtual SAN에 디스크를 할당하지 못합니다.

    해결 방법: 모드를 수동으로 변경했다가 다시 자동으로 전환합니다. Virtual SAN에 디스크가 제대로 할당됩니다.

  • Virtual SAN 네트워크가 분할된 경우 vSphere HA(High Availability)가 가상 시스템을 다시 시작하지 못함*
    이 문제는 Virtual SAN에서 노드 간 통신에 VMkernel 어댑터를 사용할 때 VMkernel 어댑터가 클러스터의 다른 VMkernel 어댑터와 동일한 서브넷에 있는 경우에 발생합니다. 이러한 구성에서는 네트워크 오류가 발생하고 Virtual SAN 노드 간 통신이 중단될 수 있지만 vSphere HA 노드 간 통신은 영향을 받지 않습니다.

    이 경우 HA 마스터 에이전트는 가상 시스템에서 오류를 감지할 수 있지만 가상 시스템을 다시 시작하지는 못합니다. 예를 들어 마스터 에이전트가 실행 중인 호스트가 가상 시스템의 개체에 액세스할 수 없는 경우 이 문제가 발생할 수 있습니다.

    해결 방법: Virtual SAN에서 사용하는 VMkernel 어댑터가 다른 용도로 사용되는 VMkernel 어댑터와 서브넷을 공유하지 않아야 합니다.

  • VM 디렉토리에 중복된 스왑(.vswp) 파일이 포함됨*   
    이 문제는 Virtual SAN에서 실행 중인 가상 시스템을 정상적으로 종료하지 않은 경우, 그리고 Virtual SAN 디스크에서 데이터를 지우지 않고 ESXi 및 vCenter Server를 새로 설치하는 경우에 발생할 수 있습니다. 결과적으로 정상적으로 종료되지 않은 가상 시스템의 디렉토리에 이전 스왑 파일(.vswp)이 존재하게 됩니다.

    해결 방법: 없음

vCenter Server 및 vSphere Web Client

  • Active Directory 도메인에 ESXi 호스트를 추가할 수 없음*
    사용자 및 그룹 선택 옵션 아래에서 사용 권한을 할당할 때 도메인 드롭다운 목록에 Active Directory 도메인 이름이 표시되지 않을 수 있습니다. 또는 Active Directory에 신뢰할 수 있는 도메인이 있음에도 불구하고 인증 서비스 설정 옵션에 신뢰할 수 있는 도메인 컨트롤러가 표시되지 않을 수 있습니다.

    해결 방법:
    1. netlogond, lwiod 및 lsassd 대몬을 차례로 다시 시작합니다.
    2. vSphere Client를 사용하여 ESXi 호스트에 로그인합니다.
    3. 구성 탭에서 인증 서비스 설정을 클릭합니다.
    4. 화면을 새로 고쳐 신뢰할 수 있는 도메인을 확인합니다.
가상 시스템 관리 문제
  • 프랑스어 로케일의 Windows 7 Enterprise 64비트 게스트 운영 체제를 사용하는 가상 시스템에서 복제 작업 중 문제 발생
    프랑스어 로케일로 실행 중인 복제된 Windows 7 Enterprise 64비트 가상 시스템이 있는 경우 가상 시스템의 네트워크 연결이 끊어지고 사용자 지정 규격이 적용되지 않습니다. 이 문제는 가상 시스템이 ESXi 5.1 호스트에서 실행되고 있을 때 시스템을 ESXi 5.5로 복제하고 VMware Tools 버전을 5.5 호스트에서 사용 가능한 최신 버전으로 업그레이드하는 경우에 나타납니다.

    해결 방법: 사용 가능한 최신 버전의 VMware Tools로 업그레이드하기 전에 가상 시스템 호환성을 ESXi 5.5 이상으로 업그레이드합니다.

  • 실행 중인 가상 시스템에서 가상 디스크의 크기를 늘리려고 하면 작업이 실패하고 오류가 발생함
    가상 시스템이 실행 중일 때 가상 디스크 크기를 늘리는 경우 작업이 실패하고 다음과 같은 오류가 발생할 수 있습니다.

    이 디바이스 유형에는 이 작업이 지원되지 않습니다.

    디스크 크기를 2TB 이상으로 확장하는 경우 오류가 발생할 수 있습니다. 핫 확장 작업에서는 디스크 크기를 2TB 미만으로만 늘릴 수 있습니다. SATA 가상 디스크는 크기에 관계없이 핫 확장 작업을 지원하지 않습니다.

    해결 방법: 가상 디스크를 2TB 이상으로 확장하려면 가상 시스템의 전원을 끕니다.

VMware HA 및 Fault Tolerance 문제
  • vSphere HA 클러스터에서 ESX/ESXi 4.0 또는 4.1 호스트를 선택하여 가상 시스템을 페일오버하면 가상 시스템이 정상적으로 다시 시작되지 않을 수 있음
    vSphere HA가 가상 시스템이 실행되던 원래 호스트와 다른 ESX/ESXi 4.0 또는 4.1 호스트에서 가상 시스템을 다시 시작하면 응답을 받지 못하는 쿼리가 실행됩니다. vSphere Client에서 사용자가 직접 쿼리에 응답할 때까지 새 호스트에서 가상 시스템의 전원이 켜지지 않습니다.

    해결 방법: vSphere Client에서 쿼리에 응답합니다. 또는 시간이 초과될 때(기본적으로 15분)까지 기다리면 vSphere HA가 다른 호스트에서 가상 시스템을 다시 시작하려고 시도합니다. 호스트가 ESX/ESXi 5.0 이상을 실행하고 있으면 가상 시스템이 다시 시작됩니다.

  • 공유 스토리지가 없는 vMotion 작업이 vSphere HA 클러스터에서 실패하면 대상 가상 시스템이 예기치 않은 호스트에 등록될 수 있음
    공유 스토리지를 포함하지 않는 vMotion 마이그레이션은 대상 가상 시스템이 두 가상 시스템 간의 제어권 전송을 조정하는 핸드셰이크 메시지를 수신하지 않아 실패할 수 있습니다. vMotion 프로토콜은 소스 및 대상 가상 시스템의 전원을 모두 끕니다. 소스 및 대상 호스트가 동일한 클러스터에 있고 vSphere HA를 사용하도록 설정했으면 vSphere HA에 의해 대상 가상 시스템이 vMotion 마이그레이션 대상으로 선택한 호스트가 아닌 다른 호스트에 등록될 수 있습니다.

    해결 방법: 대상 가상 시스템을 유지하고 특정 호스트에 등록되게 하려면 대상 가상 시스템을 대상 호스트에 재배치합니다. 이때 가상 시스템을 재배치한 후에 전원을 켜는 것이 좋습니다.

지원되는 하드웨어 문제
  • 팬, 전원 공급 장치, 전압 및 현재 센서의 센서 값이 vCenter Server 하드웨어 상태 탭의 기타 그룹 아래에 나타남
    일부 센서 값은 분류된 해당 그룹이 아니라 기타 그룹에 나열됩니다.

    해결 방법: 없음

  • 디버그 DMA(Direct Memory Access) 매퍼를 사용하도록 설정하면 IOMMU(입/출력 메모리 관리 장치) 장애가 나타날 수 있음
    디버그 매퍼는 디바이스를 IOMMU 도메인에 배치하여 디바이스 메모리가 명시적으로 매핑되지 않은 주소에 액세스하도록 도와 줍니다. 이전 펌웨어를 사용하는 일부 HP 시스템에서 IOMMU 장애가 나타날 수 있습니다.

    해결 방법: HP 웹 사이트에서 펌웨어 업그레이드를 다운로드하고 적용합니다.

    • HP iLO2 컨트롤러의 펌웨어를 업그레이드합니다.
      2011년 8월에 릴리스된 버전 2.07에서 이 문제를 해결합니다.
    • HP Smart Array의 펌웨어를 업그레이드합니다.
      HP Smart Array P410의 경우 2012년 1월에 릴리스된 버전 5.14에서 이 문제를 해결합니다.

VMware Tools 문제

  • OSP를 통해 VMware Tools를 설치 또는 제거하는 동안 사용자가 강제로 로그아웃됨*
    OSP(Operating System Specific Package)를 사용하여 설치한 RHEL(Red Hat Linux Enterprise) 및 CentOS 가상 시스템에서 VMware Tools 패키지를 설치하거나 제거할 때 현재 사용자가 강제로 로그아웃됩니다. 이 문제는 RHEL 6.5 64비트, RHEL 6.5 32비트, CentOS 6.5 64비트 및 CentOS 6.5 32비트 가상 시스템에서 발생합니다.

    해결 방법:
    • SSH(보안 셸)를 사용하여 VMware Tools를 설치하거나 제거합니다.
      또는
    • 사용자는 다시 로그인하여 VMware Tools 패키지를 설치하거나 제거해야 합니다.