VMware ESXi 5.1 업데이트 3 | 2014년 12월 4일 | 빌드 2323236

마지막 업데이트 날짜: 2014년 12월 4일

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • 추가 게스트 운영 체제 지원. 이 릴리스에서는 여러 게스트 운영 체제에 대한 지원을 업데이트합니다.
    이 릴리스에서 지원되는 게스트 운영 체제의 전체 목록을 보려면 VMware 호환성 가이드를 참조하십시오.

  • 해결된 문제. 이 릴리스에서는 해결된 문제 섹션에 자세히 나와 있는 여러 가지 문제도 해결합니다.

ESXi 5.1의 이전 릴리스

ESXi 5.1의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 ESXi 5.1 릴리스의 릴리스 정보를 보려면 다음을 참조하십시오.

국제화

VMware vSphere 5.1 업데이트 3는 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체

호환성 및 설치

vSphere Client 업그레이드

vCenter Server 또는 ESXi 호스트를 vSphere 5.1 업데이트 3로 업그레이드하고 5.1 업데이트 1b 이전 버전의 vSphere Client를 사용하여 vCenter Server 또는 ESXi 호스트에 연결하려고 하면 vSphere Client를 vSphere Client 5.1 업데이트 3로 업그레이드하라는 메시지가 표시됩니다. vSphere Client 업그레이드는 필수입니다. 업그레이드된 vSphere Client를 사용해야 vSphere 5.1 업데이트 3에 액세스할 수 있습니다.

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. ESXi나 vCenter Server를 설치하기 전에 이 사이트로 이동하여 지원되는 관리 및 백업 에이전트에 대한 정보도 참조하십시오.

vSphere Client와 vSphere Web Client는 vCenter Server 및 모듈 ZIP 파일에 함께 패키지되어 있으며 VMware vCenter 설치 관리자 마법사에서 클라이언트 하나 또는 둘 다를 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.1.3에는 ESXi 5.1 업데이트 3 및 vCenter Server 5.1 업데이트 3 릴리스에 대한 지원이 추가되었습니다. VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

ESXi의 하드웨어 호환성

vSphere 5.1 업데이트 3와 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 3 정보를 참조하십시오.

이번 릴리스에 대해 지원되는 프로세서 목록이 확장되었습니다. 이번 릴리스와 호환되는 프로세서를 확인하려면 VMware 호환성 가이드를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

ESXi 5.1 업데이트 3과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 3 정보를 참조하십시오.

vSphere 5.1부터 이전 게스트 운영 체제에 대한 지원 수준 변경이 도입되었습니다. 각 지원 수준에 대한 설명은 기술 자료 문서 2015161을 참조하십시오. VMware 호환성 가이드에서는 모든 운영 체제 릴리스와 VMware 제품 릴리스에 대한 자세한 지원 정보를 제공합니다.

다음 게스트 운영 체제 릴리스는 각 운영 체제 벤더가 더 이상 지원하지 않습니다. 이러한 게스트 운영 체제는 vSphere 5.1 업데이트 3에서는 지원되지만 이후 vSphere 릴리스에서는 지원되지 않습니다.

  • Windows NT
  • 모든 16비트 Windows 및 DOS 릴리스(Windows 98, Windows 95, Windows 3.1)
  • Debian 4.0 및 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • SUSE Linux Enterprise 9 SP4 이전
  • SUSE Linux Enterprise 10 SP3 이전
  • SUSE Linux Enterprise 11 SP1 이전
  • Ubuntu 릴리스 8.04, 8.10, 9.04, 9.10 및 10.10
  • 모든 Novell Netware 릴리스
  • 모든 IBM OS/2 릴리스

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 5.1 업데이트 3에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 더 이상 지원되지 않습니다. ESXi 5.1 업데이트 3에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 하드웨어 버전을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 정보는 vSphere 설치 및 설정 설명서를 참조하십시오.

설치 프로세스는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 특히 다음 정보를 읽어 보십시오.

타사 솔루션 마이그레이션

호스트 업그레이드의 일부로 ESX 또는 ESXi 호스트에 설치된 타사 솔루션은 직접 마이그레이션할 수 없습니다. ESXi 5.0과 ESXi 5.1 간의 아키텍처 변경으로 타사 구성 요소가 손실되거나 시스템이 불안정해질 수 있습니다. 이러한 마이그레이션을 성공적으로 수행하려면 Image Builder를 사용하여 사용자 지정 ISO 파일을 생성합니다. 타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 5.1 업데이트 3에서는 LAHF 및 SAHF CPU 명령 집합이 포함된 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.1 업데이트 3와 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되면 vSphere 5.1 업데이트 3를 설치하거나 vSphere 5.1 업데이트 1로 업그레이드할 수 없습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

ESXi 5.1 업데이트 3에서는 ESX/ESXi 호스트를 업그레이드하기 위해 다음과 같은 도구를 제공합니다.

  • CD-ROM , DVD 또는 USB 플래시 드라이브에서 ESXi 설치 프로그램 ISO 이미지를 사용하여 대화형 업그레이드 수행. CD-ROM, DVD 또는 USB 플래시 드라이브에서 ESXi 5.1 업데이트 3 설치 관리자를 실행하여 대화형 업그레이드를 수행할 수 있습니다. 이 방법은 호스트 수가 적은 경우에 적절합니다.
  • 스크립트로 작성된 업그레이드 수행. 효율적인 자동 업그레이드를 제공하는 업데이트 스크립트를 호출하여 ESX/ESXi 4.x 호스트, ESXi 5.0.x 및 ESXi 5.1.x 호스트에서 ESXi 5.1 업데이트 3으로 업그레이드하거나 마이그레이션할 수 있습니다. 스크립트로 작성된 업그레이드를 수행할 경우 여러 호스트를 효율적으로 배포할 수 있습니다. 스크립트를 사용하여 CD-ROM이나 DVD 드라이브에서 ESXI를 업그레이드하거나 설치 관리자를 PXE 부팅할 수 있습니다.

  • vSphere Auto Deploy. ESXi 5.x 호스트가 vSphere Auto Deploy를 사용하여 배포된 경우 Auto Deploy를 통해 ESXi 업그레이드가 포함된 새 이미지 프로파일로 재부팅하여 호스트를 재프로비저닝할 수 있습니다.

  • ESXCLI. ESXCLI 명령줄 유틸리티를 사용하여 ESXi 5.0.x 및 ESXi 5.1.x 호스트를 업데이트하고 패치를 적용할 수 있습니다. 이렇게 하려면 vmware.com의 다운로드 디포 또는 VMware 파트너가 제공되는 디포의 다운로드된 ZIP 파일을 사용합니다. esxcli를 사용하여 ESX/ESXi 5.0 이전 버전에서 ESX 또는 ESXi 호스트 5.1.x 버전으로 업그레이드할 수는 없습니다.

ESXi 5.1 업데이트 3로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.1 업데이트 3로의 업그레이드를 위해 지원되는 경로

ESX/ESXi 4.0:
포함 버전:
ESX/ESXi 4.0 업데이트 1
ESX/ESXi4.0 업데이트 2

ESX/ESXi4.0 업데이트 3
ESX/ESXi 4.0 업데이트 4

ESX/ESXi 4.1:
포함 버전:
ESX/ESXi 4.1 업데이트 1
ESX/ESXi 4.1 업데이트 2

ESX/ESXi 4.1 업데이트 3

 

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1

ESXi 5.0 업데이트 2
ESXi 5.0 업데이트 3

ESXi 5.1:
포함 버전:
ESXi 5.1 업데이트 1
ESXi 5.1 업데이트 2

VMware-VMvisor-Installer-5.1.0.update03-2323236.x86_64.iso

  • VMware vCenter Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드

update-from-esxi5.1-5.1_update03.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

예*

VMware 포털(온라인)에서 다운로드한 패치 정의 사용

VMware vCenter Update Manager(패치 기준선 포함)

아니요

아니요

아니요

* 참고: update-from-esxi5.1-5.1_update03.zip을 사용한 ESXi 5.0.x에서 ESXi 5.1 업데이트 3으로의 업그레이드는 ESXCLI를 사용하는 경우에만 지원됩니다. 업그레이드를 수행하려면 esxcli software profile update --depot=<depot_location> --profile=<profile_name> 명령을 실행해야 합니다. 자세한 내용은 vSphere 업그레이드 가이드에서 ESXi 5.1.x 업그레이드 옵션 항목을 참조하십시오.

VMware vSphere 5.1 업데이트 3의 오픈 소스 구성 요소

vSphere 5.1 업데이트 3에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/open_source.html에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vSphere Client. vSphere 5.1에서는 vSphere Web Client를 통해서만 새로운 vSphere 기능을 모두 사용할 수 있습니다. 기존 vSphere Client가 계속해서 작동하면서 vSphere 5.0과 동일한 기능 세트를 지원하지만 vSphere 5.1의 새로운 기능은 지원하지 않습니다.

    vSphere 5.1과 해당 후속 업데이트 및 패치 릴리스는 vSphere Client를 포함하는 마지막 릴리스입니다. VMware vSphere의 이후 주요 릴리스에는 vSphere Web Client만 포함됩니다.

    vSphere 5.1의 경우 기존 vSphere Client의 버그 수정은 보안 또는 중요 문제로 제한됩니다. 중요 버그는 지정된 제품 기능에서 벗어나 데이터 손상, 데이터 손실, 시스템 충돌 또는 상당한 고객 애플리케이션 다운타임을 초래하는 것으로, 구현 가능한 해결 방법이 없습니다.

  • VMware Toolbox. vSphere 5.1은 VMware Tools 그래픽 사용자 인터페이스인 VMware Toolbox를 지원하는 최근 릴리스입니다. VMware에서는 모든 VMware Tools 기능을 수행하는 Toolbox CLI(명령줄 인터페이스)를 지속적으로 업데이트하고 지원할 것입니다.

  • VMI 반가상화. vSphere 4.1은 VMI 게스트 운영 체제 반가상화 인터페이스를 지원하는 마지막 릴리스였습니다. 이후 vSphere 릴리스에서도 VMI를 실행할 수 있도록 VMI를 사용하는 가상 시스템을 마이그레이션하는 데 대한 자세한 내용은 기술 자료 문서 1013842를 참조하십시오.

  • Windows 게스트 운영 체제 사용자 지정. vSphere 5.1은 Windows 2000 게스트 운영 체제 사용자 지정 기능을 지원하는 마지막 릴리스입니다. VMware에서는 이후 버전의 Windows 게스트를 위한 사용자 지정 기능을 지속적으로 지원할 것입니다.

  • VMCI 소켓. 가상 시스템 사이의 게스트 간 통신은 vSphere 5.1 릴리스에서 더 이상 사용되지 않습니다. 이 기능은 다음 주요 릴리스에서 제거됩니다. 호스트 및 게스트 간 통신은 계속 지원됩니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi510-Update03에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201412201-UG: ESXi 5.1 esx-base vib 업데이트
ESXi510-201412202-UG: ESXi 5.1 tools-light vib 업데이트
ESXi510-201412203-UG: ESXi 5.1 scsi-megaraid-sas vib 업데이트

패치 릴리스 ESXi510-Update03 Security-only에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201412101-SG: ESXi 5.1 esx-base vib 업데이트

패치 릴리스 ESXi510-Update03에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20141202001-standard
ESXi-5.1.0-20141202001-no-tools

패치 릴리스 ESXi510-Update03 Security-only에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20141201001s-standard
ESXi-5.1.0-20141201001s-no-tools

패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 해결된 문제에 대해 설명합니다.

백업

  • 백업 소프트웨어를 사용할 때, 할당된 디스크 섹터의 목록이 올바르지 않게 반환되며 증분 백업이 손상되거나 누락된 것으로 나타날 수 있음
    VDDK(Virtual Disk Development Kit) API 호출 QueryChangedDiskAreas()를 사용하는 백업 소프트웨어를 사용할 때, 할당된 디스크 섹터의 목록이 올바르지 않게 반환되고 증분 백업이 손상되거나 누락된 것으로 나타날 수 있습니다. 다음과 유사한 메시지가 vmware.log에 기록됩니다.
    DISKLIB-CTK: Resized change tracking block size from XXX to YYY
    자세한 내용은 KB 2090639을 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 네트워크 파일 시스템 마운트를 열 때 VMware Tools가 응답을 중지할 수 있음
    Linux 가상 시스템에서 중지된 스냅샷을 생성할 때, NFS(네트워크 파일 시스템)를 여는 중 VMware Tools가 응답을 중지하여 게스트 운영 체제에서 모든 파일 시스템 활동이 중지될 수 있습니다. 다음과 유사한 오류 메시지가 표시되고 가상 시스템이 응답을 멈춥니다.
    An error occurred while saving the snapshot: msg.snapshot.error-QUIESCINGERROR
    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템 복구 시도가 오류와 함께 실패할 수 있음
    vSphere Data Protection을 사용하는 ESXi 호스트에서 가상 시스템을 복원하려고 하면 오류 메시지와 함께 실패할 수 있습니다.
    다음과 유사한 오류 메시지가 표시됩니다.
    Unexpected exception received during reconfigure
    이 문제는 이 릴리스에서 해결되었습니다.
  • Storage vMotion 후에 변경된 블록 추적이 재설정됨
    vSphere 5.x에서 Storage vMotion 작업을 수행하면 CBT(변경된 블록 추적)가 재설정됩니다.
    자세한 내용은 KB 2048201을 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 중지된 스냅샷을 생성하는 도중 Red Hat Enterprise Linux 가상 시스템이 응답을 멈출 수 있음
    RHEL(Red Hat Enterprise Linux)을 실행하는 전원이 켜진 가상 시스템을 백업하기 위해 중지된 스냅샷을 생성할 때 가상 시스템이 응답을 중지하고 재부팅 없이 복구되지 않을 수 있습니다. 이 문제는 중지된 스냅샷 작업을 수행하는 동안 일부 VIX 명령을 실행할 때 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.

CIM 및 API

  • vSphere Client의 하드웨어 상태 탭에 잘못된 경보가 나타남
    HP DL980 G7에서 iLO(Integrated Lights Out) 펌웨어를 업그레이드한 후 vSphere Client의 하드웨어 상태 탭에 잘못된 경보가 나타납니다.
    다음과 유사한 오류 메시지가 /var/log/syslog.log파일에 기록될 수 있습니다.
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    2014-10-17T08:51:14Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    2014-10-17T08:51:15Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    2014-10-17T08:51:17Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    2014-10-17T08:51:20Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    2014-10-17T08:51:21Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007
    이 문제는 이 릴리스에서 해결되었습니다.
  • hrSWRunPerfCPU의 반환 값이 올바르지 않게 보고됨
    SNMP를 사용하도록 설정된 ESXi 호스트에서 hrSWRunPerfCPU의 값이 올바르지 않게 보고됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • EMC PowerPath를 사용하여 CIM_System을 쿼리할 때 쿼리 작업이 실패함
    PowerPath에서 /VMware/esxv2/아래의 CIM_System을 쿼리할 때 작업이 실패하고 CIM 서버에서 오류가 보고됩니다. 오류는 다음과 유사합니다.
    ThreadPool --- 요청을 대기열에 넣지 못했습니다. 이미 대기열에 넣은 요청이 너무 많음: vmwaLINUX
    ThreadPool --- 요청을 대기열에 넣지 못했습니다. 이미 대기열에 넣은 요청이 너무 많음: vmware_base, active 5, queued 11 .\TreeViewHostDiscovery.cpp 611
    이 문제는 이 릴리스에서 해결되었습니다.
  • 센서 데이터를 업데이트하는 동안 이더넷 제공자에서 코어 덤프가 발견됨
    IBM x3650M3 서버의 하드웨어 상태 탭에서 센서 데이터를 업데이트하는 동안 이더넷 제공자에서 SFCB(Small Footprint CIM Broker) 코어 덤프가 발견됩니다. 여러 번 시도한 후에도 하드웨어 상태 탭에 데이터가 표시되지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Auto Deploy를 사용하여 ESXi 호스트를 재부팅할 때 CIM 표시가 실패할 수 있음
    sfcbd 서비스 실행이 중지되면 호스트 프로파일의 CIM 표시가 성공적으로 적용되지 않을 수 있습니다.
    이 릴리스에서는 호스트 프로파일 적용 중 CIM 표시가 sfcbd 서비스의 상태를 사용하지 않도록 하여 이 문제가 해결되었습니다.
  • 특정 조건에서 sfcbd 서비스가 중지 또는 다시 시작되지 않을 수 있음
    ESXi 호스트의 하드웨어 상태 정보를 담당하는 하드웨어 모니터링 서비스(sfcbd)를 중지하고 시작할 경우, syslog 파일에 기록되는 다음과 유사한 오류 메시지와 함께 실패하고 다시 시작되지 않을 수 있습니다.
    sfcbd: Sending TERM signal to sfcbd
    sfcbd-watchdog: Sleeping for 20 seconds
    sfcbd: Sending TERM signal to sfcbd
    sfcbd-watchdog: Sleeping for 20 seconds
    sfcbd-watchdog: Waited for 3 20 second intervals, SIGKILL next
    sfcbd: Stopping sfcbd
    sfcbd-watchdog: Sleeping for 20 seconds
    sfcbd-watchdog: Providers have terminated, lets kill the sfcbd.
    sfcbd-watchdog: Reached max kill attempts. watchdog is exiting
    그 결과, vCenter Server에서 하드웨어 상태를 보려고 할 때 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    The monitoring service on the esx host is not responding or not available.
    이 문제는 이 릴리스에서 해결되었습니다.
  • IPv6를 사용하도록 설정된 ESXi 호스트의 하드웨어 상태를 모니터링하려고 시도할 때 WBEM(Web Based Enterprise Management) 쿼리가 실패할 수 있음
    IPv6 를 사용하는 ESXi 호스트의 하드웨어 상태를 모니터링하려고 시도할 때 WBEM 쿼리가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 syslog 파일에 기록됩니다.
    Timeout error accepting SSL connection exiting.
    이 문제를 해결하기 위해 시간 제한 값을 설정할 수 있는 새 구성 매개 변수 httpSelectTimeout이 추가되었습니다.
  • ESXi가 관리 소프트웨어에 중복 이벤트를 전송할 수 있음
    ESXi 호스트에서 IPMI(Intelligent Platform Management Interface) 센서 이벤트가 트리거될 때 ESXi가 관리 소프트웨어에 중복 이벤트를 전송할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 전원 공급 정보를 알 수 없음으로 표시할 수 있음
    ESXi 호스트 또는 ESXi 호스트를 관리하는 vCenter Server에 직접 연결하여 ESXi 호스트의 하드웨어 상태를 보려고 할 때 전원 공급 정보가 알 수 없음으로 표시될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Class CIM_NetworkPort 쿼리가 일관되지 않은 결과를 보고할 수 있음
    CIM 또는 WBEM 서비스로 Class CIM_NetworkPort 쿼리를 사용하여 하드웨어를 모니터하려고 하면 ESXi 5.1 및 ESXi 5.5에 대해 일관되지 않은 값이 보고될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.1 호스트 모니터링이 실패할 수 있음
    openwsmand 오류 때문에 Dell OpenManage를 사용하는 ESXi 5.1 호스트 모니터링이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 syslog.log에 보고될 수 있습니다.
    Failed to map segment from shared object: No space left on device
    이 문제는 이 릴리스에서 해결되었습니다.
  • 하드웨어 상태 모니터링이 응답하지 못할 수 있음
    하드웨어 상태 모니터링이 응답하지 않을 수 있고 CIM 제공자가 다음과 유사한 오류 메시지를 표시할 수 있습니다.
    2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM이 dlopen할 수 없음(/lib/security/$ISA/pam_passwdqc.so): /lib/security/../../lib/security/pam_passwdqc.so: 공유된 개체 파일을 열 수 없음: 열린 파일이 너무 많음2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM이 장애가 있는 모듈을 추가함: /lib/security/$ISA/pam_passwdqc.so2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM unable to dlopen(/lib/security/
    SFCB 서비스도 응답을 중지할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 상태를 확인할 때 hostd가 응답하지 않을 수 있음
    vSphere Client를 ESXi 호스트에 연결하여 상태를 확인하고 새로 고침 작업을 수행하면 hostd 서비스가 응답하지 않을 수 있습니다. 다음과 유사한 메시지가 hostd.log에 기록됩니다.
    YYYY-MM-DDThh:mm:ss.344Z [5A344B90 verbose \\\'ThreadPool\\\'] usage : total=22 max=74 workrun=22 iorun=0 workQ=0 ioQ=0 maxrun=30 maxQ=125 cur=W
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 I/O 지연 시간이 높아질 수 있음
    대량의 CIM 요청을 ESXi 호스트의 LSI SMI-S 제공자로 보낼 때 ESXi 호스트에서 I/O 지연 시간이 높아져서 스토리지 성능이 저하될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • sfcb가 잘못된 메서드 제공자로 응답할 수 있음
    ESXi 호스트에서 서로 다른 두 개의 메서드 제공자를 네임스페이스가 다른 동일한 CIM 클래스에 등록할 경우 요청 시 sfcb는 항상 providerRegister의 상위에 가장 가까운 제공자로 응답합니다. 이 제공자는 잘못된 메서드 제공자일 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 인터페이스를 통한 커널 모듈 로드가 실패할 수 있음
    CIM 인터페이스 클라이언트를 사용하여 커널 모듈을 로드할 때 LoadModule명령이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.
    Access denied by VMkernel access control policy.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 매개 변수에 값을 전달하지 않고 PowerStateChangeRequest CIM 메서드가 호출되면 ESXi 호스트가 이 변경 요청에 예상한 대로 응답하지 않을 수 있음
    ESXi 5.1 호스트에서 매개 변수에 값을 전달하지 않고 PowerStateChangeRequest CIM 메서드를 호출하면 ESXi 호스트가 이 변경 요청에 응답하지 않고 다시 시작되지 않을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Client에 대한 하드웨어 상태 쿼리가 오류와 함께 실패할 수 있음
    vSphere Client에 대한 하드웨어 상태를 쿼리하는 시도가 실패할 수 있습니다. 다음과 비슷한 오류 메시지가 ESXi 호스트의 /var/log/syslog.log파일에 표시됩니다.
    TIMEOUT DOING SHARED SOCKET RECV RESULT (1138472) Timeout (or other socket error) waiting for response from provider Header Id (16040) Request to provider 111 in process 4 failed. Error:Timeout (or other socket error) waiting for response from provider Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiSensor, Type: 0
    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 디스크의 상태가 ONLINE이 아니라 UNCONFIGURED GOOD으로 표시될 수 있음
    ESXi 5.1 호스트에서 일부 디스크의 상태가 ONLINE 대신 UNCONFIGURED GOOD으로 표시될 수 있습니다. 이 문제는 LSI CIM 제공자를 사용하는 LSI 컨트롤러에 대해 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.

게스트 운영 체제

  • ESXi 호스트에서 디스크 유틸리티를 사용하여 MAC OS X 게스트 운영 체제의 디스크 파티션 크기를 늘릴 수 없음
    ESXi 호스트에서 디스크 유틸리티를 사용하여 MAC OS X 게스트 운영 체제의 디스크 파티션 크기를 늘릴 수 없습니다. VMware Fusion을 사용하여 크기를 늘리려고 할 때는 이 문제가 발생하지 않습니다.
    이 문제는 디스크 크기를 늘린 후 GPT(GUID 파티션 테이블)에서 헤더를 변경하는 방법으로 이 릴리스에서 해결되었습니다.
  • 게스트 운영 체제가 8바이트 PCI MMIO 구성 공간에 액세스하려고 시도할 때 가상 시스템이 실패할 수 있음
    가상 시스템에서 GPU(그래픽 처리 장치)에 대한 직접 패스스루를 구성하면, 게스트 운영 체제가 8바이트 PCI MMIO 구성 공간에 액세스하려고 시도할 때 가상 시스템이 실패할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템이 가상 IDE 디바이스로 시작될 때 게스트 운영 체제가 응답하지 않을 수 있음
    가상 시스템이 가상 IDE 디바이스로 시작될 때 게스트 운영 체제가 응답하지 않을 수 있습니다. 다음과 유사한 오류 메시지가 vmware.log에 기록됩니다.
    vcpu-0| W110: MONITOR PANIC: vcpu-0:NOT_IMPLEMENTED devices/vide/iovmk/videVMK-vmkio.c:1492.
    이 문제는 이 릴리스에서 해결되었습니다.

기타

  • ESXi 호스트가 힙 메모리 소진 상태가 되어 중단될 수 있음
    특정 상황에서 userworld 프로그램이 예상대로 작동하지 않아 시스템에 많은 좀비 프로세스가 누적될 수 있습니다. 그 결과 globalCartel 힙이 소진되어 ESXi 호스트가 힙 메모리 소진 상태에 있을 때 새 프로세스가 분기할 수 없어서 vMotion 및 SSH와 같은 작업이 실패할 수 있습니다. ESXi 호스트를 재부팅하기 전까지는 ESXi 호스트의 이 상태가 종료되지 않을 수 있습니다.
    다음과 유사한 주의 메시지가 VMkernel 로그에 기록될 수 있습니다.
    2014-07-31T23:58:01.400Z cpu16:3256397)WARNING: 힙: 2677: Heap globalCartel-1 already at its maximum size. 확장할 수 없습니다.
    2014-08-01T00:10:01.734Z cpu54:3256532)WARNING: 힙: 2677: Heap globalCartel-1 already at its maximum size. 확장할 수 없습니다.
    2014-08-01T00:20:25.165Z cpu45:3256670)WARNING: 힙: 2677: Heap globalCartel-1 already at its maximum size. 확장할 수 없습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 콘솔 및 vmkwarnings에서 VMware ESXi 5.1 호스트 부팅 경고
    동일한 시점에 HA 클러스터에 연결되어 있거나 연결되었던 호스트에서만 switchToSwapMode를 사용하도록 설정한 경우 경고가 표시됩니다. 다음과 유사한 경고가 표시됩니다.
    경고: Error while executing switchToSwapMode: Memory max less than memory already reserved by children

    자세한 내용은 KB2056609를 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vm-support를 실행하면 VMkernel 로그 파일에 과도한 로깅 생성
    vm-support를 실행할 경우 다음과 유사한 메시지가 vmkernel.log에 반복적으로 기록될 수 있습니다.
    VSI_ParamListAddString failed with Out of memory (ok to retry)
    이 문제는 가상 주소 공간 매핑 크기가 큰 ESXi 호스트에서 vm-support를 실행할 때 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • GPU 가상화를 사용하여 VM을 배포할 때 ESXi가 보라색 화면을 표시하면서 실패할 수 있음
    GPU 가상화를 사용하여 가상 시스템을 배포하려고 하면 가상 주소 공간의 메모리 부족 때문에 ESXi가 보라색 진단 화면을 표시하면서 실패할 수 있습니다. 다음과 유사한 주의 메시지가 표시됩니다.
    WARNING: HeapMgr: No XMap space left
    ALERT: ERRORvmk_MapVA failure
    이 문제는 이 릴리스에서 해결되었습니다.
  • USB 디바이스를 사용하면 규정 준수 실패 시스템 캐시 호스트 프로파일 발생
    USB 디바이스를 사용하여 호스트 프로파일 적용을 완료할 때 또는 프로파일을 적용한 후, 시스템 캐시 호스트 프로파일과 함께 실패할 수 있습니다.
    다음과 유사한 메시지가 표시됩니다.
    호스트에 규격 상태가 없음: device 'datastore' state needs to be set to 'on.
    이 문제는 이 릴리스에서 해결되었습니다.
  • PCPU가 하트비트를 수신하지 않았음을 알리는 보라색 진단 화면과 함께 ESXi 호스트가 실패할 수 있음
    PCPU가 하트비트를 수신하지 않았음을 알리는 보라색 진단 화면과 함게 ESXi 호스트가 실패할 수 있습니다. 다음과 유사한 역추적이 표시됩니다.
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)Code start: 0xnnnnnnnnnnnnn VMK uptime: 98:23:15:54.570
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)Saved backtrace from: pcpu 6 Heartbeat
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]SP_WaitLockIRQ@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]LPage_ReapPools@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]MemDistributeNUMAPolicy@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x41802644483a]MemDistributeAllocateAndTestPages@vmkernel#nover+0xnnn stack: 0xnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x418026444d63]MemDistributeAllocAndTestPagesLegacy@vmkernel#nover+0xaa stack: 0xnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0xnnnnnnnnnnnnn]MemDistribute_AllocUserWorldPages@vmkernel#nover+0xnn stack: 0xnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]UserMemAllocPageInt@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]UserMem_HandleMapFault@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]User_Exception@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]Int14_PF@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]gate_entry@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)base fs=0x0 gs=0xnnnnnnnnnnnnn Kgs=0x0
    This issue occurs when the ESXi host experiences a memory overload due to a burst of memory allocation requests.
    이 릴리스에서는 큰 페이지(lpage) 메모리 풀이 이용될 때 메모리 할당 경로를 최적화하여 이 문제가 해결되었습니다.
  • VMkernel 원격 syslog 메시지가 심각도 수준 로그 메시지와 일치하지 않을 수 있음
    VMkernel 원격 syslog 메시지가 심각도 수준 로그 메시지와 일치하지 않을 수 있습니다.
    이 릴리스에서는 다음 VMkernel syslog 메시지에 적절한 심각도 수준 메시지로 태그 지정하여 이 문제가 해결되었습니다.
    system alerts ->'alert'
    warnings ->'warning'
    others ->'informational'
    참고: vmkwarning.log파일에는 심각도 수준 'warning(주의)' 및 'alert(경고)'의 syslog 메시지가 포함됩니다.
  • 메모리 부족 시 Rx 링 #2가 발생하여 수신자 측에서 패킷 손실이 발생할 수 있음
    VMXNET3 디바이스에서 Large Receive Offload(대규모 수신 오프로드) 기능을 사용하도록 설정한 Linux 가상 시스템의 경우, Rx 링 #2 메모리 부족 시 수신자 측에서 패킷 손실이 발생할 수 있습니다. 가상 시스템이 LRO에 의해 생성된 패킷을 처리할 때 이 문제가 발생합니다. Rx 링#2 크기는 Linux 게스트 운영 체제로 구성할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • CBT를 사용하도록 설정한 VM 템플릿을 ESXi 호스트에서 복제할 때 실패할 수 있음
    CBT를 사용하도록 설정한 VM 템플릿을 두 개의 서로 다른 ESXi 5.1 호스트에서 동시에 복제하려는 시도가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.
    Failed to open VM_template.vmdk': Could not open/create change tracking file (2108).
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 지원되지 않는 ioctl 오류를 보고할 수 있음
    특정 vSCSI 필터가 가상 디스크를 쿼리할 때 ESXi 호스트가 오류 메시지를 보고할 수 있습니다. 기본 디바이스가 unmap 또는 ioctl을 지원하지 않는 경우 vmkernel.log파일에 나타나는 주의 메시지가 올바르지 않습니다.
    다음과 유사한 오류가 보고될 수 있습니다.
    WARNING: VSCSIFilter: 1452: Failed to issue ioctl to get unmap readback type: Not supported.
    자세한 내용은 KB2058568을 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere 5.1에서 VMkernel 인터페이스 바인딩이 실패할 수 있음
    FT VMkernel 인터페이스 바인딩을 사용하도록 설정하고 시스템을 재부팅한 후 vSphere 5.1에서 vMotion VMkernel 인터페이스 바인딩이 실패할 수 있습니다. 다음과 유사한 주의 메시지가 표시됩니다.
    cpu10:4656)WARNING: MigrateNet: 601: VMotion server accept socket failed to bind to vmknic 'vmk1', as specified in /Migrate/Vmknic
    cpu8:4699)WARNING: VMKStateLogger: 9260: Failed to use SO_BINDTOVMK of sock 0x410024035eb0 vmk3: Operation not supported
    이 문제는 이 릴리스에서 해결되었습니다.
  • MSCS 노드가 RDM으로 사용하는 LUN에 대한 액세스 권한을 가진 ESXi 5.x 호스트가 부팅하는 데 오래 걸릴 수 있음
    MSCS 노드가 사용하는 RDM(Raw Device Mapped) LUN에 대한 액세스 권한을 가진 ESXi 5.x 호스트를 재부팅할 때, Auto Deploy 옵션을 사용하여 배포된 호스트가 부팅하는 데 오래 걸릴 수 있습니다. 호스트 프로파일을 사용하는 LUN에 대해 영구 예약된 플래그가 전달되는 경우에도 이 문제가 발생합니다. 이 시간은 ESXi 호스트에 연결된 RDM의 수에 따라 달라집니다. 영구 예약된 플래그에 대한 자세한 내용은 KB1016106을 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • AMD Opteron 6300 시리즈 프로세서에서 ESXi 5.x 호스트가 보라색 진단 화면을 표시하며 실패할 수 있음
    AMD 오류 번호 815 프로세서인 시리즈 63xx AMD Opteron 을 사용하는 ESXi 5.5 호스트가 보라색 화면을 표시하며 응답하지 않을 수 있습니다. KB 2061211의 설명대로 보라색 화면에는 IDT_HandleInterrupt 또는 IDT_VMMForwardIntr이라는 텍스트와 예기치 않은 기능이 표시됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • BAR 크기가 4KB 미만인 PCI 디바이스를 패스스루 디바이스로 추가하는 경우 가상 시스템 전원이 켜지지 않을 수 있음
    BAR(기준 주소 레지스터) 크기가 4KB 미만인 PCI 디바이스를 패스스루 디바이스로 추가하는 경우 가상 시스템 전원이 켜지지 않을 수 있습니다. 다음과 유사한 메시지가 vmware.log파일에 기록됩니다.
    PCIPassthru: Device 029:04.0 barIndex 0 type 2 realaddr 0x97a03000 size 128 flags 0
    PCIPassthru: Device 029:04.0 barIndex 1 type 2 realaddr 0x97a01000 size 1024 flags 0
    PCIPassthru: Device 029:04.0 barIndex 2 type 2 realaddr 0x97a02000 size 128 flags 0
    PCIPassthru: Device 029:04.0 barIndex 3 type 2 realaddr 0x97a00000 size 1024 flags 0
    PCIPassthru: 029:04.0 : barSize: 128 is not pgsize multiple
    PCIPassthru: 029:04.0 : barSize: 1024 is not pgsize multiple
    PCIPassthru: 029:04.0 : barSize: 128 is not pgsize multiple
    PCIPassthru: 029:04.0 : barSize: 1024 is not pgsize multiple
    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹

  • vCenter 성능 차트와 esxtop의 virtualDisk.throughput.usage 반환 값이 모순됨
    virtualDisk.throughput.usage관련 값이 vCenter 성능 차트에서는 바이트 단위지만 esxtop 도구에서는 동일한 값이 킬로바이트 단위로 반환됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 이 많은 수의 dvPort가 사용 중인 호스트에서 가상 시스템의 전원을 켜려고 하면 오류 메시지와 함께 실패할 수 있음
    이미 많은 수의 dvPort가 사용되고 있는 호스트에서 dvPort를 사용하는 가상 시스템의 전원을 켜려고 하면 다음과 유사한 오류 메시지가 hostd.log에 기록됩니다.
    Unable to Get DVPort list ; Status(bad0014)= Out of memory
    또한 vmkernel.log에도 다음과 유사한 주의가 기록됩니다.
    WARNING: 힙: 2757: dvsLargeHeap 힙(132993984/134217728): Maximum allowed growth (1224704) too small for size (9269248)
    이 문제는 이 릴리스에서 구성 옵션을 추가하여 해결되었습니다. 이 문제가 발생할 경우 vCenter Server에서 새로 추가된 옵션 Net.DVSLargeHeapInitSize의 값을 50M으로 변경한 다음 ESXi 호스트를 다시 시작하십시오.
  • Microsoft WDS(Windows 배포 서비스)를 통해 VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 PXE 부팅하지 못할 수 있음
    Microsoft WDS(Windows 배포 서비스)를 통해 VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 PXE 부팅하려고 하면 부팅이 실패하고 다음과 유사한 메시지가 표시될 수 있습니다.
    Windows를 시작하지 못했습니다. 최근의 하드웨어 또는 소프트웨어 변경 때문일 수 있습니다. 문제를 해결하려면 다음을 수행하십시오. 1. Windows 설치 디스크를 넣고 컴퓨터를 다시 시작합니다.
    2. 언어 설정을 선택하고 "다음"을 클릭합니다.
    3. "컴퓨터 복구"를 클릭합니다.
    이 디스크가 없는 경우 시스템 관리자 또는 컴퓨터 제조업체에 문의하십시오. 실행 상태: 0xc0000001 정보: 필요한 디바이스에 액세스할 수 없기 때문에 부팅 선택 영역에서 오류가 발생했습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 제한된 대기열 크기로 인해 애플리케이션에서 보낸 데이터 패킷 버스트가 vDS 또는 표준 vSwitch에서 손실될 수 있음 vDS(vNetwork Distributed Switch) 또는 트래픽 조절이 가능한 표준 vSwitch에서는 애플리케이션이 보낸 데이터 패킷 버스트가 제한된 대기열 크기로 인해 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 호스트 프로파일 규정 준수 검사가 did not find mapping for ip x.x.x.x in /etc/hosts file메시지와 함께 실패할 수 있음
    ESXi 5.1에서 호스트 프로파일을 적용하려고 할 때 호스트 프로파일이 성공적으로 적용된 후에도 규정 준수 실패 때문에 적용이 실패할 수 있습니다.
    다음과 유사한 오류 메시지가 표시됩니다.
    호스트를 준수 검사에 사용할 수 없습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Auto Deploy 옵션을 사용한 ESXi 5.1 호스트 부팅이 실패할 수 있음
    Auto Deploy 옵션을 사용하여 ESXi 5.1 호스트를 부팅하려는 시도가 실패할 수 있습니다. 호스트가 ESXi 이미지를 다운로드하려고 시도할 때 실패가 발생하여, iPXE가 루프에 진입하고 ESXi 이미지 다운로드 프로세스가 중지됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Ethtool 유틸리티가 Emulex 10Gb 이더넷(10GbE) 554FLR-SFP 어댑터에 대해 잘못된 케이블 유형을 보고할 수 있음
    Ethtool 유틸리티가 Emulex 10Gb 이더넷(10GbE) 554FLR-SFP 어댑터에 대해 잘못된 케이블 연결 유형을 보고할 수 있습니다. 이것은 ethtool이 DAC(Direct Attached Copper) 포트 유형을 지원할 수 없기 때문입니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • VDS(vSphere Distributed Switch) 상태 점검을 수행하는 동안 잘못된 결과가 보고될 수 있음
    VLAN, MTU 및 팀 구성 정책에 대한 상태를 모니터링하기 위해 VDS Web Client 상태 점검을 확인하려고 시도할 때 잘못된 결과가 보고될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.

보안

  • glibc 패키지 업데이트로 여러 보안 문제 해결
    여러 보안 문제를 해결하기 위해 ESXi glibc-2.5 패키지가 업데이트되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제에 대해 CVE-2013-0242, CVE-2013-1914CVE-2013-4332라는 이름을 할당했습니다.
  • libxml2 라이브러리 업데이트로 여러 보안 문제 해결
    여러 보안 문제를 해결하기 위해 ESXi userworld libxml2 라이브러리가 업데이트되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제에 CVE-2013-2877CVE-2014-0191이라는 이름을 할당했습니다.
  • libcurl 라이브러리 업데이트로 여러 보안 문제 해결
    ESXi userworld libcurl 라이브러리가 업데이트되어 여러 보안 문제가 해결되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 CVE-2014-0015CVE-2014-0138이라는 이름을 할당했습니다.
  • ESXi 5.1 및 ESXi 5.5에서 vmx.log.rotateSize 매개 변수가 사용하도록 설정됨
    이전 릴리스의 ESXi에서는 vmx.log.rotateSize매개 변수가 사용하지 않도록 설정되었지만 ESXi 5.1 및 ESXi 5.5에서는 이 매개 변수가 VMX에 의해 사용하도록 설정됩니다. vmx.log.rotateSize매개 변수는 vmware.log파일 크기를 제어하는 데 사용됩니다.
  • TPS(투명 페이지 공유) 관리 기능 및 새 기본 동작으로 업데이트
    ESXi 5.1 업데이트 3에는 이전 패치 릴리스에 도입된 TPS(투명 페이지 공유) 관리 기능에 대한 pshare 솔팅이 기본적으로 사용됩니다. 즉, TPS가 개별 VM에만 적용되고 관리자가 별도로 다시 사용하도록 설정하지 않는 한 VM 간 TPS는 사용되지 않습니다.
    자세한 내용은 KB 2097593을 참조하십시오.
  • Likewise Kerberos 스택 업데이트
    Kerberos v5-1.6.3 버전이 포함된 Likewise 5.3 스택이 업데이트되었습니다.

서버 구성

  • VMware ESXi 5.1.x에 나열된 NMP 디바이스 구성 불일치가 있는 호스트를 재부팅할 때 호스트 프로파일 규정 준수 검사가 실패할 수 있음
    ESXi 호스트를 재부팅하면 NMP(Native Multipathing Plugin) 디바이스 정보를 임의 순서로 나열합니다. 호스트 프로파일 규정 준수 검사기를 사용하려면 디바이스 순서가 정렬되어야 하기 때문에 그러한 구성을 가진 호스트에 대한 규정 준수 검사는 실패할 수 있습니다. 다음과 같은 규정 준수 오류 메시지가 표시됩니다.
    호스트에 규격 상태가 없음: 디바이스 naa.xxxx에 대한 SATP 구성을 업데이트해야 함
    자세한 내용은 KB 2032822를 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • iSCSI 원격 LUN에서 ESXi를 설치하려는 시도가 실패할 수 있음
    iSCSI 원격 LUN에 ESXi를 설치하려는 시도가 실패하고 다음 오류가 표시될 수 있습니다.
    Expecting 2 bootbanks, found 0
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 SAN 디스크에서 부팅될 때 ESXi 5.1.x에서 호스트 프로파일 적용이 오류와 함께 실패할 수 있음
    SAN 디스크에서 ESXi 호스트를 부팅할 때 ESXi 5.1에서 스토리지 호스트 프로파일 적용이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 표시됩니다.
    Host state doesn't match specification: device 'naa.xxxxxxx' parameters needs to be reset
    Host state doesn't match specification: device 'naa.xxxxxx' Path Selection Policy needs to be set to default for claiming SATP
    Specification state absent from host: device naa.XXX parameters needs to be set to Is Perennially Reserved = "false"
    Specification state absent from host: device naa.XXX parameters needs to be set to State = "on" Queue Full Sample Size = "0"
    Queue Full Threshold = "0"...
    참고: 두 호스트의 부팅 LUN은 벤더 이름이나 모델 번호 및 클레임 SATP와 같은 특성이 동일해야 수정이 제대로 작동합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 호스트 프로파일이 대상 호스트에 SNMP 설정을 적용하지 못할 수 있음
    소스 호스트에서 syslocation에 대해 지정된 값에 공백이 포함된 경우, 소스 호스트에서 생성된 호스트 프로파일이 대상 호스트에 SNMP 설정을 적용하지 못할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 실시간 CPU 성능 차트에 일관되지 않은 코어 활용률 값이 보고됨
    하이퍼스레딩을 사용하도록 설정한 ESXi 호스트에서, vSphere Client 또는 vCenter Server를 통해 CPU 성능 차트를 볼 때 여기에 보고되는 코어 활용률 값이 esxtop 코어 활용률을 통해 보고되는 값의 두 배입니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 둘 이상의 대상이 서로 다른 포트에서 표시를 수신할 경우 sfcb 서비스가 CIM 표시 제공을 위해 ESXi 방화벽을 열지 못할 수 있음
    sfcb 서버는 대상이 CIM 표시를 수신하는 포트에 대한 동적 방화벽 규칙을 하나만 생성할 수 있습니다. 두 개 이상의 대상이 서로 다른 포트에서 표시를 수신할 경우 sfcb 서버는 CIM 표시 전달을 위해 ESXi 방화벽을 열지 못합니다. 그 결과 하나의 대상만 CIM 표시를 수신할 수 있습니다.
    이 릴리스에서는 각 포트마다 하나의 방화벽 규칙을 생성하여 이 문제가 해결되었습니다.
  • 스토리지 과부하로 인해 Cisco UCS 블레이드 서버에서 ESXCLI 명령이 실패할 수 있음
    스토리지 과부하로 인해 Cisco UCS 블레이드 서버에서 ESXCLI 명령이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 hostd.log파일에 기록될 수 있습니다.
    2013-12-13T16:24:57.402Z [3C5C9B90 verbose 'ThreadPool'] usage : total=20 max=62 workrun=18 iorun=2 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:57.403Z [3C5C9B90 verbose 'ThreadPool'] usage : total=20 max=62 workrun=18 iorun=2 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:57.404Z [3BEBEB90 verbose 'ThreadPool'] usage : total=21 max=62 workrun=18 iorun=3 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:58.003Z [3BEBEB90 verbose 'ThreadPool'] usage : total=21 max=62 workrun=18 iorun=3 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:58.282Z [3C9D4B90 verbose 'ThreadPool'] usage : total=22 max=62 workrun=18 iorun=4 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템이 물리적 호스트 일련 번호를 표시하지 않음
    가상 시스템이 ESXi 호스트의 일련 번호를 표시하지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vim-cmd 명령 실행 중 DCUI가 응답하지 않을 수 있음
    실행 중인 vim-cmd 명령의 완료에 시간이 오래 걸릴 경우 DCUI(Direct Console User Interface)가 응답하지 않을 수 있습니다.
    이 릴리스에서는 완료에 오랜 시간이 걸리는 vim-cmd 명령에 대해 시간 제한 메커니즘을 구현하여 이 문제가 해결되었습니다.
  • LSI MegaRaid 디스크의 상태 변경이 표시되지 않거나 지연될 수 있음
    ESXi 5.x 호스트에서 MegaRaid SAS 디바이스 드라이버와 함께 LSI SMI-S 제공자를 사용할 경우, enum_instances LSIESG_PhysicalDrive lsi/lsimr13명령을 실행할 때 LSI MegaRaid 디스크의 상태 변경이 표시되지 않거나 지연될 수 있습니다.
    다음 예는 LSI MegaRaid 디스크의 전원 절약 모드를 수정할 때 PowerState의 값이 변경되지 않거나 지연 후 변경됨을 나타냅니다.
    LSILSIESG_PhysicalDrive.Tag="500605B004F93CF0_252_36",CreationClassName="LSIESG_PhysicalDrive"
    CreationClassName = LSIESG_PhysicalDrive
    Tag = 500605B004F93CF0_252_36
    UserDataBlockSize = 512
    PiType = 0
    PiEligible = 0
    PiFomatted = 0
    PowerState = 0 ---> No change in status
    Vendor = (NULL)
    FRUNumber = (NULL)
    DiskDrive_DeviceID = 252_36
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 규정 준수 확인을 수행할 때 오류 메시지가 표시될 수 있음 ESXi 호스트에서 호스트 프로파일 규정 준수 검사를 수행할 때 vSphere Client에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    대상 u'https://IP:port'로 전송된 쿼리 u'select * from CIM_AlertIndication'에 대한 추가 CIM-XML 표시 구독을 로컬 시스템에서 발견함
    이 문제는 이 릴리스에서 해결되었습니다.
  • Veeam 백업을 수행한 후 ESXi 호스트가 vCenter Server에서 연결이 끊길 수 있음
    Veeam 백업을 수행한 후 ESXi 호스트가 vCenter Server에서 연결이 끊길 수 있습니다.
    Veaam이 가상 시스템의 스냅샷을 작성하려고 할 때 이 문제가 발생합니다.
    다음과 유사한 오류 메시지가 hostd.log파일에 기록됩니다.
    --> Crash Report build=1312873
    --> Signal 11 received, si_code -128, si_errno 0
    --> Bad access at 735F6572
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트를 재부팅한 후 AD 사용자 또는 그룹에 대한 권한이 유지되지 않을 수 있음
    호스트 프로파일을 사용하여 ESXi 호스트에 AD(Active Directory) 사용자 또는 그룹에 대한 권한을 설정할 때 Auto Deploy가 설치된 ESXi 호스트를 재부팅한 후 권한이 유지되지 않을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server의 하드웨어 상태 탭에 메모리 주의 및 메모리 경고 메시지가 보고될 수 있음
    IPMI SEL(System Event Log)의 Memory Presence Detected행에 메모리 DIMM 감지의 일부로 Assert또는 Deassert항목이 기록된 경우 vCenter Server의 하드웨어 상태 탭에 메모리 주의 및 메모리 경고 메시지가 보고될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • IBM 서버에서 ESXi 5.1 패치를 적용할 때 ESXi 호스트가 IBM vusb nic를 로드하지 않을 수 있음
    IBM 서버에서 ESXi 5.1 패치를 적용한 후 ESXi 호스트가 IBM vusb nic를 로드하지 않을 수 있습니다. 이는 ESXi 호스트가 vusb 디바이스를 인식하지 않기 때문입니다. Esxcfg-nics �l명령을 실행할 때 다음 출력이 표시됩니다.
    vusb0 Pseudo cdc_ether Up 10Mbps Half 6e:ae:8b:30:1d:53 1500 Unknown Unknown
    이 문제는 이 릴리스에서 해결되었습니다.
  • SNMP의 관리 시스템이 큰 파일 시스템에 대해 잘못된 ESXi 볼륨 크기를 보고할 수 있음
    SNMP 또는 SNMP에 의존하는 관리 소프트웨어를 사용하여 ESXi를 모니터링할 때 SNMP의 관리 시스템이 큰 파일 시스템의 볼륨 크기를 검색할 때 잘못된 ESXi 볼륨 크기를 보고할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다. 이 릴리스에는 대용량 파일 시스템을 지원하는 새 스위치가 도입되었습니다.

스토리지

  • 호스트 재부팅 도중 NFS 볼륨이 ESXi 호스트에서 마운트 해제됨
    기본 DNS 서버를 사용할 수 없지만 보조 서버는 사용할 수 있는 경우 ESXi 호스트를 재부팅하려고 하면 NFS 서버 호스트 이름(FQDN)의 확인이 지연되어 NFS 볼륨이 복원되지 않을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • PVSCSI 어댑터를 사용하는 가상 시스템의 응답이 간헐적으로 중지될 수 있음
    ESXi 5.1 호스트에서, PVSCSI 컨트롤러를 사용하여 연결된 디스크를 사용하는 가상 시스템의 응답이 간헐적으로 중지될 수 있습니다.
    이 문제는 PCPU의 수가 많고 I/O 로드가 높은 ESXi 호스트에서 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서, SAS 컨트롤러 뒤에 있는 SATA 기반 SSD 디바이스가 로컬이 아닌 것으로 잘못 표시될 수 있음
    SAS 컨트롤러 뒤에 있는 SATA 기반 SSD 디바이스가 로컬이 아닌 것으로 잘못 표시되어 vFlash 데이터스토어에 로컬 SSD 디바이스만 고려하는 가상 플래시 기능에 영향을 미칠 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다. SAS 컨트롤러 뒤의 모든 SATA 기반 SSD 디바이스가 로컬 디바이스로 나타납니다.
  • ESXi 5.1 호스트가 SES 디바이스에 연결될 때 SCSI 모드 감지 명령 실패(0x1a)에 관련된 오류 메시지가 VMkernel 로그에 나타날 수 있음
    SCSI Enclosure 디바이스에 연결된 ESXi 5.1 호스트에서 5분마다 다음과 유사한 오류 메시지가 vmkernel.log파일에 기록될 수 있습니다.
    2014-03-04T19:45:29.289Z cpu12:16296)NMP: nmp_ThrottleLogForDevice:2319: Cmd 0x1a (0x412440c73140, 0) to dev "mpx.vmhba0:C0:T13:L0" on path "vmhba0:C0:T13:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
    2014-03-04T19:50:29.290Z cpu2:16286)NMP: nmp_ThrottleLogForDevice:2319: Cmd 0x1a (0x412440c94940, 0) to dev "mpx.vmhba0:C0:T13:L0" on path "vmhba0:C0:T13:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0. Act:NONE
    2014-03-04T19:55:29.288Z cpu22:16306)NMP: nmp_ThrottleLogForDevice:2319: Cmd 0x1a (0x412480c51340, 0) to dev
    이 문제는 이 릴리스에서 해결되었습니다.
  • 메모리 오버로드 상태에서 SCSI I/O 작업을 수행할 때 가상 시스템이 실패할 수 있음
    ESXi 호스트에서 SCSI I/O 작업을 수행할 때 가상 시스템이 실패할 수 있습니다. vmware.log파일에 다음과 유사한 메시지가 포함될 수 있습니다.
    LSI: ProcessSDRMessage: Unhandled Doorbell Message 0x2
    ASSERT bora/devices/lsilogic/lsilogic.c:4856 bugNr=56949
    이 문제는 가상 시스템이 메모리 오버로드 상태일 때 발생할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 6.506.51.00.1vmw 이전 버전의 LSI MegaRAID SAS 드라이버를 사용할 때 ESXi 5.x 호스트가 실패함
    6.506.51.00.1vmw 이전 버전의 LSI MegaRAID SAS 드라이버를 사용할 때 ESXi 5.x 호스트가 보라색 진단 화면을 표시하고 실패합니다. 다음과 유사한 역추적이 나타납니다.
    @BlueScreen: #PF Exception 14 in world 4795:helper31-5 IP 0x41800b4e2eef addr 0xce8
    Code start: 0x41800ae00000 VMK uptime: 156:04:02:21.485
    0x41224aec7eb0:[0x41800b4e2eef]megasas_reset_fusion@#+0x1e stack: 0x0
    0x41224aec7f60:[0x41800b2ea697]vmklnx_workqueue_callout@com.vmware.driverAPI#9.2+0x11a stack: 0x0
    0x41224aec7ff0:[0x41800ae3e129]helpFunc@vmkernel#nover+0x568 stack: 0x0
    0x41224aec7ff8:[0x0] stack: 0x0
    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템의 I/O 응답이 느릴 수 있음
    기본 I/O 스케줄러가 활성화된 ESXi 호스트에서, 하나 이상의 가상 시스템이 디바이스의 최대 I/O 대역폭을 장시간 사용할 경우 ESXi 기본 I/O 스케줄러에서 식별되는 경합 조건으로 인해 IOPS 불균형이 발생합니다.
    이 릴리스에서는 ESXi 호스트의 VM 간에 IOPS 균일성을 보장하여 문제가 해결되었습니다. 
  • vFAT 파티션을 생성할 때 vmkernel.log 파일에 주의 메시지가 나타남
    ESXi 5.1 업데이트 2 호스트에서 vFAT 파티션을 생성할 때 다음의 주의 메시지가 /var/log/vmkernel.log파일에 기록됩니다.
    WARNING: VFAT: 4346: Failed to flush file times: Stale file handle
    이 문제는 이 릴리스에서 해결되었습니다.
  • 익스텐트가 여러 개인 VMFS 데이터스토어를 재검색할 때 VMkernel 로그 파일에 잘못된 PE 변경 메시지가 표시될 수 있음
    익스텐트가 여러 개인 VMFS 데이터스토어를 재검색할 때 스토리지 연결 문제가 발생하지 않더라도 다음의 로그 메시지가 VMkernel 로그에 기록될 수 있습니다.
    Number of PEs for volume changed from 3 to 1. A VMFS volume rescan may be needed to use this volume.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Eagerzeroedthick 가상 디스크에 대한 데이터스토어 브라우저 보기에 올바르지 않은 가상 디스크 사용량이 보고될 수 있음
    vSphere Client 및 vSphere Web Client가 있는 eagerzeroedthick 가상 디스크에 대한 데이터스토어 브라우저 보기에 올바르지 않은 가상 디스크 사용량이 보고될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • esxtop 성능 데이터의 출력이 0으로 표시될 수 있음
    esxtop 성능 데이터의 출력이 CSV 형식 파일로 리디렉션되는 경우 배치 모드에서 수집된 esxtop.csv 값이 0으로 변경될 수 있습니다. esxtop.csv 파일에 다음과 유사한 I/O 값이 표시될 수 있습니다.
    "09/04/2013
    22:00:00","1251.43","4.89","7.12","1839.62","7.19","4.99","1273.05","4.97","7.08""09/04/2013
    22:00:10","1283.92","5.02","7.06","1875.14","7.32","4.89","1290.37","5.04","7.07""09/04/2013
    22:00:20","1286.49","5.03","7.03","1914.86","7.48","4.87","1320.55","5.16","6.90""09/04/2013
    22:00:31","1222.56","4.78","7.44","1775.23","6.93","5.21","1253.87","4.90","7.28""09/04/2013
    22:00:41","1269.87","4.96","7.15","1847.40","7.22","4.97","1267.62","4.95","7.13""09/04/2013
    22:00:51","1291.36","5.04","7.05","1857.97","7.26","4.96","1289.40","5.04","7.08""09/04/2013
    22:01:01","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:11","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:22","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:32","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:42","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00"
    이 문제는 이 릴리스에서 해결되었습니다.
  • HA 페일오버 또는 호스트 충돌 도중, 해당 호스트에서 전원이 켜진 VM의 .vswp 파일이 스토리지에 남을 수 있음
    HA 페일오버 또는 호스트 충돌 도중 해당 호스트에서 전원이 켜진 VM의 .vswp파일이 스토리지에 남을 수 있습니다. 이러한 페일오버나 충돌이 여러 번 발생할 경우 스토리지 용량이 가득 찰 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 소프트웨어 iSCSI 프로토콜에서 보내기 및 받기 경로의 경합 조건으로 인해 데이터가 손상될 수 있음
    가상 시스템에서 I/O 작업을 연속적으로 읽고 RDM LUN 또는 가상 디스크(VMDK)로 쓰는 중 읽은 데이터가 손상되는 경우가 있습니다. 보내기 및 받기 경로 논리의 경합 조건으로 인해 손상이 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.

지원되는 하드웨어

  • 버퍼 오버플로 때문에 ESXi 호스트가 보라색 진단 화면을 표시하며 실패할 수 있음
    ESXi 5.1 호스트에서 512개를 초과하는 주변 장치가 연결되면 버퍼 오버플로로 인해 ESXi 호스트가 보라색 진단 화면을 표시하며 실패하고 다음과 유사한 오류 메시지를 표시할 수 있습니다.
    ASSERT bora/vmkernal/core/vmkapi_device.c:1840
    이 문제는 이 릴리스에서 해결되었습니다. 디바이스 이벤트 로그 버퍼 크기가 1024로 증가되었습니다.
  • ESXi가 PCI 루트 브리지 바로 아래에 위치한 PCI 디바이스를 감지하지 못할 수 있음
    메모리 매핑된 I/O가 4GB보다 큰 PCI 디바이스의 기본 주소 레지스터가 프리페치 불가로 표시된 경우, 이러한 PCI 디바이스가 PCI 루트 브리지 바로 아래에 있더라도 ESXi 5.1 호스트가 이를 감지하지 못할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Microsoft Windows 2008 R2 및 Solaris 10 64비트 가상 시스템이 파란색 진단 화면 또는 커널 패닉 메시지를 표시할 수 있음
    Microsoft Windows 2008 R2 또는 Solaris 10 64비트를 실행하는 가상 시스템에서 Intel EPT(Extended Page Tables)를 사용하도록 설정한 경우 파란색 진단 화면 또는 커널 패닉 메시지가 표시될 수 있습니다.
    자세한 내용은 KB2073791을 참조하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치

  • vCenter Server SSL 인증서 변경 후 Auto Deploy 서비스를 vCenter Server에 재등록할 수 없음
    vCenter Server SSL 인증서를 변경한 후 vSphere Auto Deploy 서비스가 시작되지 않습니다. autodeploy.log파일에 다음과 유사한 항목이 포함될 수 있습니다.
    예외: Server has wrong SHA1 thumbprint
    이 문제는 Auto Deploy를 설치하고 이를 vCenter Server에 등록한 후 vCenter Server SSL 인증서를 변경하는 경우에 발생합니다. Auto Deploy 데이터베이스에 저장된 SSL 인증서 지문이 새 vCenter Server SSL 인증서의 지문과 더 이상 일치하지 않기 때문에 Auto Deploy가 시작되지 않습니다. 또한 새 vCenter Server 인증서 지문을 사용한 autodeploy-register 명령이 작동하지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 상태 비저장 캐시 이미지를 사용하여 ESXi 호스트를 부팅하려는 시도가 오류 메시지와 함께 실패할 수 있음
    Auto Deploy가 호스트를 부팅하지 못할 때 상태 비저장 캐시 이미지를 사용하여 ESXi 호스트를 부팅할 수 없습니다.
    호스트가 캐시된 이미지를 사용하여 부팅을 시도할 때 다음과 유사한 오류가 표시됩니다.
    파일을 찾을 수 없습니다. 치명적 오류: 15 (Not found)
    Auto Deploy를 ESXi 5.0에서 ESXi 5.x로 업그레이드하고 새 Auto Deploy 환경에서 동일한 이미지를 사용할 때 이 문제가 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.1 이상의 스크립트 설치를 수행할 때 ESXi가 로컬 디바이스 대신 SSD에 설치될 수 있음
    install firstdisk=local명령을 사용하여 ESXi 5.1의 스크립트 설치를 수행할 때 선택된 로컬 드라이브 대신 SSD에 ESXi가 설치될 수 있습니다. ESXi가 SSD에 설치되는 것을 피하기 위해 명령에 firstdisk=local --ignoressd스위치가 포함됩니다.
    참고: --ignoreSSD명령을 autopartition=TRUE와 함께 사용하면 SSD는 포맷되지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 호스트를 ESX에서 ESXi로 업그레이드할 때 nsswitch.conf가 비어 있을 수 있음
    호스트를 ESX에서 ESXi로 업그레이드할 때 nsswitch.conf파일의 마이그레이션이 적절하지 않을 수 있습니다. 그 결과 nsswitch.conf파일이 비어 있을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.1 호스트가 Auto Deploy 상태 비저장 캐싱에서 부팅될 때 부팅 화면에 오류 메시지가 표시될 수 있음
    ESXi 5.1 호스트가 Auto Deploy 상태 비저장 캐싱에서 부팅될 때 부팅 화면에 역추적이 포함된 오류 메시지가 표시될 수 있습니다. 이 오류는 syslog network.py스크립트에 예기치 않게 4자 미만의 짧은 메시지가 있기 때문에 발생합니다.
    다음과 유사한 오류 메시지가 보고됩니다.
    IndexError: string index out of range
    이 문제는 이 릴리스에서 해결되었습니다.

vCenter Server, vSphere Client 및 vSphere Web Client

  • vCenter 성능 차트에 표시되는 CPU 사용량과 esxtop 명령을 실행할 때 표시되는 CPU 사용량이 모순됨
    vCenter 성능 차트에는 높은 CPU 사용량이 표시되지만 이와 동시에 -c 옵션을 지정하여 esxtop명령을 실행할 때는 그렇게 높은 값이 표시되지 않을 수 있습니다. 이 문제는 ESXi 호스트에서 하이퍼스레딩을 사용하도록 설정한 경우에만 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템 전원 켜기 또는 전원 끄기나 등록 취소 작업 때문에 hostd 프로세스가 실패할 수 있고 이로 인해 ESXi 호스트가 vCenter Server에서 연결이 끊길 수 있음
    hostd 프로세스가 실패하면 ESXi 호스트가 vCenter Server에서 연결이 끊기고 재연결하지 못할 수 있습니다. 이 문제는 가상 시스템이 등록 취소된 후 VmStateListener::VmPowerStateListener함수가 VirtualMachineImpl::GetSummary함수를 호출할 때 발생합니다. 이로 인해 관리 개체가 예외를 발견하지 못하여 hostd가 실패하고 ESXi 호스트가 vCenter Server에서 연결이 끊깁니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 평균 CPU 사용량 값이 프로세서 수에 프로세서 주파수를 곱한 값보다 클 수 있음 PowerCLI가 표시한 평균 CPU 사용량 값이 프로세서 수에 프로세서 주파수를 곱한 값보다 클 수 있습니다.

    이 릴리스에서는 평균 CPU 사용량 값의 최대 제한을 올바르게 설정하여 이 문제를 해결했습니다.

가상 시스템 관리

  • 가상 시스템에 CPU를 핫 추가한 후 가상 시스템이 응답하지 않을 수 있음
    ESXi 5.1 호스트에서, 가상 시스템에 CPU를 핫 추가한 후 Windows Server 2008 R2 가상 시스템이 응답하지 않을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • AdvStats 매개 변수를 사용하는 사용자 지정 스크립트를 실행할 때 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있음
    AdvStats 매개 변수를 사용하는 사용자 지정 스크립트를 실행하여 디스크 사용량을 확인할 때 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있습니다. 다음과 유사한 오류 메시지가 vmkernel.log 파일에 기록될 수 있습니다.
    VSCSI: 231: Creating advStats for handle 8192, vscsi0:0
    호스트가 다음과 유사한 역추적을 보고합니다.
    Histogram_XXX
    VSCSIPostIOCompletion
    AsyncPopCallbackFrameInt
    이 문제는 이 릴리스에서 해결되었습니다.
  • 중지된 스냅샷을 생성할 때 가상 시스템이 실패할 수 있음
    vSphere Replication 또는 기타 서비스가 중지된 스냅샷을 시작할 때 가상 시스템이 실패할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 스냅샷을 반복적으로 생성할 경우 게스트 운영 체제가 응답하지 않을 수 있음
    게스트 운영 체제가 통합 속도보다 빠르게 데이터를 생성할 경우 게스트 운영 체제가 응답하지 않을 수 있습니다. 예를 들어 비동기 통합이 5분 실행으로 시작했다 다음에는 10분, 20분, 30분과 같은 식으로 늘어납니다. 9회 반복 후에는 주기당 60분이 됩니다. 이러한 시도 도중 가상 시스템 스턴 없이 통합이 수행됩니다. 최대 반복 후에는 비동기 통합이 강제 수행되어 가상 시스템이 스턴되고 통합이 수행됩니다.
    게스트 운영 체제가 응답하지 않을 때 다음과 유사한 항목이 vmware.log에 표시됩니다.
    SnapshotVMXNeedConsolidateIteration: Took maximum permissible helper snapshots, performing synchronous consolidate of current disk.
    이 문제는 비동기 통합을 사용하지 않도록 설정하고 최대 비동기 통합 반복 초과 후에도 가상 시스템이 계속 실행될 수 있도록 허용하기 위한 새로운 구성 옵션인 snapshot.asyncConsolidate.forceSync = "FALSE"를 도입하여 해결되었습니다. 새로운 옵션은 동기식 통합이 필요한 경우 통합 오류를 유발합니다.
  • hostd가 실패하면 ESXi 호스트와 vCenter Server의 연결이 끊어질 수 있음
    가상 시스템 구성의 등록이나 변경을 위해 vim.VirtualMachine.reconfigure인터페이스를 사용하면 hostd가 실패하고 다음과 유사한 메시지가 표시될 수 있습니다.
    2014-01-19T16:29:49.995Z [26241B90 info 'TaskManager' opID=ae6bb01c-d1] 작업 생성됨: haTask-674- vim.VirtualMachine.reconfigure-222691190 VMware ESX에 대한 섹션, pid=487392, 버전=5.0.0, 빌드=build-821926, 옵션=릴리스
    2014-01-19T16:33:02.609Z [23E40B90 info 'ha-eventmgr'] 이벤트 1: /sbin/hostd가 충돌(지금까지 1회)하고 /var/core/hostd-worker-zdump.000에서 코어 파일이 생성되었을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.

vMotion 및 Storage vMotion

  • 11개 이상의 스냅샷을 포함한 가상 시스템의 Storage vMotion이 실패하고 오류 메시지가 표시될 수 있음
    대상 데이터스토어에 충분한 스토리지 공간이 있어도 11개 이상의 스냅샷을 포함한 가상 시스템의 Storage vMotion이 실패하고 다음과 같은 오류 메시지가 표시될 수 있습니다.
    데이터스토어 <데이터스토어 이름>에 공간이 부족함.
    이 문제는 이 릴리스에서 해결되었습니다.
  • RDM 디스크가 포함된 가상 시스템의 라이브 Storage vMotion을 수행하려고 하면 작업이 실패할 수 있음
    RDM 디스크가 포함된 가상 시스템의 Storage vMotion이 실패할 수 있고 가상 시스템 전원이 꺼진 상태로 표시될 수 있습니다. 가상 시스템 전원을 켜려는 시도가 실패하고 다음 오류가 표시될 수 있습니다.
    파일을 잠그지 못했습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vMotion 작업을 수행하면 VMware Tools가 자동으로 업그레이드되고 가상 시스템이 재부팅될 수 있음
    전원 주기마다 VMware Tools 업그레이드를 사용하고 no-tools 이미지 프로파일을 포함한 ESXi 호스트에서 새로운 VMware Tools ISO 이미지를 포함한 다른 ESXi 호스트로 vMotion을 수행하면 VMware Tools가 자동으로 업그레이드되고 가상 시스템이 재부팅될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • RDM 디스크를 포함하며 전원이 꺼진 상태의 가상 시스템의 마이그레이션이 실패하고 오류 메시지가 표시될 수 있음
    RDM 디스크를 포함하며 전원이 꺼진 상태의 가상 시스템을 마이그레이션할 때 RDM 디스크를 씬 프로비저닝된 디스크로 변환하려는 경우 이 시도가 실패하고 다음 오류 메시지가 표시될 수 있습니다.
    디바이스 '0'에 대해 지정된 디바이스 백업이 호환되지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vMotion 중 hostd 프로세스가 실패하고 가상 시스템 전원이 켜지지 않을 수 있음
    ctkEnabled 및 writeThroughvMotion 매개 변수가 모두 사용되는 경우 vMotion 또는 Storage vMotion의 결과로 발생하는 가상 시스템 전원 켜기 작업이 실패할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 XvMotion 기능을 사용하는 동안 페이지 장애가 발생할 수 있음
    블록 크기가 1MB인 데이터스토어가 있는 ESXi 호스트에서 XvMotion 기능을 사용하는 동안 모든 최적화를 사용하도록 설정한 경우 페이지 장애가 발생할 수 있습니다. 다음과 유사한 메시지가 포함된 보라색 화면이 표시됩니다.
    PSOD @BlueScreen: #PF Exception 14 in world 1000046563:helper14-2 IP 0x4180079313ab addr 0x4130045c3600
    이 문제는 이 릴리스에서 해결되었습니다.
  • Storage vMotion을 취소하면 가상 시스템이 갑자기 재부팅될 수 있음
    Storage vMotion 태스크를 취소하면 가상 시스템이 응답하지 않고 예기치 않게 재부팅될 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance

  • 유효하지 않은 구성 오류로 인해 가상 시스템의 전원이 켜지지 않음
    클러스터의 모든 호스트에 대한 전원 공급이 중단된 가상 시스템의 전원을 켜는 것에 실패하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    디바이스 0에 대한 구성이 유효하지 않음
    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools

  • 다중 RDP 연결 및 VMware Tools와 함께 설치된 Windows 게스트 운영 체제가 이벤트 뷰어에서 경고 메시지를 표시할 수 있음
    VMware Tools를 설치한 후 RDP를 이용해 Windows 가상 시스템에 연결하려고 시도하면 일부 플러그인이 Windows의 이벤트 로그에 경고 메시지를 기록할 수 있습니다. 이 경고 메시지는 호스트에 원격 프로시저 호출을 보내지 못했음을 나타냅니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 종료 중에 Linux 가상 시스템에서 vmtoolsd가 실패할 수 있음
    Linux 가상 시스템에서 게스트 운영 체제를 종료할 때 VMware Tools 서비스 vmtoolsd가 실패할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 스페인어 로케일 Windows 게스트 운영 체제에 VMware Tools를 설치하면 Windows 이벤트 뷰어에 경고 메시지가 표시될 수 있음
    VMware Tools를 설치한 후 Windows 이벤트 뷰어에 다음과 유사한 경고 메시지가 표시됩니다.
    'C:\Program Files\VMware\VMware Tools\messages\es\hgfsUsability.vmsg'에서 줄을 읽을 수 없습니다. 변환 입력의 바이트 순서가 잘못되었습니다.
    이 문제는 특히 스페인어 로케일 운영 체제에서 VMware Tools를 설치할 때 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 설치한 후 Windows 8이나 Windows Server 2012 게스트 운영 체제에서 텔넷을 열 수 없음
    Windows 8 또는 Windows Server 2012 게스트 운영 체제에 VMware Tools를 설치한 후 start telnet://xx.xx.xx.xx명령을 이용해 텔넷을 열려고 시도하면 실패하고 다음 오류 메시지가 표시됩니다.
    가상 시스템의 구성을 통해 게스트가 호스트 애플리케이션을 열 수 있는지 확인하십시오.
    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 게스트 운영 체제가 탑재된 가상 시스템에 VMware Tools를 설치하려는 경우 커널 패닉 오류가 보고될 수 있음
    다중 커널의 Linux 게스트 운영 체제에 VMware Tools를 설치할 때 가상 시스템이 커널 패닉 오류를 보고하고 부팅 시 응답을 멈출 수 있습니다.
    이 문제는 커널 버전 2.6.13 이상을 실행하는 Linux 가상 시스템에서 관찰되며 다른 커널에 대해 VMware Tools를 재구성하도록 mware-config-tools.pl을 실행할 때 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • RHEL OSP RPM을 사용해 RHEL 6.2에서 VMware Tools를 업데이트하는 동안 오류가 발생함
    http://packages.vmware.com/tools에서 RHEL OSP RPM을 사용하여 RHEL 6.2 가상 시스템에서 이전 버전의 VMware Tools를 업데이트하는 동안 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    오류: Package: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv)
    Requires: vmware-tools-vsock-common = 9.0.1
    Installed: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64)
    vmware-tools-vsock-common = 9.0.5-1.el6
    Available: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 8.6.10-1.el6
    Available: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 9.0.1-3
    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 드라이버가 Solaris 11 가상 시스템에서 예상한 대로 실행되지 않을 수 있음
    ESXi 5.1 호스트에서 Solaris 11 게스트 운영 체제에 설치된 일부 드라이버가 Solaris 10에서 파생된 것일 수 있습니다. 그 결과, 해당 드라이버가 예상대로 작동하지 않을 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi5.1 호스트의 traceroute명령 수행이 실패하고 다수의 인터페이스가 발견되었다는 메시지가 표시될 수 있음
    ESXi5.1 호스트에서 traceroute명령을 수행할 때 traceroute option -i가 실패하고 경고 메시지가 표시될 수 있습니다.
    다음과 유사한 경고 메시지가 표시됩니다.
    주의: 다수의 인터페이스가 발견됨(ESXi를 통한 일치하지 않는 동작)
    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools 5.x로 업그레이드하면 VMX 로그 파일에서 로그가 넘칠 수 있음
    둘 이상의 사용자가 Windows 또는 Linux 게스트 운영 체제의 로컬 또는 원격 터미널에서 그래픽 콘솔에 로그인할 때 VMware Tools 5.x로 업그레이드하면 다음과 유사한 여러 로그 항목이 VMX 로그 파일에 기록될 수 있습니다.
    Error in the RPC receive loop: RpcIn: Unable to send
    이 문제는 이 릴리스에서 해결되었습니다.
  • Windows 2000 가상 시스템에서 VMware Tools 업그레이드 시도가 실패할 수 있음
    Windows 2000 가상 시스템에서 VMware Tools 업그레이드 시도가 실패할 수 있습니다. 다음과 유사한 오류 메시지가 vmmsi.log에 기록됩니다.  
    Invoking remote custom action. DLL: C:\WINNT\Installer\MSI12.tmp, Entrypoint: VMRun
    VM_CacheMod. 반환 값 3.
    PROPERTY CHANGE: Deleting RESUME property. Its current value is '1'.
    INSTALL. 반환 값 3. 
    이 문제는 이 릴리스에서 해결되었습니다.
  • 프로세스 탐색기에 잘못된 핸들 개수가 표시됨
    HGFS 모듈이 vSphere Client를 실행하는 ESXi 호스트와 게스트 운영 체제의 콘솔 사이에서 많은 수의 파일을 전송하거나 크기가 큰 파일을 전송할 때 핸들 누수로 인해 프로세스 탐색기에 잘못된 핸들 개수가 표시됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 Linux, FreeBSD 또는 Solaris 게스트에 설치한 다음 설치 프로세스를 취소하거나 중지하려는 시도가 실패할 수 있음
    VMware Tools를 Linux, FreeBSD 또는 Solaris 가상 시스템에 성공적으로 설치한 다음 VMware Tools 설치가 여전히 진행 중인 것으로 표시될 수 있습니다. 가상 시스템에 VMware Tools 설치를 중지하려는 시도가 실패할 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.

알려진 문제

이전에 문서화되지 않은 알려진 문제는 * 기호로 표시되어 있습니다. 알려진 문제는 다음과 같이 그룹화되어 있습니다.

백업 문제

  • 콜드 마이그레이션 중에 변경된 블록 추적이 가상 RDM 디스크에 대해 재설정됨*
    전원이 꺼진 가상 시스템의 마이그레이션 중에 변경된 블록 추적(CBT)이 가상 RDM 디스크에 대해 재설정됩니다.

    참고: 가상 시스템의 전원이 켜진 경우에는 이 문제가 발생하지 않습니다.

설치 및 업그레이드 문제

  • Postgres 데이터베이스로 구성된 vCenter Server Appliance를 업그레이드한 후 인벤토리 개체가 표시되지 않을 수 있음
    Postgres 데이터베이스로 구성된 vCenter Server Appliance를 5.0 업데이트 2에서 5.1 업데이트 1로 업그레이드할 경우 업그레이드 전에 있었던 데이터 센터, vDS 등의 기존 인벤토리 개체가 표시되지 않을 수 있습니다. 이 문제는 vSphere Web Client를 사용하여 vCenter Server Appliance에 연결할 경우에 발생합니다.

    해결 방법: vCenter Server Appliance를 업그레이드한 후 Inventory Service를 다시 시작합니다.

  • Auto Deploy의 상태 저장 설치의 경우 ESX/ESXi가 USB에 이미 설치되어 있는 시스템에서 ESX의 firstdisk 인수를 사용할 수 없음
    상태 저장 설치용으로 설정하려는 호스트의 호스트 프로파일을 Auto Deploy를 사용하여 구성합니다. 구성 과정에서 디스크로 USB를 선택하고 첫 번째 인수로 esx를 지정합니다. 호스트는 현재 USB에 ESX/ESXi가 설치되어 있습니다. 하지만 Auto Deploy는 USB에 ESXi를 설치하는 대신 로컬 디스크에 ESXi를 설치합니다.

    해결 방법: 없음.

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 및 Set-DeployRule에 개체가 입력으로 필요함
    Copy-DeployRule또는 Set-DeployRulecmdlet을 실행하는 경우 이미지 프로파일 또는 호스트 프로파일 이름을 전달하면 오류가 발생합니다.

    해결 방법: 이미지 프로파일 또는 호스트 프로파일 개체를 전달합니다.

  • 선택한 디스크에 ESX를 설치한 경우 상태 비저장 캐시와 함께 Auto Deploy를 사용하도록 설정된 호스트 프로파일 적용이 실패함
    호스트 프로파일을 사용하여 상태 비저장 캐시를 사용하도록 설정되어 있는 Auto Deploy를 설정합니다. 호스트 프로파일에서 ESX(ESXi가 아님) 버전이 설치되어 있는 디스크를 선택합니다. 호스트 프로파일을 적용하면 다음 텍스트가 포함된 오류가 나타납니다.
    Expecting 2 bootbanks, found 0(2개의 부팅 뱅크가 필요함, 0개 발견)

    해결 방법: 디스크에서 ESX 소프트웨어를 제거하거나, 상태 비저장 캐시에 사용할 다른 디스크를 선택합니다.

  • Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경한 후 vSphere Auto Deploy가 더 이상 작동하지 않음
    vCenter Server와는 다른 시스템에 Auto Deploy를 설치하고 Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경합니다. 변경 후 Auto Deploy 명령이 더 이상 작동하지 않습니다.

    해결 방법: Auto Deploy 서버 서비스를 다시 시작합니다.
    net start vmware-autodeploy-waiter
    서비스를 다시 시작해도 문제가 해결되지 않으면 자동 배포 서버를 다시 등록해야 할 수 있습니다. 모든 옵션을 지정하여 다음 명령을 실행합니다.
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • HP DL980 G7에서 온보드 NIC를 사용하는 경우 ESXi 호스트가 Auto Deploy를 통해 부팅되지 않음
    시스템에서 온보드(LOM Netxen) NIC를 PXE 부팅에 사용하고 있으면 Auto Deploy를 사용하여 HP DL980 G7 시스템을 부팅할 수 없습니다.

    해결 방법: HP에서 승인된 추가 기능 NIC(예: HP NC3 60T)를 호스트에 설치하고 해당 NIC를 PXE 부팅에 사용합니다.

  • esxcli를 사용한 실시간 업데이트가 실패하고 VibDownloadError가 발생함
    사용자가 다음 두 가지 업데이트를 순차적으로 수행합니다.

    1. esxcli software profile update 또는 esxclivib update 명령을 사용한 실시간 설치 업데이트.
    2. 재부팅이 필요한 업데이트

    두 번째 트랜잭션이 실패합니다. 가장 일반적인 실패 이유는 서명 검증 때문인데, 서명은 VIB를 다운로드한 이후에만 확인할 수 있습니다.

    해결 방법: 이 문제는 두 단계 프로세스로 해결할 수 있습니다.

    1. ESXi 호스트를 재부팅하여 상태를 정리합니다.
    2. 실시간 설치를 반복합니다.
  • 시스템에 연결된 NIC가 없는 경우 ESXi 스크립트로 작성된 설치 시 CD-ROM 드라이브에서 ks(kickstart) 파일을 찾지 못함
    연결된 NIC가 없는 시스템의 CD-ROM 드라이브에 kickstart 파일이 있는 경우 다음 오류 메시지가 표시됩니다. Can't find the kickstart file on cd-rom with path < path_to_ks_file>(cd-rom의 다음 경로에서 kickstart 파일을 찾을 수 없음 < path_to_ks_file>).

    해결 방법: NIC를 재연결하여 네트워크 연결을 설정하고 설치를 다시 시도합니다.

  • SWFCoE LUN에서 스크립트로 작성된 설치에 실패함
    ESXi 설치 관리자가 ks(kickstart) 파일을 사용하여 설치를 호출하는 경우 설치가 시작될 때까지 일부 FCoE LUN이 아직 검색되어 채워지지 않았습니다. 따라서 모든 LUN에서 스크립트로 작성된 설치에 실패합니다. 이 실패는 https, http또는 ftp프로토콜이 kickstart 파일에 액세스하는 데 사용될 때 발생합니다.

    해결 방법: kickstart 파일의 %pre섹션에 2분의 유휴 시간을 포함합니다.
    %pre --interpreter=busybox
    sleep 120

  • vCenter Server는 업그레이드하지만 Auto Deploy 서버는 업그레이드하지 않는 경우에 발생할 수 있는 잠재적인 문제
    vCenter Server를 업그레이드하면 각 ESXi 호스트에서 5.0 vSphere HA 에이전트(vmware-fdm)가 새 에이전트로 교체됩니다. 이러한 교체는 ESXi 호스트가 재부팅될 때마다 발생합니다. vCenter Server를 사용할 수 없으면 ESXi 호스트가 클러스터에 가입할 수 없습니다.

    해결 방법: 가능한 경우 Auto Deploy 서버를 업그레이드합니다.
    Auto Deploy 서버를 업그레이드할 수 없는 경우 vSphere PowerCLI와 함께 포함된 Image Builder PowerCLI cmdlet을 사용하여 새 vmware-fdm VIB가 포함된 ESXi 5.0 이미지 프로파일을 생성할 수 있습니다. 그리고 호스트에 이 이미지 프로파일을 제공할 수 있습니다.

    1. ESXi 5.0 소프트웨어 디포를 추가하고 새 vmware-fdm VIB가 포함된 소프트웨어 디포를 추가합니다.
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 기존 이미지 프로파일을 복제하고 vmware-fdm VIB를 추가합니다.
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 호스트에 새 이미지 프로파일을 할당하는 규칙을 새로 생성하여 규칙 집합에 추가합니다.
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 호스트에 대한 테스트 및 복구 규정 준수 작업을 수행합니다.
      Test-DeployRuleSetCompliance Host_list
  • 상태 비저장 캐시가 켜져 있는 경우 Auto Deploy 서버를 사용할 수 없게 되면 호스트가 저장된 이미지를 사용하여 자동으로 부팅되지 않을 수 있음
    Auto Deploy 서버를 사용할 수 없게 되면 Auto Deploy와 함께 상태 비저장 캐시용으로 설정된 호스트가 저장된 이미지가 있는 디스크에서 자동으로 부팅되지 않는 경우가 있습니다. 이러한 상황은 원하는 부팅 디바이스가 논리적으로 다음 부팅 순서인 경우에도 발생할 수 있습니다. 정확한 발생 사항은 서버 벤더 BIOS 설정에 따라 다릅니다.

    해결 방법: 수동으로 캐시된 이미지가 있는 디스크를 부팅 디바이스로 선택합니다.

  • ESXCLI를 사용하여 ESXi 5.0 호스트를 ESXi 5.1로 업그레이드하는 동안 VMotion 및 FT(Fault Tolerance) 로깅 설정이 손실됨
    ESXi 5.0 호스트에서 포트 그룹에 대해 vMotion과 FT를 사용하도록 설정합니다. esxcli software profile update 명령을 실행하여 호스트를 업그레이드합니다. 성공적인 업그레이드의 일부로 vMotion 설정과 Fault Tolerance 로깅 설정이 기본 설정, 즉 사용 안 함 상태로 돌아갑니다.

    해결 방법: vSphere Upgrade Manager를 사용하여 호스트를 업그레이드하거나, 수동으로 vMotion과 Fault Tolerance를 업그레이드 전 설정으로 되돌립니다.

네트워킹 문제
  • SR-IOV를 사용하도록 설정된 ESXi 호스트에서 가상 기능과 연관된 가상 시스템을 시작하지 못할 수 있음
    Intel ixgbe NIC를 포함하는 ESXi 5.1 호스트에서 SR-IOV를 사용하도록 설정하고 이 환경에서 몇 가지 가상 기능을 사용하도록 설정하면 일부 가상 시스템을 시작하지 못할 수 있습니다.
    다음과 유사한 메시지가 vmware.log 파일에 표시됩니다.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    해결 방법: 문제가 있는 가상 시스템과 연련된 가상 기능의 수를 줄인 후 시작하십시오.

  • Auto Deploy를 사용하여 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답을 멈춤
    최신 오픈 소스 gPXE를 사용하여 Emulex 10GbE NC553i FlexFabric 2 포트에서 Auto Deploy로 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답하지 않습니다.

    Emulex 10GbE PCI-E 컨트롤러는 메모리 매핑된 컨트롤러입니다. 네트워크를 통해 패킷을 보내고 받으려면 이 컨트롤러에서 실행되고 있는 PXE/UNDI 스택이 1MB 이상에 위치한 디바이스별 레지스터를 프로그래밍할 수 있도록 PXE TFTP/HTTP 전송 중에 리얼 모드에서 빅 리얼 모드로 전환되어야 합니다. 이 프로세스 중에 CPU 인터럽트가 의도하지 않게 사용하도록 설정되어 CPU 모드 전환 중에 다른 디바이스 인터럽트가 생성될 때 시스템이 응답을 멈추게 됩니다.

    해결 방법: NIC 펌웨어를 빌드 4.1.450.7 이상으로 업그레이드합니다.

  • 표준 가상 스위치에서 포트 수 변경 사항이 호스트를 재부팅할 때까지 적용되지 않음
    표준 가상 스위치에서 포트 수를 변경할 경우 호스트를 재부팅하기 전에는 변경 사항이 적용되지 않습니다. 이것은 포트 수 변경 사항이 즉시 적용되는 분산 가상 스위치의 동작과 다릅니다.

    표준 가상 스위치에서 포트 수를 변경할 경우 호스트의 총 포트 수가 표준 스위치와 Distributed Switch 모두에서 4096개를 넘지 않는지 확인하십시오.

    해결 방법: 없음.

  • 물리적 NIC의 관리 상태가 작동 중지로 제대로 보고되지 않음
    관리 목적으로 물리적 NIC 상태를 작동 중지로 설정하는 것은 IEEE 표준에 부합하지 않습니다. 가상 스위치 명령을 통해 물리적 NIC를 작동 중지로 설정한 경우 다음 두 가지 알려진 문제가 발생합니다.
    • ESXi에서 처리할 수 없는 트래픽 증가로 인해 ESXi에 접해 있는 물리적 스위치의 네트워크 리소스와 ESXi 자체의 리소스가 낭비됩니다.

    • NIC가 예기치 않은 방식으로 동작합니다. 작업자는 NIC 전원이 꺼질 것으로 예상하지만 NIC는 여전히 활성 상태로 표시됩니다.

    ESXCLI network down -n vmnicN 명령을 사용할 때 주의할 사항은 다음과 같습니다.
    • 이 명령은 드라이버만 끄고 NIC의 전원은 끄지 않습니다. ESXi 시스템에 접해 있는 물리적 스위치의 관리 인터페이스에서 ESXi 물리적 네트워크 어댑터를 볼 경우 표준 스위치 업링크는 여전히 활성 상태인 것으로 나타납니다.

    • NIC의 관리 상태는 ESXCLI 또는 UI에 표시되지 않습니다. 디버깅할 때 /etc/vmware/esx.conf를 검사하여 상태를 확인해야 합니다.

    • SNMP 에이전트는 관리 상태를 보고하지만, NIC의 작동 상태가 처음부터 작동 중지 상태였던 경우 NIC가 작동 중지로 설정되면 관리 상태를 잘못 보고합니다. 작동 상태가 활성 상태일 때 NIC가 작동 중지로 설정된 경우에는 관리 상태를 올바르게 보고합니다.

    해결 방법: 가상 스위치 명령을 사용하는 대신 ESXi 시스템에 접해 있는 물리적 스위치에서 관리 상태를 작동 중지로 변경합니다.

  • Linux 드라이버 지원 변경 사항
    Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET2 또는 VMXNET(flexible) 가상 NIC의 디바이스 드라이버를 사용할 수 없습니다.

    해결 방법: Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET3 또는 e1000 가상 NIC를 사용합니다.

  • vSphere 5.0 Network I/O Control 대역폭 할당이 여러 업링크 간에 균등하게 배포되지 않음
    vSphere 5.0에서 Network I/O Control을 사용하는 동안 리소스 풀에 네트워킹 대역폭 제한이 설정된 경우 이 제한은 호스트 수준의 업링크 팀에 적용됩니다. 이 대역폭 제한은 여러 업링크 간에 대역폭을 균등하게 배포하도록 설계되지 않은 토큰 배포 알고리즘을 통해 구현됩니다.

    해결 방법: vSphere 5.1 Network I/O Control 제한은 업링크 단위로 좁혀졌습니다.

  • "미러링된 패킷 길이" 설정으로 인해 원격 미러링 소스 세션이 작동하지 않음
    "미러링된 패킷 길이" 옵션이 설정되어 있는 원격 미러링 소스 세션을 구성하는 경우 대상이 미러링된 패킷 중 일부를 수신하지 않습니다. 하지만 이 옵션을 사용하지 않도록 설정하면 패킷이 다시 수신됩니다.
    "미러링된 패킷 길이" 옵션을 설정한 경우 지정한 길이보다 긴 패킷이 잘리고 패킷이 삭제됩니다. 낮은 계층 코드는 조각화와 삭제된 패킷에 대한 체크섬 재계산을 수행하지 않습니다. 다음 두 가지 사항으로 인해 패킷이 삭제될 수 있습니다.

    • "미러링된 패킷 길이"가 MTU(최대 전송 단위)보다 큼
      사용자 환경에서 TSO를 사용하도록 설정한 경우 원래 패킷이 매우 클 수 있습니다. 이러한 원래 패킷은 미러링된 패킷 길이만큼 잘린 후에도 여전히 MTU보다 크므로 물리적 NIC에 의해 삭제됩니다.

    • 중간 스위치가 L3 검사를 수행함
      일부 잘린 패킷의 패킷 길이와 체크섬이 잘못될 수 있습니다. 일부 고급 물리적 스위치는 L3 정보를 검사하고 올바르지 않은 패킷을 삭제합니다. 따라서 대상이 패킷을 수신하지 않습니다.

    해결 방법:

    • TSO(TCP 세분화 오프로드)를 사용하도록 설정된 경우 "미러링된 패킷 길이" 옵션이 사용되지 않도록 설정합니다.

    • Cisco의 4500 시리즈 스위치와 같은 일부 스위치에서 L3 검사를 사용하거나 사용하지 않도록 설정할 수 있습니다. 이러한 스위치를 사용 중인 경우 L3 검사를 사용하지 않도록 설정합니다. 구성할 수 없는 스위치의 경우 "미러링된 패킷 길이" 옵션을 사용하지 않도록 설정합니다.
  • 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 vMotion이 실패함
    vSphere 5.x에서는 호스트당 vMotion에 VMkernel 네트워크 어댑터를 16개까지 사용하도록 설정할 수 있습니다. 특정 호스트에서 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 해당 호스트를 대상으로 하는 vMotion 마이그레이션이 실패할 수 있습니다. ESXi의 VMkernel 로그에 있는 오류 메시지는 17 스트림 IP 항목을 초기화하기 위한 요청을 거부합니다입니다. 여기서 숫자는 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터 수를 나타냅니다.

    해결 방법: vMotion에 사용하도록 설정한 vMotion VMkernel 네트워크 어댑터 수가 총 16개를 초과하지 않도록 설정하십시오.

  • VLAN 환경에서 nx_nic 드라이버를 사용하는 경우 vSphere 네트워크 코어 덤프가 작동하지 않음
    네트워크 코어 덤프가 VLAN에 속한 호스트에 구성된 경우 NIC가 QLogic Intelligent Ethernet Adapters 드라이버(nx_nic)를 사용하면 네트워크 코어 덤프가 실패합니다. 업링크 어댑터가 nx_nic를 사용하면 수신된 네트워크 코어 덤프 패킷에 올바른 VLAN 태그가 지정되지 않습니다.

    해결 방법: VLAN에서 네트워크 코어 덤프를 구성하는 경우 다른 드라이버가 있는 다른 업링크 어댑터를 사용합니다.

  • 스크립트로 작성된 설치에 대한 kickstart 파일에서 이미 사용 중인 NIC를 호출하는 경우 설치에 실패함
    kickstart 파일을 사용하여 관리 네트워크 사후 설치를 설정하는 경우 kickstart 파일에서 이미 사용 중인 NIC를 호출하면 다음 오류 메시지가 표시됩니다. Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information.(작업에서 반환된 상태에 대한 Sysinfo 오류는 "사용 중"입니다. 오류에 대한 자세한 내용은 VMkernel 로그를 참조하십시오.)

    오류는 두 개의 NIC, 즉 SWFCoE/SWiSCSI용으로 구성된 NIC와 네트워킹용으로 구성된 NIC가 있는 하나의 시스템에서 스크립트로 작성된 설치를 시작할 때 발생합니다. 부팅 옵션에서 netdevice=<nic> 또는 BOOTIF=<MAC of the NIC>를 제공하여 네트워크 NIC를 통해 스크립트로 작성된 설치를 시작하는 경우 kickstart 파일은 네트워크 라인에 있는 다른 NIC( netdevice=<nic configured for SWFCoE / SWiSCSI>)를 사용하여 관리 네트워크를 구성합니다.

    설치(디스크 파티셔닝)에는 성공하지만 구성에는 실패하는데, 이는 설치 관리자가 kickstart 파일에서 네트워크 매개 변수가 제공된 호스트에 대해 관리 네트워크를 구성하려고 할 때 NIC가 SWFCoE/SWiSCSI에서 이미 사용되고 있기 때문입니다.

    해결 방법: 설치 후 관리 네트워크를 설정하기 위한 kickstart 파일에서 사용 가능한 NIC를 사용합니다.

  • ESX를 실행 중이며 VMXNET3을 pNIC로 사용하는 가상 시스템이 충돌할 수 있음
    VMXNET3 지원은 실험 버전이므로 게스트로 ESX를 실행하고 pNIC로 vmxnet3을 사용하는 가상 시스템에서 충돌이 발생할 수 있습니다. ESX 가상 시스템의 기본 NIC는 e1000이므로 이 문제는 기본값을 재정의하고 대신 VMXNET3을 선택한 경우에만 발생합니다.

    해결 방법: ESX 가상 시스템의 pNIC로 e1000 또는 e1000e를 사용합니다.

  • 많은 수의 dvPort가 사용되고 있는 경우 오류 메시지가 표시됨
    이미 많은 수의 dvPort가 사용되고 있는 호스트에서 dvPort가 있는 가상 시스템의 전원을 켜면 메모리 부족또는 리소스 부족오류가 표시됩니다. esxcli 명령을 사용하여 호스트에 있는 스위치를 나열할 때에도 이 문제가 발생할 수 있습니다.

    해결 방법: dvsLargeHeap 크기를 늘립니다.

    1. 다음과 같이 호스트의 고급 구성 옵션을 변경합니다.
      • esxcli 명령: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
      • 가상 센터: 호스트 구성 -> 소프트웨어 패널 -> 고급 설정 -> "네트"에서 DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
      • vSphere 5.1 Web Client: 호스트 관리 -> 설정 -> 고급 시스템 설정 -> 필터로 이동합니다. DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
    2. 호스트에서 호스트 프로파일을 캡처합니다. 프로파일을 호스트와 연결하고 응답 파일을 업데이트합니다.
    3. 값이 적용되도록 호스트를 재부팅합니다.

    참고: /Net/DVSLargeHeapMaxSize의 최대값은 128입니다.

    대규모 배포 중에 /Net/DVSLargeHeapMaxSize를 128로 변경한 후 문제가 발생하고 로그에 다음 오류 메시지 중 하나가 표시되는 경우 VMware 지원 부서에 문의하십시오.

    Unable to Add Port; Status(bad0006)= Limit exceeded

    Failed to get DVS state from vmkernel Status (bad0014)= Out of memory

  • ESXi가 Emulex BladeEngine-3 10G NIC(be2net 드라이버)에서 실패함
    VMware vCloud Director를 사용하여 vCDNI가 지원하는 네트워크 풀을 구성한 경우 ESXi가 Emulex BladeEngine-3 10G NIC가 있는 시스템에서 실패할 수 있습니다. 이 디바이스가 있는 네트워크 풀을 구성할 경우 Emulex에서 업데이트된 디바이스 드라이버를 얻어야 합니다.

    해결 방법: 없음.

스토리지 문제

  • VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션된 가상 시스템에서 RDM LUN이 분리됨
    vSphere Web Client를 사용하여 RDM LUN이 있는 가상 시스템을 VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션할 경우 오류 또는 주의 메시지 없이 마이그레이션 작업이 완료되지만 RDM LUN은 마이그레이션 후 가상 시스템에서 분리됩니다. 하지만 마이그레이션 작업 중 NFS 데이터스토어에는 RDM LUN을 대체하기 위해 RDM LUN과 같은 크기의 vmdk 파일이 생성됩니다.
    vSphere Client를 사용하는 경우 마이그레이션 마법사의 호환성 섹션에 해당 오류 메시지가 표시됩니다.

    해결 방법: 없음
  • EMC Symmetrix VMAX/VMAXe 스토리지 어레이를 사용하는 경우 VMFS5 데이터스토어 생성에 실패할 수 있음
    ESXi 호스트가 VMAX/VMAXe 어레이에 연결된 경우 어레이에서 나타나는 LUN에 VMFS5 데이터스토어를 생성하지 못할 수 있습니다. 이 경우 다음 오류가 표시됩니다. An error occurred during host configuration(호스트를 구성하는 동안 오류가 발생했습니다.) 이 오류는 이전에 기록되지 않은 LUN에서 새 데이터스토어를 방지하는 Symmetrix Enginuity Microcode(VMAX 5875.x)의 ATS(VAAI) 부분에 따른 결과입니다.

    해결 방법:

    1. ESXi 호스트에서 하드웨어 가속 잠금을 사용하지 않도록 설정합니다.
    2. VMFS5 데이터스토어를 생성합니다.
    3. 호스트에서 하드웨어 가속 잠금을 다시 사용하도록 설정합니다.

    하드웨어 가속 잠금 매개 변수를 사용하지 않도록 설정했다가 다시 사용하도록 설정하려면 다음 작업을 수행합니다.

    vSphere Web Client의 경우

    1. vSphere Web Client 탐색기에서 호스트를 찾습니다.
    2. 관리 탭을 클릭하고 설정을 클릭합니다.
    3. 시스템 아래에서 고급 시스템 설정을 클릭합니다.
    4. VMFS3.HardwareAcceleratedLocking을 선택하고 "편집" 아이콘을 클릭합니다.
    5. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
      • 0 사용 안 함
      • 1 사용

    vSphere Client의 경우

    1. vSphere Client 인벤토리 패널에서 호스트를 선택합니다.
    2. 구성 탭을 클릭하고 소프트웨어 아래에서 고급 설정을 클릭합니다.
    3. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
      • 0 사용 안 함
      • 1 사용
  • Storagesystem::updateDiskPartitions()를 사용하는 경우 빈 디스크에 GPT 파티션을 생성하려는 시도가 실패할 수 있음
    Storagesystem::computeDiskPartitionInfoAPI를 사용하여 디스크 규격을 검색한 다음 디스크 규격을 사용하여 Storagesystem::updateDiskPartitions()를 통해 디스크에 대한 레이블 지정과 파티션 생성을 수행할 수 있습니다. 하지만 디스크가 초기에 비어 있는 경우 대상 디스크 형식이 GPT이면 파티션을 생성하려는 시도가 실패할 수 있습니다.

    해결 방법: 대신 DatastoreSystem::createVmfsDatastore를 사용하여 빈 디스크에 대한 레이블 지정과 파티션 생성을 수행하고 VMFS5 데이터스토어를 생성합니다.

  • GPT 디스크에 진단 파티션을 생성하려는 시도가 실패할 수 있음
    GPT 디스크에 파티션이 없거나 디스크의 끝 부분이 비어 있는 경우 디스크에 진단 파티션을 생성하지 못할 수 있습니다.

    해결 방법: GPT 형식의 디스크를 진단 파티션에 사용하지 마십시오. 기존의 빈 GPT 디스크를 진단 파티션에 사용해야 하는 경우에는 디스크를 MBR 형식으로 변환합니다.

    1. 디스크에 VMFS3 데이터스토어를 생성합니다.
    2. 데이터스토어를 제거합니다.

    디스크 형식이 GPT에서 MBR로 변경됩니다.
  • 2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE LUN에서 ESXi를 부팅할 수 없음
    2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE 부팅 LUN에 ESXi를 설치하는 경우 설치에 성공할 수 있습니다. 하지만 ESXi 호스트를 부팅하려고 하면 부팅이 실패합니다. BIOS 실행 시 오류: No suitable geometry for this disk capacity!및 ERROR: Failed to connect to any configured disk!오류 메시지가 표시됩니다.

    해결 방법: 2TB보다 크고 FCoE 부팅용으로 구성한 Intel FCoE NIC에 연결된 FCoE LUN에 ESXi를 설치하지 마십시오. 2TB보다 작은 FCoE LUN에 ESXi를 설치하십시오.

서버 구성 문제
  • ESX 5.1 업데이트 3으로 업그레이드한 다음 호스트 프로파일 규정 준수 검사가 실패할 수 있음*
    ESXi 5.1.x를 ESXi 5.1 업데이트 3으로 업그레이드한 다음 NMP(Native Multipathing Plugin) 디바이스 정보가 호스트 프로파일 규정 준수 검사에 포함되지 않을 수 있습니다. 호스트 프로파일 규정 준수 검사가 기존의 모든 호스트 프로파일에 대해 실패할 수 있습니다. 다음과 같은 규정 준수 오류 메시지가 표시됩니다.
    호스트에 규격 상태가 없음: 디바이스 naa.xxxx에 대한 SATP 구성을 업데이트해야 함

    해결 방법: 이 문제를 해결하려면 KB 2032822를 참조하십시오.
  • 콘솔을 통해 VMFS 폴더에 액세스하는 경우 호스트 프로파일 적용에 실패할 수 있음
    호스트 프로파일이 호스트에 적용됨과 동시에 사용자가 콘솔을 통해 VMFS 데이터스토어 폴더에 액세스하는 경우 업데이트 적용 또는 적용 작업이 실패할 수 있습니다. 이러한 실패는 호스트 프로파일에서 상태 비저장 캐시를 사용하도록 설정된 경우나 Auto Deploy 설치가 발생한 경우에 발생합니다.

    해결 방법: 호스트 프로파일 업데이트를 적용하는 동안 콘솔을 통해 VMFS 데이터스토어에 액세스하지 마십시오.

  • 로그인 배너의 선행 공백으로 인해 호스트 프로파일 규정 준수 실패가 발생함
    호스트 프로파일을 편집하고 "로그인 배너(요일 메시지)" 옵션의 텍스트를 변경하지만 배너 텍스트에 선행 공백을 추가하면 프로파일이 적용될 때 규정 준수 오류가 발생합니다. Login banner has been modified(로그인 배너가 수정됨)라는 규정 준수 오류가 나타납니다.

    해결 방법: 호스트 프로파일을 편집하고 로그인 배너 정책 옵션에서 선행 공백을 제거합니다.

  • Active Directory를 사용하도록 설정한 경우 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하지 못함
    Active Directory를 사용하도록 설정한 경우 원래 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하면 적용 작업이 실패합니다. likewise 시스템 리소스 풀의 최대 메모리 크기를 설정하면 오류가 발생할 수 있습니다. Active Directory를 사용하도록 설정한 경우 likewise 시스템 리소스 풀에 있는 서비스는 ESXi 5.0 호스트 프로파일에서 캡처된 ESXi 5.0의 기본 최대 메모리 제한보다 더 많이 소비합니다. 따라서 최대 메모리 제한을 ESXi 5.0 수준으로 설정하려고 시도하는 동안 ESXi 5.0 호스트 프로파일 적용이 실패합니다.

    해결 방법: 다음 작업 중 하나를 수행합니다.

    • 호스트 프로파일을 수동으로 편집하여 likewise 그룹의 최대 메모리 제한을 늘립니다.
      1. 호스트 프로파일 편집기에서 리소스 풀 폴더로 이동하고 host/vim/vmvisor/plugins/likewise를 봅니다.
      2. 20(ESXi 5.0 기본값)에서 25(ESXi 5.1 기본값)로 최대 메모리(MB) 설정을 수정합니다.
    • likewise 그룹의 하위 프로파일을 사용하지 않도록 설정합니다. 다음 중 하나를 수행합니다.
      • vSphere Web Client에서 호스트 프로파일을 편집하고 리소스 풀 폴더의 확인란을 선택 취소합니다. 이 작업을 수행하면 모든 리소스 풀 관리가 사용되지 않도록 설정됩니다. 리소스 풀 폴더의 host/vim/vmvisor/plugins/likewise 항목에 대해서만 이 기능을 사용하지 않도록 설정할 수 있습니다.
      • vSphere Client에서 호스트 프로파일을 마우스 오른쪽 버튼으로 클릭하고 메뉴에서 프로파일 구성 사용/사용 안 함...을 선택합니다.
  • ESXi 5.0.x 호스트 프로파일이 상태 저장 ESXi 5.1 호스트에 다시 적용될 때 호스트 게이트웨이가 삭제되고 규정 준수 실패가 발생함
    ESXi 5.0.x 호스트 프로파일이 새로 설치한 ESXi 5.1 호스트에 적용될 때 프로파일 규정 준수 상태가 규정 비준수입니다. 동일한 프로파일을 다시 적용한 후 호스트의 게이트웨이 IP가 삭제되고 규정 준수 상태가 계속해서 IP 경로 구성이 규격과 일치하지 않음상태 메시지와 함께 규정 비준수로 표시됩니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • DCUI를 통해 호스트에 로그인하고 다음과 같은 esxcli명령을 사용하여 수동으로 기본 게이트웨이를 추가합니다.
      esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
    • ESX 5.0 호스트 프로파일을 한 번 적용한 후 ESX 5.1 호스트에서 새 호스트 프로파일을 추출합니다. ESX 5.1 호스트를 새 ESX 5.1 기반 호스트 프로파일로 마이그레이션합니다.
  • USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 후 규정 준수 오류가 발생할 수 있음
    호스트 프로파일에서 USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 경우 업데이트 적용 후 규정 준수 오류가 발생할 수 있습니다. 업데이트가 적용된 변경 사항을 적용하도록 호스트를 재부팅한 후 상태 비저장 캐시에 성공하지만 규정 준수 실패가 계속됩니다.

    해결 방법: 해결 방법이 없습니다.

  • 상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 동안 많은 데이터스토어가 있는 호스트가 시간 초과됨
    상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 경우 많은 데이터스토어가 있는 호스트가 시간 초과됩니다.

    해결 방법: vSphere Client를 사용하여 시간 초과를 늘립니다.

    1. 관리자 > vCenter Server 설정을 선택합니다.
    2. 시간 초과 설정을 선택합니다.
    3. 일반 작업과 긴 작업에 대한 값을 3600초로 변경합니다.
  • vmknic에서 IPv4를 사용하지 않도록 설정한 경우 호스트에서 호스트 프로파일을 추출할 수 없음
    모든 vmknic에서 모든 IPv4 주소를 제거하는 경우 해당 호스트에서 호스트 프로파일을 추출할 수 없습니다. 이 환경에서 호스트 구성을 저장하는 유일한 방법이 호스트 프로파일이므로 이 작업은 Auto Deploy로 프로비저닝된 호스트에 가장 큰 영향을 주게 됩니다.

    해결 방법: 하나 이상의 vmknic를 하나의 IPv4 주소에 할당합니다.

  • ESXi 4.1 호스트에서 추출된 호스트 프로파일을 ESXi 5.1 호스트에 적용하는 경우 호스트 프로파일 적용에 실패함
    ESXi 4.1을 사용하여 호스트를 설정하고 이 호스트(vCenter Server 포함)에서 호스트 프로파일을 추출한 다음 프로파일을 ESXi 5.1 호스트에 연결하는 경우 프로파일을 적용하려고 하면 작업이 실패합니다. 이 경우 다음 오류가 수신될 수 있습니다. NTP service turned off(NTP 서비스가 해제됨)

    ESXi 4.1의 /etc/ntp.conf에서 NTP 서버를 제공하지 않더라도 NTPD 서비스가 활성화된 상태로 실행되고 있을 수 있습니다. ESXi 5.1에 명시적 NTP 서버가 있어야 서비스를 실행할 수 있습니다.

    해결 방법: /etc/ntp.conf에서 올바른 NTP 서버를 추가하여 NTP 서비스를 켜고 5.1 호스트에서 NTP 대몬을 다시 시작합니다. 재부팅 후에도 서비스가 그대로 유지되는지 확인합니다. 이 작업을 수행하면 NTP 서비스가 호스트와 해당 호스트에 적용되는 프로파일에 대해 동기화됩니다.

  • 프로파일이 성공적으로 적용된 후 호스트 프로파일이 규정 비준수로 표시됨
    이 문제는 ESXi 5.0 호스트에서 호스트 프로파일을 추출하여 로컬 SAS 디바이스가 포함된 ESXi 5.1 호스트에 적용할 때 발생합니다. 호스트 프로파일 업데이트 적용에 성공해도 호스트 프로파일이 규정 비준수로 표시됩니다.

    다음과 같은 오류가 수신될 수 있습니다.

    • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 경로 선택 정책을 VMW_PSP_FIXED(으)로 설정해야 함
    • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 매개 변수를 State = "on" Queue Full Sample Size = "0" Queue Full Threshold = "0"(으)로 설정해야 함

    ESXi 5.1 호스트 프로파일 스토리지 플러그인이 PSA 및 NMP 디바이스 구성에 맞는 로컬 SAS 디바이스를 필터링하지만 ESXi 5.0에는 이와 같은 디바이스 구성이 포함되어 있습니다. 따라서 오래된 호스트 프로파일을 새 호스트에 적용하는 경우 누락된 디바이스가 발생합니다.

    해결 방법: 수동으로 호스트 프로파일을 편집하고 모든 로컬 SAS 디바이스의 PSA 및 NMP 디바이스 구성 항목을 제거합니다. 다음과 같은 esxcli 명령을 입력하여 디바이스가 로컬 SAS 디바이스인지 확인할 수 있습니다.
    esxcli storage core device list

    다음과 같은 줄이 반환되는 경우 디바이스는 로컬 SAS 디바이스입니다.
    Is Local SAS Device

  • 기본 시스템 서비스가 항상 Auto Deploy로 프로비저닝된 ESXi 호스트에서 시작됨
    Auto Deploy로 프로비저닝된 ESXi 호스트의 경우 관련 호스트 프로파일의 "서비스 구성" 섹션에 있는 서비스 시작 정책이 완전히 적용되지 않습니다. 특히, ESXi에서 기본적으로 켜져 있는 서비스 중 하나의 "시작 정책" 값이 off인 경우 해당 서비스는 Auto Deploy로 프로비저닝된 ESXi 호스트에서 여전히 부팅 시간에 시작됩니다.

    해결 방법: ESXi 호스트를 부팅한 후 서비스를 수동으로 중지합니다.

  • snmpd 다시 시작 후 VMWARE-VMINFO-MIB에서 정보 검색이 올바르게 이루어지지 않음
    ESXi Shell에서 /etc/init.d/snmpd restart를 사용하여 snmpd 대몬을 다시 시작한 후 SNMPWalk를 실행하는 동안 VMWARE-VMINFO-MIB의 일부 정보가 누락될 수 있습니다.

    해결 방법: /etc/init.d/snmpd restart를 사용하지 마십시오. esxcli system snmp set --enable명령을 사용하여 SNMP 대몬을 시작하거나 중지해야 합니다. /etc/init.d/snmpd restart를 사용하여 ESXi Shell에서 snmpd를 다시 시작한 경우 DCUI에서 Hostd를 다시 시작하거나 ESXi Shell에서 /etc/init.d/hostd restart를 사용하여 Hostd를 다시 시작합니다.

vCenter Server 및 vSphere Client 문제
  • View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server에 대한 ESXi 호스트 연결이 손실될 수 있음
    VMware View가 vSphere 5.1과 함께 배포된 경우 View 관리자가 데스크톱 풀에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server 5.1에 대한 ESXi 5.1 호스트 연결이 손실될 수 있습니다.

    View Storage Accelerator 기능을 컨텐츠 기반 읽기 캐시라고도 합니다. View 5.1 View Administrator 콘솔에서는 이 기능을 호스트 캐시라고 합니다.

    해결 방법: vSphere 5.1과 함께 배포된 View 환경에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하지 마십시오.

가상 시스템 관리 문제
  • ESX 3.x 이상(VM 버전 4)에서의 가상 시스템 호환성 업그레이드가 Windows 가상 시스템 Flexible 어댑터를 Windows 시스템 기본 드라이버로 잘못 구성함
    Flexible 네트워크 어댑터가 VMware Accelerated AMD PCnet Adapter 드라이버로 구성된 Windows 게스트 운영 체제가 있는 경우 가상 시스템 호환성을 ESX 3.x 이상(VM 버전 4)에서 다른 모든 이후의 호환성 설정으로 업그레이드하면(예: ESXi 4.x 이상(VM 버전 7) Windows가 Flexible 어댑터를 Windows AMD PCNET Family PCI Ethernet Adapter 기본 드라이버로 구성합니다.
    구성이 잘못되는 이유는 VMware Tools 드라이버가 서명되지 않아 Windows가 서명된 기본 Windows 드라이버를 선택하기 때문입니다. 호환성 업그레이드 이전에 설정되었던 Flexible 어댑터 네트워크 설정이 손실되고 NIC의 네트워크 속도가 1Gbps에서 10Mbps로 변경됩니다.

    해결 방법: 가상 시스템의 호환성을 업그레이드한 후 Windows 게스트 운영 체제에서 VMXNET 드라이버를 사용하도록 Flexible 네트워크 어댑터를 구성합니다. ESXi 5.1 VMware Tools로 게스트를 업데이트한 경우 VMXNET 드라이버는 다음 위치에 설치됩니다. C:\Program Files\Common Files\VMware\Drivers\vmxnet\.

  • 가상 시스템에 VMware Tools를 설치하고 재부팅하는 경우 네트워크를 사용할 수 없게 됨
    CentOS 6.3 및 Oracle Linux 6.3 운영 체제가 설치된 가상 시스템에서 VMware Tools를 성공적으로 설치하고 가상 시스템을 재부팅한 후에 네트워크를 사용할 수 없게 됩니다. 수동으로 DHCP 서버에서 IP 주소를 가져오거나 명령줄에서 정적 IP 주소를 설정하려고 하면 Cannot allocate memory(메모리를 할당하지 못했습니다) 오류가 나타납니다.
    이 문제는 기본적으로 사용되는 Flexible 네트워크 어댑터가 해당 운영 체제에 적합한 선택 항목이 아니기 때문에 발생합니다.

    해결 방법: 다음과 같이 네트워크 어댑터를 Flexible에서 E1000 또는 VMXNET 3으로 변경합니다.

    1. vmware-uninstall-tools.pl명령을 실행하여 VMware Tools를 제거합니다.
    2. 가상 시스템의 전원을 끕니다.
    3. vSphere Web Client에서 가상 시스템을 마우스 오른쪽 버튼으로 클릭하고 설정 편집을 선택합니다.
    4. "가상 하드웨어"를 클릭하고 "제거" 아이콘을 클릭하여 현재 네트워크 어댑터를 제거합니다.
    5. 새 네트워크 어댑터를 추가하고 어댑터 유형으로 E1000 또는 VMXNET 3을 선택합니다.
    6. 가상 시스템 전원 켜기.
    7. VMware Tools를 다시 설치합니다.
  • ESXi에서 VMFS가 아닌 가상 디스크가 포함된 복제 또는 마이그레이션 작업이 실패하고 오류가 발생함
    호스팅된 형식의 가상 디스크에서 vmkfstools 명령을 사용하여 복제, 복사 또는 마이그레이션 작업을 수행하든 클라이언트를 통해 복제, 복사 또는 마이그레이션 작업을 수행하든 해당 작업이 실패하고 다음 오류 메시지가 표시됩니다. The system cannot find the file specified(시스템에서 지정한 파일을 찾을 수 없습니다).

    해결 방법: 호스팅된 형식의 가상 디스크에서 복제, 복사 또는 마이그레이션 작업을 수행하려면 VMkernel 다중 익스텐트 모듈을 ESXi로 로드해야 합니다.

    1. ESXi Shell에 로그인하고 다중 익스텐트 모듈을 로드합니다.
      # vmkload_mod multiextent
    2. 가상 시스템 디스크가 호스팅된 유형인지 확인합니다. 호스팅된 디스크는 -s00x.vmdk라는 확장명으로 끝납니다.
    3. 호스팅된 형식의 가상 디스크를 VMFS 형식 중 하나로 변환합니다.
      1. 소스 호스팅된 디스크 test1.vmdk를 test2.vmdk에 복제합니다.
        # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
      2. 복제에 성공한 후 호스팅된 디스크 test1.vmdk를 삭제합니다.
        # vmkfstools -U test1.vmdk
      3. 복제된 vmfs 유형 디스크 test2.vmdk의 이름을 test1.vmdk로 바꿉니다.
        # vmkfstools -E test2.vmdk test1.vmdk
    4. 다중 익스텐트 모듈을 언로드합니다.
      #vmkload_mod -u multiextent
  • 가상 시스템에 할당된 IP 주소가 없으며 작동하는 것으로 나타나지 않음
    게스트 운영 체제에서 시작된 LUN 재설정 요청으로 인해 이 문제가 발생합니다. 이 문제는 ESXi 호스트에 소프트웨어 FCoE가 구성되어 있는 IBM XIV Fibre Channel 어레이와 관련이 있습니다. LUN에 상주하는 가상 시스템에서 다음과 같은 문제가 발생합니다.

    • 가상 시스템에 할당된 IP 주소가 없습니다.
    • 가상 시스템의 전원을 켜거나 끌 수 없습니다.
    • 콘솔 내부에 마우스 커서가 나타나지 않습니다. 결과적으로 게스트 운영 체제 내에서 영향을 받는 가상 시스템을 제어하거나 가상 시스템과 상호 작용할 방법이 없습니다.

    해결 방법: ESXi 호스트에서 문제가 발생하는 가상 시스템이 상주하는 LUN을 재설정합니다.

    1. 다음 명령을 실행하여 LUN 정보를 가져옵니다.
      # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
    2. 출력에서 다음 줄을 검색하여 LUN의 UID를 얻습니다.
      Partitions spanned (on 'lvm'): eui.001738004XXXXXX:1
      eui.001738004XXXXXX가 디바이스 UID입니다.
    3. 다음 명령을 실행하여 LUN을 재설정합니다.
      # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
    4. 응답하지 않는 가상 시스템이 연결된 LUN이 여러 개인 데이터스토어(예: 추가된 익스텐트)에 상주하는 경우 모든 데이터스토어 익스텐트에 대해 LUN을 재설정하십시오.
마이그레이션 문제
  • Storage vMotion을 사용하여 연결된 복제 가상 시스템 여러 개를 마이그레이션하려고 하면 실패함
    이 오류는 일반적으로 연결된 복제 가상 시스템에 영향을 미칩니다. 이 오류는 델타 디스크 크기가 1MB이고 ESXi 호스트에서 CBRC(컨텐츠 기반 읽기 캐시) 기능을 사용하도록 설정한 경우에 발생합니다. 다음 오류 메시지가 표시됩니다. 소스가 대상이 재개되지 못했음을 감지했습니다.

    해결 방법: 다음 방법 중 하나를 사용하여 Storage vMotion 오류를 방지합니다.

    • 4KB를 델타 디스크 크기로 사용합니다.

    • Storage vMotion을 사용하는 대신 전원이 꺼진 가상 시스템을 새 데이터스토어로 마이그레이션합니다.

VMware HA 및 Fault Tolerance 문제
  • vCenter Server의 베타 빌드에서 통계 정보를 기록하도록 설정한 경우 무장애 가상 시스템이 충돌함
    vmx*3 기능을 사용하면 stats vmx를 실행하여 지원 문제를 디버깅하기 위한 성능 통계를 수집할 수 있습니다. vCenter Server의 베타 빌드에서 Fault Tolerance를 사용하도록 설정한 경우에는 stats vmx가 호환되지 않습니다.

    해결 방법: Fault Tolerance를 사용하도록 설정하는 경우 가상 시스템이 vCenter Server의 베타 빌드에 통계를 기록하도록 설정되지 않아야 합니다.

지원되는 하드웨어 문제
  • Apple Mac Pro 서버의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
    vSphere 5.1의 하드웨어 상태 탭에 Apple Mac Pro의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 Apple Mac Pro에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

    해결 방법: 없음.

  • AMD PileDriver의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
    vSphere 5.1의 하드웨어 상태 탭에 AMD PileDriver의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 AMD PileDriver에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

    해결 방법: 없음.

  • DPM은 Apple Mac Pro 서버에서 지원되지 않음
    vSphere 5.1의 DPM(분산 전원 관리) 기능은 Apple Mac Pro에서 지원되지 않습니다. DPM을 사용하도록 설정한 클러스터에 Apple Mac Pro를 추가하지 마십시오. 호스트가 "대기" 상태로 전환되면 전원 켜기 명령이 실행될 때 대기 상태 종료에 실패하고 operation timed out(작업이 시간 초과되었습니다) 오류가 표시됩니다. Apple Mac Pro는 호스트를 대기 상태로 전환할 때 vSphere에서 사용되는 소프트웨어 전원 끄기 명령에서 해제될 수 없습니다.

    해결 방법: Apple Mac Pro 호스트가 "대기" 상태로 전환되면 전원 버튼을 물리적으로 눌러 호스트의 전원을 켜야 합니다.

  • IPMI는 Apple Mac Pro 서버에서 지원되지 않음
    vSphere 5.1의 하드웨어 상태 탭에 올바른 데이터가 표시되지 않거나 Apple Mac Pro의 일부 하드웨어 구성 요소에 대한 데이터가 누락됩니다. 이는 IPMI가 Apple Mac Pro에서 지원되지 않기 때문입니다.

    해결 방법: 없음.

기타 문제
  • 네트워크 또는 스토리지 중단 후 TCP 기반 syslog, SSL 기반 syslog 및 스토리지 로깅이 자동으로 다시 시작되지 않음
    특정 구성에서는 네트워크 또는 스토리지 중단 후 syslog 서비스가 자동으로 다시 시작되지 않습니다. 이러한 구성에는 TCP 기반 syslog, SSL 기반 syslog, 중단 스토리지 로깅 등이 있습니다.

    해결 방법: 다음 명령을 실행하여 명시적으로 syslog를 다시 시작합니다.
    esxcli system syslog reload자동으로 다시 시작되는 UDP 기반 syslog를 구성할 수도 있습니다.