ESXi 5.0 업데이트 3 | 2013년 10월 17일 | 빌드 1311175

마지막 업데이트 날짜: 2013년 10월 31일

릴리스 정보에 포함된 내용

이 릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

아래에서는 이 VMware ESXi 릴리스에서 제공되는 향상된 기능 중 일부를 설명합니다.

  • 해결된 문제 - 이 릴리스에서는 해결된 문제 섹션에서 설명하는 여러 가지 버그 수정 사항을 제공합니다.

ESXi 5.0의 이전 릴리스

ESXi 5.0의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 ESXi 5.0 릴리스의 릴리스 정보를 보려면 다음 링크 중 하나를 클릭하십시오.

국제화

VMware vSphere 5.0 업데이트 3은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체

vSphere Client 로케일 강제 적용 모드

vSphere 5.0 업데이트 3에서는 VMware vSphere Client를 실행하는 시스템이 영어 버전이 아닌 경우에도 인터페이스 텍스트를 영어로 표시하도록 VMware vSphere Client를 구성할 수 있습니다. 명령줄 스위치를 입력하여 단일 세션이 실행되는 동안 이와 같은 구성을 설정할 수 있습니다. 이 구성은 인터페이스 텍스트에만 적용되며 날짜와 시간 또는 숫자 형식과 같은 다른 로케일 관련 설정에는 영향을 주지 않습니다.

다음 vSphere Client 명령을 실행하면 개별 세션이 영어로 표시됩니다.

vpxClient -locale en_US

호환성 및 설치

ESXi, vCenter Server 및 vSphere Client 버전 호환성

VMware Product Interoperability Matrix(VMware 제품 상호 운용성 매트릭스) 페이지에는 ESXi, VMware vCenter Server, vSphere Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. 이 사이트에서는 ESXi나 vCenter Server를 설치하기 전에 사용할 수 있는 관리 및 백업 에이전트에 대한 정보도 확인할 수 있습니다.

vSphere Web Client와 vSphere Client는 vCenter Server 및 모듈 ZIP 파일에 함께 패키지되어 있으며 VMware vCenter™ 설치 관리자 마법사에서 클라이언트 하나 또는 둘 다를 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.0.3에는 ESXi 5.0 업데이트 3 및 vCenter Server 5.0 업데이트 3 릴리스에 대한 지원이 추가되었습니다. VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

 


ESXi의 하드웨어 호환성

vSphere 5.0 업데이트 3과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.0 업데이트 3 정보를 참조하십시오.

지원되는 CPU를 위한 업그레이드 및 설치. vSphere 5.0 업데이트 3은 LAHF 및 SAHF CPU 명령 세트를 포함하는 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.0 업데이트 3과 호환되는지 여부를 확인합니다. CPU 지원에 대해서는 VMware 호환성 가이드를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

vSphere 5.0 업데이트 3과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.0 업데이트 3 정보를 참조하십시오.

ESXi의 가상 시스템 호환성

ESXi 5.0 업데이트 3에서는 가상 하드웨어 버전이 4.0 이상인 가상 시스템이 지원됩니다. 하드웨어 버전 3은 더 이상 지원되지 않습니다. 하드웨어 버전 3의 가상 시스템을 ESXi 5.0 업데이트 3에서 사용하려면 가상 하드웨어를 업그레이드해야 합니다. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 단계별 지침을 보려면 vSphere 설치 및 설정 설명서를 참조하십시오.

설치를 완료한 후에는 라이센스 할당, 네트워킹 및 보안 구성 작업을 수행해야 합니다. 이러한 구성 작업에 대한 자세한 내용은 vSphere 설명서에서 다음 가이드를 참조하십시오.

 

타사 솔루션 마이그레이션

ESX/ESXi 호스트에 Cisco Nexus 1000V VEM 또는 EMC PowerPath 모듈과 같은 타사 소프트웨어가 포함된 경우가 있습니다. ESXi 5.0에서는 ESX/ESXi 4.x에서 ESXi 5.0 이상으로 업그레이드하는 경우 사용자 지정된 타사 소프트웨어 패키지(VIB)를 마이그레이션할 수 없도록 아키텍처가 변경되었습니다.
업그레이드 ISO에 포함되지 않은 사용자 지정 VIB를 사용하여 4.x 호스트를 업그레이드하면 업그레이드를 진행할 수는 있지만 누락된 VIB가 나열되는 오류 메시지가 표시됩니다. 호스트를 성공적으로 업그레이드하거나 마이그레이션하려면 누락된 VIB가 포함된 사용자 지정 ESXi ISO 이미지를 Image Builder를 통해 생성해야 합니다. 타사 소프트웨어를 제외하고 업그레이드하려면 ForceMigrate옵션을 사용하거나, vSphere Update Manager의 업데이트 적용 프로세스 동안 타사 소프트웨어 모듈을 제거하는 옵션을 선택합니다. Image Builder를 사용하여 사용자 지정 ISO를 생성하는 방법은 vSphere 설치 및 설정 설명서를 참조하십시오. 타사 사용자 지정 항목을 포함한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드VMware vSphere Update Manager 설치 및 관리 설명서를 참조하십시오. vSphere Update Manager를 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드VMware vSphere Update Manager 설치 및 관리 설명서를 참조하십시오.

L3 라우팅 NFS 스토리지 액세스

vSphere 5.0 업데이트 3는 사용자 환경이 다음 조건을 충족하는 경우 L3 라우팅 NFS 스토리지 액세스를 지원합니다.
  • IP 라우터에서 Cisco의 HSRP(Hot Standby Router Protocol)를 사용합니다. Cisco 라우터가 아닌 다른 라우터를 사용하는 경우 대신 VRRP(Virtual Router Redundancy Protocol)를 사용합니다.
  • 대역폭이 제한된 네트워크 또는 정체가 발생하는 네트워크에서 QoS(서비스 품질)를 사용하여 NFS L3 트래픽의 우선 순위를 지정합니다. 자세한 내용은 라우터 설명서를 참조하십시오.
  • 스토리지 벤더에서 권장하는 라우팅 NFS L3 모범 사례를 따릅니다. 자세한 내용은 스토리지 벤더에 문의하십시오.
  • NetIORM(Network I/O Resource Management)을 해제합니다.
  • 랙형 스위치 또는 스위치 종속 I/O 디바이스 파티셔닝을 사용하는 시스템을 사용하려는 경우 시스템 벤더에 호환성 및 지원 여부를 문의하십시오.
L3 환경에서는 다음 추가 제한 사항이 적용됩니다.
  • 이 환경에서는 VMware Site Recovery Manager를 지원하지 않습니다.
  • 이 환경에서는 NFS 프로토콜만 지원합니다. 동일한 물리적 네트워크에서 FCoE와 같은 다른 스토리지 프로토콜을 사용하지 마십시오.
  • 이 환경의 NFS 트래픽은 IPv6을 지원하지 않습니다.
  • 이 환경의 NFS 트래픽은 LAN을 통해서만 라우팅될 수 있습니다. WAN과 같은 다른 환경은 지원되지 않습니다.
  • 이 환경에서는 DVS(분산 가상 스위치)를 지원하지 않습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESXi 호스트를 업그레이드하는 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

VMware Tools 업그레이드

VMware ESXi 5.0 업데이트 3에는 최신 버전의 VMware Tools가 포함되어 있습니다. VMware Tools는 가상 시스템의 게스트 운영 체제 성능을 향상시키는 유틸리티의 모음입니다. 이 ESX 릴리스에서 VMware Tools와 관련하여 해결된 문제의 목록을 보려면 VMware Tools 해결된 문제를 참조하십시오.

설치된 VMware Tools 버전을 확인하려면 VMware Tools 빌드 버전 확인(KB 1003947)을 참조하십시오.

ESX/ESXi 업그레이드

여러 방법으로 ESX/ESXi 호스트를 ESXi 5.0 업데이트 3으로 업그레이드할 수 있습니다.

  • vSphere Update Manager. 사이트에서 vCenter Server를 사용하는 경우에는 vSphere Update Manager를 사용하여 ESX/ESXi 4.0, 4.1 및 ESXi 5.0에서 오케스트레이션된 호스트 업그레이드 또는 오케스트레이션된 가상 시스템 업그레이드를 수행할 수 있습니다. vSphere 업그레이드 설명서에 나와 있는 지침을 참조하거나, vSphere Update Manager에 대한 자세한 설명을 보려면 VMware vSphere Update Manager 설치 및 관리 설명서를 참조하십시오.

  • CD-ROM이나 DVD에 있는 ESXi 설치 관리자 ISO 이미지를 사용하여 대화형으로 업그레이드. CD-ROM 또는 DVD 드라이브에서 ESXi 5.0 업데이트 3 설치 관리자를 실행하여 대화형 업그레이드를 수행할 수 있습니다. 이 방법은 업그레이드하는 호스트 수가 적은 경우에 적합합니다.

  • 스크립트로 작성된 업그레이드 수행. 업데이트 스크립트를 실행하여 ESXi/ESX 4.x 호스트를 ESXi 5.0 업데이트 3로 업그레이드하거나 마이그레이션하면 효율적인 자동 업그레이드를 수행할 수 있습니다. 스크립트로 작성된 업그레이드를 수행할 경우 여러 호스트를 효율적으로 배포할 수 있습니다. 스크립트를 사용하여 CD-ROM이나 DVD 드라이브에서 ESXI를 업그레이드하거나 설치 관리자를 PXE 부팅할 수 있습니다.

  • ESXCLI: esxcli명령줄 유틸리티를 사용하여 ESXi 5.x 호스트를 업데이트하고 패치를 적용할 수 있습니다. 그러나 esxcli를 사용하여 ESX/ESXi 4.x 호스트를 ESXi 5.0 업데이트 3으로 업그레이드할 수는 없습니다.
ESXi 5.0 업데이트 3로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.0 업데이트 3로의 업그레이드를 위해 지원되는 경로

ESX 4.0:
포함 버전:
ESX 4.0 업데이트 1
ESX4.0 업데이트 2

ESX4.0 업데이트 3
ESX 4.0 업데이트 4

ESXi 4.0:
포함 버전:
ESXi 4.0 업데이트 1
ESXi 4.0 업데이트 2

ESXi 4.0 업데이트 3
ESXi 4.0 업데이트 4

ESX 4.1:
포함 버전:
ESX 4.1 업데이트 1
ESX 4.1 업데이트 2

ESX 4.1 업데이트 3

 

ESXi 4.1 :
포함 버전:
ESXi 4.1 업데이트 1

ESXi 4.1 업데이트 2
ESXi 4.1 업데이트 3

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1
ESXi 5.0 업데이트 2

VMware-VMvisor-Installer-5.0.0.update03-1311175.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드

예*

update-from-esxi5.0-5.0_update03.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

아니요

아니요

VMware 포털(온라인)에서 다운로드한 패치 정의 사용

VMware vCenter Update Manager(패치 기준선 포함)

아니요

아니요

아니요

아니요

* 참고: VMware vCenter Update Manager에서 VMware-VMvisor-Installer-5.0.0.update03-1311175.x86_64.iso를 사용한 ESXi 5.0 업그레이드는 지원되지 않습니다. 대신 VMware vCenter Update Manager에서 update-from-esxi5.0-5.0_update03.zip을 사용하여 업그레이드해야 합니다.

vSphere 5.0 업데이트 3 버전은 vSphere 5.1 업그레이드 경로 호환성을 보장할 수 없습니다.

VMware vSphere SDK

VMware vSphere는 vSphere 서버 및 게스트 운영 체제 환경에 사용할 수 있는 일련의 SDK를 제공합니다.

  • vSphere Management SDK. vSphere 관리 프로그래밍 환경에 사용할 수 있는 소프트웨어 개발 키트의 모음입니다. vSphere Management SDK에는 다음과 같은 vSphere SDK가 포함됩니다.

    • vSphere Web Services SDK. ESXi 5.0 이상 및 vCenter Server 5.0 이상 서버 시스템에서 사용할 수 있는 새로운 기능에 대한 지원을 포함합니다. 이 SDK는 이전 버전의 ESX/ESXi 및 vCenter Server에도 사용할 수 있습니다. 자세한 내용은 VMware vSphere Web Services SDK 설명서를 참조하십시오.

    • vSphere vCenter SMS(Storage Monitoring Service) SDK. SMS 2.0은 vCenter Server 5.0에서 지원됩니다. 자세한 내용은 vCenter SMS SDK 설명서를 참조하십시오.

    • vSphere EAM(ESX Agent Manager) SDK. EAM 1.0은 ESXi 5.0 업데이트 3에서 지원됩니다. 자세한 내용은 vSphere ESX Agent Manager를 참조하십시오.

  • vSphere Guest SDK. VMware vSphere Guest SDK 4.0은 ESXi 5.0 업데이트 3에서 지원됩니다. 자세한 내용은 VMware vSphere 게스트 SDK 설명서를 참조하십시오.

  • VMware vSphere SDK for Perl. SDK for Perl 5.0은 vSphere 5.0 업데이트 3에서 지원됩니다. 자세한 내용은 vSphere SDK for Perl 설명서를 참조하십시오.

VMware vSphere의 오픈 소스 구성 요소

vSphere 5.0 업데이트 3에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/vsphere/open_source.html 페이지의 Open Source(오픈 소스) 탭에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi500-Update03에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi500-201310201-UG: ESXi 5.0 esx-base vib 업데이트
ESXi500-201310202-UG: ESXi 5.0 tools-light vib 업데이트
ESXi500-201310203-UG: ESXi 5.0 misc-drivers vib 업데이트
ESXi500-201310204-UG: ESXi 5.0 scsi-hpsa vib 업데이트

패치 릴리스 ESXi500-Update03 Security-only에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi500-201310101-SG: ESXi 5.0 esx-base vib 업데이트

ESXi500-201310102-SG: ESXi 5.0 net-bnx2x vib 업데이트
ESXi500-201310103-SG: ESXi 5.0 misc-drivers vib 업데이트

패치 릴리스 ESXi500-Update03에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.0.0-20131002001-standard

ESXi-5.0.0-20131002001-no-tools

패치 릴리스 ESXi500-Update03 Security-only에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.0.0-20131001001s-standard
ESXi-5.0.0-20131001001s-no-tools


패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 다음 분야와 관련하여 해결된 문제에 대해 설명합니다.

CIM 및 API

  • CIM 제공자가 실패하면 Small-Footprint CIM Broker 대몬이 응답을 중지할 수 있음
    ESXi 호스트에서 유휴 시간 초과가 발생하는 중에 CIM 제공자가 실패하면 Small-Footprint CIM Broker 대몬(sfcbd)이 자주 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • LSI CIM 제공자에서 파일 설명자 유출
    LSI CIM 제공자(sfcb 프로세스 중 하나)에서 파일 설명자가 유출됩니다. 이로 인해 sfcb-hhrc가 중지되고 sfcbd가 다시 시작될 수 있습니다. syslog파일에 다음과 유사한 로그 메시지가 기록될 수 있습니다.

    sfcb-LSIESG_SMIS13_HHR[ ]: getProviderContext에 대한 소켓 쌍을 여는 동안 오류가 발생했습니다. 열려 있는 파일이 너무 많음
    sfcb-LSIESG_SMIS13_HHR[ ]: 소켓 -1에 대한 수신 시간 초과(30)를 설정하지 못했습니다. 오류 번호 = 9
    ...
    ...

    sfcb-hhrc[ ]: 시간 초과 또는 기타 소켓 오류
    sfcb-hhrc[ ]: 공유 소켓 수신 결과를 수행하는 동안 시간 초과 발생 ( )


    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 ESXi 서버에서 "http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000"에 대한 WS 관리 GetInstance () 작업을 수행하면 wsa:DestinationUnreachable 장애가 발생할 수 있음
    일부 ESXi 서버에서 "http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000"에 대한 WS 관리 GetInstance () 작업을 수행하면 wsa:DestinationUnreachable장애가 발생할 수 있습니다. IPMI(Intelligent Platform Management Interface) BMC(베이스보드 관리 컨트롤러) 센서를 사용하는 시스템에서 CIM gi/ei/ein 작업에 대해 OMC_MCFirmwareIdentity 개체 경로가 일치하지 않습니다. 결과적으로 ESXi 서버에서 WS 관리 GetInstance () 작업을 수행하면 wsa:DestinationUnreachable장애가 발생하게 됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • sfcbd에서 inode가 소진되어 vCenter Server에서 ESXi 호스트의 연결이 끊김
    vCenter Server에서 ESXi 호스트의 연결이 끊기고 호스트가 vCenter Server에 다시 연결될 수 없습니다. 이 문제는 하드웨어 모니터링 서비스(sfcdb)가 /var/run/sfcb디렉토리를 5000개 이상의 파일로 채우기 때문에 발생합니다.

    /var/log/에 있는 hostd.log파일에 호스트의 공간이 부족하다고 표시됩니다.
    VmkCtl 잠김(/etc/vmware/esx.conf): LOCK 파일을 생성하거나 열 수 없습니다. 실패 이유: 디바이스에 남은 공간이 없습니다.
    VmkCtl 잠김(/etc/vmware/esx.conf) : LOCK 파일을 생성하거나 열 수 없습니다. 실패 이유: 디바이스에 남은 공간이 없습니다.


    /var/log에 있는 vmkernel.log파일에 inode가 부족하다고 표시됩니다.
    cpu4:1969403)경고: VisorFSObj: 893: visorfs inode 테이블이 가득 찼으므로 python 프로세스에 대한 /etc/vmware/esx.conf.LOCK 파일을 생성할 수 없습니다.
    cpu11:1968837)경고: VisorFSObj: 893: visorfs inode 테이블이 가득 찼으므로 hostd 프로세스에 대한 /etc/vmware/esx.conf.LOCK 파일을 생성할 수 없습니다.
    cpu5:1969403)경고: VisorFSObj: 893: visorfs inode 테이블이 가득 찼으므로 python 프로세스에 대한 /etc/vmware/esx.conf.LOCK 파일을 생성할 수 없습니다.
    cpu11:1968837)경고: VisorFSObj: 893: visorfs inode 테이블이 가득 찼으므로 hostd 프로세스에 대한 /etc/vmware/esx.conf.LOCK 파일을 생성할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 하드웨어 모니터링 서비스가 중지되고 하드웨어 상태 탭에 오류 메시지만 표시됨
    하드웨어 상태 탭에서 상태를 표시하지 않고 다음과 유사한 오류 메시지를 표시합니다.

    이 호스트의 하드웨어 모니터링 서비스가 응답하지 않거나 사용할 수 없습니다.

    하드웨어 모니터링 서비스(sfcdb)가 중지되고 syslog파일에 다음과 유사한 항목이 표시될 수 있습니다.

    sfcb-smx[xxxxxx]: spRcvMsg 12에서 메시지 수신(반환 소켓: 6750210)
    sfcb-smx[xxxxxx]: --- spRcvMsg 12 resp 6750210에서 bogus 요청 청크 6 payLoadSize 19 chunkSize 0 삭제
    sfcb-smx[xxxxxx]: spRecvReq 오류 -1 반환됨. 메시지를 건너뜁니다.
    sfcb-smx[xxxxxx]: spRcvMsg 12에서 메시지 수신(반환 소켓: 4)
    sfcb-smx[xxxxxx]: --- spRcvMsg 12 resp 4에서 bogus 요청 청크 220 payLoadSize 116 chunkSize 104 삭제
    ...
    ...
    sfcb-vmware_int[xxxxxx]: spGetMsg 40 419746-11에서 수신 중 리소스를 일시적으로 사용할 수 없음
    sfcb-vmware_int[xxxxxx]: rcvMsg 40 419746-11에서 수신 중 리소스를 일시적으로 사용할 수 없음
    sfcb-vmware_int[xxxxxx]: 시간 초과 또는 기타 소켓 오류


    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 서버가 잘못된 PerceivedSeverity 값을 반환하여 표시함
    ISD(IBM Systems Director)를 사용하여 ESX 서버를 모니터링하면 CIM 서버가 잘못된 PerceivedSeverity 값을 반환하여 ISD에 표시합니다. 센서 유형과 PerceivedSeverity 반환 값을 수정하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 하드웨어 상태를 모니터링할 수 없음
    SFCBD 서비스가 추적 모드에서 사용하도록 설정되고 실행을 중지하는 경우 ESXi 호스트의 하드웨어 상태 탭에서 오류를 보고할 수 있습니다. 어떠한 타사 도구도 ESXi 호스트의 하드웨어 상태를 모니터링하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 제공자가 잘못된 오류 메시지를 표시할 수 있음
    CIM 제공자가 다음과 유사한 오류 메시지를 잘못 표시할 수 있습니다. :
    \"요청 헤더 ID(886262) != 프로세스 5에서 제공자 429에 대한 요청의 응답 헤더 reqId(0). 응답을 중지합니다.\"
    이 문제는 이 릴리스에서 오류 로그를 업데이트하여 해결되었으며 sfcbd 관리 에이전트를 다시 시작하면 다음과 유사한 오류 메시지가 올바르게 표시됩니다.
    헤더 ID(373) 프로세스 0에서 제공자 1에 대한 요청에 실패했습니다. 오류:제공자의 응답을 기다리는 동안 시간 초과(또는 다른 소켓 오류)가 발생했습니다.

  • 이 문제는 이 릴리스에서 해결되었습니다.

기타

  • Netlogond가 응답을 중지하고 ESXi 호스트의 Active Directory 기능이 손실될 수 있음
    연결할 수 없는 도메인 컨트롤러가 여러 개 있는 Active Directory 환경에서는 Netlogond의 메모리 사용량이 높을 수 있습니다. 따라서 Netlogond가 실패할 수 있고 ESXi 호스트의 Active Directory 기능이 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 동일한 HA 클러스터의 단일 호스트를 유지 보수 모드로 설정한 후 HA(고가용성) 클러스터를 사용하도록 설정할 수 없음
  • 이 문제는 inode 설명자 번호 값이 ESX 루트 파일 시스템(VisorFS)에서 올바르게 설정되어 있지 않은 관계로 이러한 inode에 대한 stat 호출에 실패하는 경우에 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 resourceCpuAllocMax 시스템 카운트 값을 잘못 표시
    호스트 시스템을 대상으로 성능 >> 고급 성능 차트 >> 시스템 차트 옵션에서 resourceCpuAllocMaxresourceMemAllocMax시스템 카운터 값을 검색하면 ESX 호스트가 잘못된 값을 반환합니다. 이 문제는 vCenter Server에 연결된 vSphere Client에서 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 파일 시스템이 지원되지 않는 볼륨의 드라이브 문자를 포함하는 필터 규칙을 설정하려고 하면 Windows Server 2003 또는 Windows XP 가상 시스템이 실패하여 파란색 화면이 표시될 수 있음
    파일 시스템이 지원되지 않는 볼륨의 드라이브 문자를 포함하는 필터 규칙을 설정하려고 하면 Windows Server 2003 또는 Windows XP 가상 시스템이 실패하여 파란색 화면이 표시되고 다음과 유사한 오류 메시지가 나타날 수 있습니다.
    오류 코드 1000007e, parameter1 c0000005, parameter2 baee5d3b, parameter3 baa69a64, parameter4 baa69760.
    자세한 내용은 도움말 및 지원 센터(http://go.microsoft.com/fwlink/events.asp)를 참조하십시오. 데이터:
    0000: 53 79 73 74 65 6d 20 45 System E
    0008: 72 72 6f 72 20 20 45 72 rror Er
    0010: 72 6f 72 20 63 6f 64 65 ror code
    0018: 20 31 30 30 30 30 30 37 10000070020: 65 20 20 50 61 72 61 6d e Param
    0028: 65 74 65 72 73 20 63 30 eters c0
    0030: 30 30 30 30 30 35 2c 20 000005,
    0038: 62 61 65 65 35 64 33 62 baee5d3b
    0040: 2c 20 62 61 61 36 39 61 , baa69a
    0048: 36 34 2c 20 62 61 61 36 64, baa6
    0050: 39 37 36 30 9760

    이 문제는 대부분 Microsoft App-V 솔루션에서 생성한 Q:\드라이브 문자가 필터 규칙에 추가되는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 실패하고 보라색 화면이 표시될 때 메모리 컨트롤러 오류 메시지가 TLB 오류로 잘못 보고될 수 있음
    ESXi 호스트가 실패하고 보라색 화면이 표시될 때 메모리 컨트롤러 오류 메시지가 TLB(Translation Look-aside Buffer) 오류 메시지인 수준 2 TLB 오류로 잘못 보고될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹

  • 코어 덤프 파티션 및 코어 덤프 수집기 서비스가 구성되어 있지 않으면 ESXi 호스트가 구성 문제를 보고하지 못함
    ESX 호스트에 코어 덤프 파티션이 구성되어 있지 않고 코어 덤프를 덤프 수집기 서비스로 보내도록 구성되어 있지 않으면 중요한 문제 해결 정보가 손실될 수 있습니다. hostd 서비스를 시작할 때 구성 및 코어 덤프 파티션에 대한 확인을 포함하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 상태 비저장 모드로 부팅된 ESXi 호스트가 syslog 파일에 이름이 localhost로 표시됨
    DHCP 서버에서 DNS 구성 및 호스트 이름을 가져오도록 구성된 상태 비저장 ESXi 호스트가 재부팅될 때 syslog 파일에 호스트 이름이 DHCP 서버에서 가져온 호스트 이름 대신 localhost로 표시됩니다. 따라서 원격 syslog 수집기에 대해 모든 ESXi 호스트가 동일한 호스트 이름을 가진 것으로 나타납니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 실패하고 보라색 진단 화면이 나타나며 페이지 파일 예외 오류를 보고함
    가상 시스템이 e1000 네트워크 어댑터로 구성되어 있으면 ESXi 호스트가 실패하고 보라색 진단 화면이 나타나며 다음과 유사한 메시지가 표시됩니다.

    @BlueScreen: #PF Exception 14 in world 8229:idle37 IP 0x418038769f23 addr 0xc
    0x418038600000 VMK uptime: 1:13:10:39.757
    0x412240947898:[0x418038769f23]E1000FinalizeZeroCopyPktForTx@vmkernel#nover+0x1d6 stack: 0x41220000
    0x412240947ad8:[0x41803877001e]E1000PollTxRing@vmkernel#nover+0xeb9 stack: 0x41000c958000
    0x412240947b48:[0x418038771136]E1000DevAsyncTx@vmkernel#nover+0xa9 stack: 0x412240947bf8
    0x412240947b98:[0x41803872b5f3]NetWorldletPerVMCB@vmkernel#nover+0x8e stack: 0x412240947cc0
    0x412240947c48:[0x4180386ed4f1]WorldletProcessQueue@vmkernel#nover+0x398 stack: 0x0
    0x412240947c88:[0x4180386eda29]WorldletBHHandler@vmkernel#nover+0x60 stack: 0x2
    0x412240947ce8:[0x4180386182fc]BHCallHandlers@vmkernel#nover+0xbb stack: 0x100410000000000
    0x412240947d28:[0x4180386187eb]BH_Check@vmkernel#nover+0xde stack: 0xf2d814f856ba
    0x412240947e58:[0x4180387efb41]CpuSchedIdleLoopInt@vmkernel#nover+0x84 stack: 0x412240947e98
    0x412240947e68:[0x4180387f75f6]CpuSched_IdleLoop@vmkernel#nover+0x15 stack: 0x70
    0x412240947e98:[0x4180386460ea]Init_SlaveIdle@vmkernel#nover+0x13d stack: 0x0
    0x412240947fe8:[0x4180389063d9]SMPSlaveIdle@vmkernel#nover+0x310 stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.
  • 기본 게이트웨이를 포함하는 포트 그룹을 사용하지 않도록 설정했다가 다시 사용하도록 설정하면 기본 게이트웨이가 비어 있음
    기본 게이트웨이를 포함하는 DHCP 지원 포트 그룹을 사용하지 않도록 설정하면 기본 게이트웨이가 비어 있습니다. 포트 그룹을 다시 사용하도록 설정해도 기본 게이트웨이가 계속 비어 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. 기본 게이트웨이가 업데이트되어 비어 있지 않습니다.
  • 네트워크 트래픽이 bnx2x 디바이스 드라이버를 통해 전달되면 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있음
    네트워크 트래픽이 bnx2x 디바이스 드라이버를 통해 전달되고 vmklinux가 LRO(대규모 수신 오프로드)에서 생성된 패킷을 수신하면 네트워크 패킷이 삭제되어 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있습니다.
    TSO 분할 중에 ESXi 호스트에서 0으로 나누기 예외가 발생하고 최종적으로 호스트가 실패하게 됩니다.
    이 문제는 bnx2x 드라이버가 TSO(TCP 세분화 오프로드) MSS 값을 0으로 설정한 상태로 LRO 패킷을 보내는 경우에 발생합니다.
    또한 다음 원인 중 하나로 수신된 패킷이 올바르지 않으면 ESXi 호스트가 실패합니다.
    • GSO 크기가 0인 경우
    • GSO 유형이 지원되지 않는 경우
    • vLAN ID가 잘못됨

    이 문제는 이 릴리스에서 해결되었습니다.
  • 두 DVFilter 프로세스 간의 충돌로 인해 ESXi 호스트가 실패하고 보라색 진단 화면이 표시될 수 있음
  • 두 DVFilter 프로세스가 동일한 구성 변수를 동시에 관리하려고 할 때 한 프로세스는 기존 필터 구성을 지우고 다른 프로세스는 해당 필터 구성을 잠그려고 시도하면서 ESXi 호스트가 실패할 수 있습니다. 이 문제는 DVFilter 정리 프로세스 동안 게스트 운영 체제가 종료되는 경우에 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vmxnet3 NIC로 구성된 가상 시스템에서 생성된 스냅샷에 잘못된 네트워크 트래픽 통계가 포함됨
    vmxnet3 NIC로 구성된 가상 시스템의 스냅샷을 생성하면 가상 시스템의 네트워크 인터페이스가 연결이 끊겼다가 다시 연결되어 브로드캐스트 카운터가 재설정되므로 네트워크 통계가 잘못 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi TCP/IP 스택의 경합 조건으로 인해 ESXi 호스트가 실패하고 보라색 화면이 표시될 수 있음
    ESXi 호스트가 실패하고 보라색 화면이 표시되며 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    2013-02-22T15:33:14.296Z cpu8:4104)@BlueScreen: #PF Exception 14 in world 4104:idle8 IP 0x4180083e796b addr 0x1
    2013-02-22T15:33:14.296Z cpu8:4104)Code start: 0x418007c00000 VMK uptime: 58:11:48:48.394
    2013-02-22T15:33:14.298Z cpu8:4104)0x412200207778:[0x4180083e796b]ether_output@ # +0x4e stack: 0x41000d44f360
    2013-02-22T15:33:14.299Z cpu8:4104)0x4122002078b8:[0x4180083f759d]arpintr@ # +0xa9c stack: 0x4100241a4e00

    이 문제는 ESXi TCP/IP 스택의 경합 조건으로 인해 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 계층 3 라우팅된 네트워크를 통해 연결된 NFS 데이터스토어가 낮은 IOPS로 실행되는 가상 시스템의 GAVG를 높게 표시할 수 있음
    NFS 데이터스토어가 계층 3 라우팅된 네트워크를 통해 연결되고 NFS vmknic가 NFS 파일러와 다른 서브넷에 있으면 데이터스토어가 실행되는 가상 시스템의 GAVG(게스트 평균 지연 시간)를 높게 표시할 수 있습니다. 이 문제는 IOPS(초당 I/O 작업 수)가 낮은 경우에 발생합니다. IOPS 값이 1 이하인 경우 NFS 데이터스토어의 GAVG 값은 40ms만큼 높을 수 있습니다. 과도한 I/O 로드가 전송되면 NFS 데이터스토어의 GAVG 값이 더 작아집니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMXNET3 NIC의 영구 MAC 주소를 가져오려는 시도가 실패할 수 있음
    ETHTOOL_GPERMADDR ioctl을 사용하여 VMXNET3 NIC의 영구 MAC 주소를 가져올 때 Linux 커널 버전이 2.6.13에서 2.6.23 사이이면 결과를 얻지 못합니다. Linux 커널 버전이 2.6.23 이상이면 반환된 MAC 주소가 모두 0입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • e1000 NIC 드라이버로 구성된 가상 시스템이 D3 일시 중단된 모드로 전환되면 실패할 수 있음
    e1000 NIC 드라이버로 구성된 게스트 운영 체제가 D3 일시 중단된 모드로 전환되면 가상 시스템이 실패하고 vmware.log파일에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    2013-08-20T10:14:35.121Z[+13.605]| vcpu-0| SymBacktrace[2] 000003ffff023be0 rip=000000000039d00f
    2013-08-20T10:14:35.121Z[+13.606]| vcpu-0| 예기치 않은 신호: 11

    이 문제는 IP 별칭을 사용하고 IP 주소 수가 10개가 넘는 가상 시스템에서 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMXNET3 네트워크 어댑터를 사용하는 Solaris 가상 시스템이 로그 파일에 메시지를 반복해서 보고할 수 있음
    Solaris 가상 시스템의 메시지에 조각이 너무 많아 TX 링에 맞지 않으면 VMXNET3 네트워크 어댑터는 로그 파일에 다음 메시지를 반복해서 보고합니다.

    마지막 메시지가 274회 반복됨
    vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    마지막 메시지가 399회 반복됨
    vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    마지막 메시지가 398회 반복됨
    vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    마지막 메시지가 393회 반복됨
    vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    마지막 메시지가 399회 반복됨
    vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)


    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Client 네트워크 연결이 중단되면 클라이언트 디바이스 CD-ROM에 액세스하는 가상 시스템이 응답을 중지할 수 있음
    가상 시스템이 클라이언트 디바이스 CD-ROM을 사용하고 있을 때 vSphere Client 네트워크 연결이 중단되면 가상 시스템이 응답을 중지하고 일정 시간 동안 네트워크에서 액세스할 수 없게 될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 명령 ip link 또는 ip addr이 VMXNET3 어댑터의 링크 상태를 UP 대신 Unknown으로 표시할 수 있음
    게스트 운영 체제에서 VMXNET3 어댑터를 생성하면 ip link또는 ip addrLinux 명령이 링크 상태를 Up대신 Unknown으로 표시할 수 있습니다.
    이 문제는 어댑터의 기본 링크 상태가 carrier ok모드로 설정되고 결과적으로 operstate가 업데이트되지 않는 경우에 발생합니다.

    이 문제는 이 릴리스에서 어댑터의 기본 링크 상태를 no carrier모드로 설정하여 해결되었습니다.
  • 가상 시스템을 다시 시작하거나 마이그레이션한 후 네트워크와의 연결이 끊어질 수 있음
    vShield Endpoint 및 Deep Security를 사용할 경우 DvFilter 모듈의 문제로 인해 netGPHeap 손실 및 메모리 누수가 발생할 수 있습니다. 이 경우 가상 시스템이 vMotion을 사용하여 다시 시작되거나 마이그레이션된 후 네트워크와의 연결이 끊어질 수 있습니다.
    로그 파일에 다음과 유사한 메시지가 표시될 수 있습니다.
    2012-11-30T11:29:06.368Z cpu18:923386)경고: E1000: 8526: vSwitch1에서 포트 0x30001b6을 사용하도록 설정하지 못함: 메모리 부족

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 네트워크 어댑터가 비규칙(Promiscuous) 모드로 사용될 때 가상 시스템이 아웃바운드 네트워크 트래픽을 모니터링하지 못할 수 있음
    가상 네트워크 어댑터를 비규칙(Promiscuous) 모드로 사용하여 네트워크 작업을 추적하면 포트 미러링 기능의 특정 문제로 미러 포트를 사용할 수 없게 되고 가상 시스템을 통해 아웃바운드 네트워크 트래픽의 추적이 중지될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

보안

  • OpenSSL 라이브러리 업데이트로 여러 보안 문제 해결
    ESXi userworld OpenSSL 라이브러리가 openssl-0.9.8y버전으로 업데이트되어 여러 보안 문제가 해결되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 CVE-2013-0169CVE-2013-0166이라는 이름을 할당했습니다.
  • libxml2 라이브러리 업데이트로 보안 문제 해결
    ESXi userworld libxml2 라이브러리가 업데이트되어 보안 문제가 해결되었습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이 문제에 CVE-2013-0338이라는 이름을 할당했습니다.
  • libxslt 업데이트
    ESXi userworld libxslt패키지가 업데이트되었습니다.
  • VMware ESXi 및 ESX에 hostd-vmdb의 취약성이 포함됨
    공격자가 이 취약성을 악용하려면 관리 트래픽을 가로채 수정해야 합니다. 이 문제를 악용하면 hostd-vmdb서비스의 서비스 거부가 발생할 수 있습니다.
    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제에 CVE-2013-5970이라는 이름을 할당했습니다.

서버 구성

  • 성능 차트에서 IBM System x iDataPlex dx360 M3 서버의 전원 사용량을 계속 0와트로 표시
    IBM System x iDataPlex dx360 M3의 전원 사용량과 관련된 성능 차트를 보면 차트에 계속 0와트가 표시됩니다. 이 문제는 IBM System x iDataPlex dx360 M3 서버에서 사용되는 IPMI 센서 ID가 변경되어 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Red Hat Enterprise Linux 4.8 32비트 가상 시스템의 로드 평균이 ESXi 5.0에서 ESX/ESXi 4.0보다 높게 나타날 수 있음
    주로 유휴 상태로 있다가 간헐적으로 여러 작업을 동시에 깨우는 워크로드가 있는 Red Hat Enterprise Linux 4.8 32비트 가상 시스템의 로드 평균이 ESX 5.x에서 ESX 4.0보다 높게 나타날 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server에 ESXi 서버를 추가하는 동안 여러 ESXi 서버가 응답을 중지할 수 있음
    vCenter Server에 ESXi 서버를 추가하려고 하면 여러 ESXi 서버가 응답을 중지하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    지정된 호스트에 액세스할 수 없습니다. 호스트가 없거나, 서버 소프트웨어가 응답하지 않거나, 네트워크 문제가 있습니다.
    이 문제는 다량의 HTTP URL 요청이 hostd로 전송되고 hostd 서비스가 실패하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESX/ESXi 3.5에서 ESXi 5.0으로 마이그레이션한 가상 시스템을 재부팅하지 못할 수 있음
    여러 가상 시스템이 재부팅되지 않고, 재부팅 후에도 VMX 코어 파일을 생성할 수 있습니다. 이 문제는 vMotion을 사용하여 ESX/ESXi 3.5 호스트에서, ESX/ESXi 4.0 업데이트 2, ESX/ESXi 4.1 업데이트 2, ESXi 5.0 업데이트 2 이상 버전이 포함된 ESX/ESXi 호스트로 마이그레이션된 가상 시스템에서 확인됩니다.

    이 문제는 이 릴리스의 ESXi 5.0 호스트에서 해결되었습니다.
  • 호스트 규정 준수 검사에 실패하고 표시 구성 추출 관련 오류가 표시됨
    시스템에 잘못된 CIM 구독이 있을 때 호스트에 대해 호스트 프로파일 규정 준수 검사를 수행하면 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    표시 구성을 추출하는 동안 오류 발생: (6, u'요청한 개체를 찾을 수 없습니다.')

    호스트 프로파일을 호스트에 적용할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다. 호스트 프로파일에 잘못된 표시가 있는 경우에도 호스트 프로파일을 적용할 수 있습니다.
  • Direct Console User Interface를 사용하여 ESXi를 종료하거나 재부팅하면 ESXi 호스트가 응답하지 않게 됨
    DCUI(Direct Console User Interface)를 통해 ESXi 호스트를 종료하거나 재부팅하려고 하면 호스트가 응답을 중지하고 사용자가 종료 프로세스를 완료할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 복잡한 호스트 프로파일을 적용하려고 시도하면 시간 초과가 발생할 수 있음
    복잡한 호스트 프로파일(예: 많은 수의 포트 그룹 및 데이터스토어)을 적용하면 작업 시간이 초과되고 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    2013-04-09T15:27:38.562Z [4048CB90 info 'Default' opID=12DA4C3C-0000057F-ee] [VpxLRO] -- ERROR task-302 -- -- vim.profile.host.profileEngine.HostProfileManager.applyHostConfig: vmodl.fault.SystemError:
    --> 결과:
    --> (vmodl.fault.SystemError) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> reason = "",
    --> msg = "일반 시스템 오류가 발생했습니다. ",
    --> }
    hostd 시간 초과 기본값이 10분입니다. applyHostConfig는 점진적 작업이 아니므로 hostd 서비스가 시간 초과 중 실패한 작업과 장시간 실행 작업을 구별할 수 없습니다. 따라서 hostd 서비스에서 applyHostConfig가 실패했음을 보고합니다.

    이 문제는 이 릴리스에서 HostProfileManager Managed Object의 일부로 30분 시간 초과를 설정하여 해결되었습니다. 그러나 대용량 호스트 프로파일을 적용하려 하고 작업이 30분의 시간 초과 제한을 초과할 수 있을 경우 이 문제가 계속 발생할 수 있습니다. 이 문제를 해결하려면 호스트 프로파일을 다시 적용합니다.
  • hostd가 실패하면 ESXi 호스트와 vCenter Server의 연결이 끊어질 수 있음
    hostd가 실패하면 ESXi 호스트와 vCenter Server의 연결이 끊어지고 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    2013-06-04T11:47:30.242Z [6AF85B90 info 'ha-eventmgr'] 이벤트 110 : /sbin/hostd가 충돌하며(지금까지 1회) /var/core/hostd-worker-zdump.000에서 코어 파일이 생성되었을 수 있습니다. 이로 인해 호스트에 대한 연결이 끊어질 수 있습니다.
    이 문제는 올바른 캐시 구성을 확인하기 위해 검사를 수행할 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXCLI 명령을 실행하거나 SNMP 에이전트를 이용하는 모니터링 도구를 사용하는 경우 ESXi 호스트에 대한 연결이 끊길 수 있음
    ESXCLI 명령을 실행하거나 ESXi의 SNMP 에이전트에 있는 데이터를 이용하는 모니터링 도구를 사용하면 hostd 서비스 실패로 인해 ESXi 호스트 연결이 끊길 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Active Directory 사용자 및 그룹에 사용 권한을 할당할 수 없음
    AD(Active Directory) 도메인에 ESXi 5.0 호스트를 추가한 후 AD 사용자 및 그룹에 사용 권한을 할당하려고 시도하면 작업이 실패할 수 있습니다. 호스트를 참가시킨 도메인을 드롭다운 메뉴에서 볼 수 없어서 AD 사용자 및 그룹에 사용 권한을 추가할 수 없습니다. 이 문제는 호스트에서 lsassd서비스가 중지되었기 때문에 발생합니다. lsassd.log파일에 다음과 유사한 항목이 표시됩니다.

    20111209140859:DEBUG:0xff92a440:[AD_DsEnumerateDomainTrusts() /build/mts/release/bora-396388/likewise/esxi-esxi/src/linux/lsass/server/auth-providers/ad-provider/adnetapi.c:1127] host.your.domain.name.net에서 트러스트를 열거하지 못함(오류 59)
    20111209140859:DEBUG:0xff92a440:[AD_DsEnumerateDomainTrusts() /build/mts/release/bora-396388/likewise/esxi-esxi/src/linux/lsass/server/auth-providers/ad-provider/adnetapi.c:1141] 오류 코드: 40096 (기호: LW_ERROR_ENUM_DOMAIN_TRUSTS_FAILED)


    이 문제는 이 릴리스에서 해결되었습니다.
  • hpsc proc 처리기의 잘림 및 버퍼 오버플로로 인해 ESXi 호스트가 실패하고 보라색 진단 화면이 표시됨
    논리 장치 수가 40개 이상인 HP Smart Array 컨트롤러에 대해 cat 명령을 실행하면 ESXi 호스트가 실패하고 보라색 진단 화면이 표시됩니다. 이 문제는 hpsc 처리기의 데이터 잘림 및 버퍼 오버플로 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SAN에서 부팅할 때 네트워크 대역폭에 따라 부팅 디바이스를 검색하는 데 오랜 시간이 걸릴 수 있음
    SAN에서 부팅할 때 부팅 디바이스 검색 프로세스를 완료하는 데 오랜 시간이 걸릴 수 있습니다. 부팅 프로세스 전에 ESX 명령줄에 다시 검색 시간 초과 매개 변수를 전달하면 사용자가 시간 초과 값을 구성할 수 있으므로 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 메모리 관련 오류로 인해 ESXi 호스트가 로그 파일에 대한 메시지 로깅을 중지할 수 있음
    로깅 리소스 풀에 할당된 메모리가 부족할 경우 ESXi가 로그 파일에서 메시지 로깅을 중지할 수 있습니다. 로그 파일에 다음과 유사한 메시지가 표시됩니다.

    <TimeStamp> vmsyslog.main : 오류 ] 감시 2625 발생(하위 2626이 상태 256으로 중지됨)!
    <TimeStamp> vmsyslog : 위험] vmsyslogd 대몬 시작 중(69267)
    <TimeStamp> vmsyslog.main : 오류 ] 감시 2625 종료 중
    <TimeStamp> vmsyslog.loggers.file : 오류 ] Gzip 로그 파일 /scratch/log/hostd0.gz 실패
    <TimeStamp> vmsyslog.main : 오류 ] 로그를 쓰지 못함, 사용하지 않도록 설정하는 중
    <TimeStamp> vmsyslog.main : 오류 ] vob를 보내지 못함: [오류 번호 28] 디바이스에 남은 공간이 없습니다.


    이 문제는 이 릴리스에서 해결되었습니다. 로깅 메모리 풀 제한이 48MB로 증가했습니다.
  • vmk0 외의 VMkernel 네트워크 인터페이스가 DHCP 서버에서 해당 IP 바인딩 해제 손실
    VMkernel 인터페이스가 IP 리스를 다른 서브넷의 DHCP 서버에서 획득한 경우 DHCP 서버에서 다음과 유사한 오류 메시지가 표시됩니다.
    2012-08-29T21:36:24Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:36:35Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:36:49Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:08Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:24Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:39Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:52Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:01Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:19Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:29Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:41Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:53Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:39:09Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:39:24Z dhclient-uw[4884]: DHCPREQUEST on vmk1 to 192.168.2.210 port 67

    VMkernel 포트와 동일한 서브넷에서 DHCP 서버에 인터페이스를 제공하여 DHCP 갱신을 허용하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템 모니터가 잘못된 시스템 페이지 번호를 반환하면 VMKernel이 실패함
    VMX가 VPN 값을 전달하여 페이지를 읽을 때 VMKernel이 해당 VPN 값의 유효한 시스템 페이지 번호를 찾지 못하여 호스트가 실패하고 보라색 진단 화면이 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 추적 실행을 위한 월드 힙에서 메모리 할당 실패로 인해 ESX 호스트가 실패할 수 있음
    VMkernel이 게스트 페이지에 대한 쓰기 추적 후 일괄 처리에 사용하는 메커니즘인 추적 실행을 위한 월드 힙에서 메모리 할당 실패로 인해 ESX 호스트에 장애가 발생하고 보라색 진단 화면이 표시될 수 있습니다. 메모리 할당 실패를 제대로 처리하지 않으면 이 문제가 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에 대해 esxcfg-nas명령을 실행하면 PREF 경고가 발생함
    esxcfg-nas -l명령을 실행하면 ESXi 호스트에 다음과 유사한 경고 메시지가 표시됩니다.
    PREF 경고: Preference_Init 전 PreferenceGet(libdir), 기본값을 사용하시겠습니까?

    이 문제는 이 릴리스에서 해결되었습니다.
  • Hostd 성능 테스트 실행 결과 재발 문제가 발생함
    hostd 성능 테스트 도중 nVM 생성, nVM 재구성, nVM 정리와 같은 일부 가상 시스템 작업을 수행할 경우 재발 문제가 발생할 수 있습니다. 이 문제는 모든 vdiskupdate 메시지에 대해 데이터스토어 새로 고침 호출이 처리되기 때문에 발생합니다. 데이터스토어 새로 고침 논리를 수정하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 syslog.log 파일에 스토리지와 관련된 알 수 없는 메시지가 표시됨
    vpxa가 기록하는 syslog 항목이 1024보다 길면 vpxa는 1024바이트 이후의 메시지 본문을 알 수 없음으로 분류하고 vpxa.log 파일이 아닌 syslog.log파일에 넣습니다. 따라서 ESXi 호스트의 syslog.log파일에 스토리지와 관련된 알 수 없는 메시지가 표시됩니다. 이 릴리스에서는 라인 버퍼 제한을 늘려 이 문제를 해결합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지

  • 느리게 비워지는 씩 디스크를 마이그레이션하면 ESXi에서 성능 문제가 발견될 수 있음
    느리게 비워지는 일부 씩 디스크의 마이그레이션 속도가 일부 ESXi에서 동일한 크기의 다른 디스크 전송에 비해 느려질 수 있습니다. 이 문제는 파일 시스템 캐시(버퍼 캐시)의 메모리 페이지가 처음 2MB 범위의 메모리에 포함되는 경우에 발생합니다. 결과적으로 ESXi의 마이그레이션 속도가 느려집니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 클러스터에 새 호스트를 추가할 때 ESXi 호스트가 실패하고 보라색 진단 화면이 표시됨
    클러스터에 새 호스트를 추가하고 고가용성을 다시 구성하면 ESXi 호스트가 실패하고 보라색 진단 화면이 표시됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • LUN의 메타데이터 손상으로 인해 ESXi 호스트가 실패하고 보라색 화면이 표시됨
    특정 가상 시스템 작업을 수행할 때 LUN의 메타데이터 손상 관련 문제로 인해 가끔 ESXi 호스트가 실패하여 보라색 화면이 나타나며 다음과 유사한 오류 메시지가 표시됩니다.
    @BlueScreen: #DE Exception 0 in world 4277:helper23-15 @ 0x41801edccb6e3:21:13:31.624 cpu7:4277)Code start: 0x41801e600000
    VMK uptime: 3:21:13:31.6243:21:13:31.625 cpu7:4277)0x417f805afed0:[0x41801edccb6e]Fil3_DirIoctl@esx:nover+0x389 stack:
    0x410007741f603:21:13:31.625 cpu7:4277)0x417f805aff10:[0x41801e820f99]FSS_Ioctl@vmkernel:nover+0x5c stack:
    0x2001cf5303:21:13:31.625 cpu7:4277)0x417f805aff90:[0x41801e6dcf03]HostFileIoctlFn@vmkernel:nover+0xe2 stack:
    0x417f805afff03:21:13:31.625 cpu7:4277)0x417f805afff0:[0x41801e629a5a]helpFunc@vmkernel:nover+0x501 stack: 0x03:21:13:31.626 cpu7:4277)0x417f805afff8:[0x0] stack: 0x0


    이 문제는 이 릴리스에서 해결되었습니다. 이제 LUN의 메타데이터 손상이 발생하면 오류 메시지가 표시됩니다.
  • NetApp에서 iSCSI가 응답 없는 상태로 전환되지 못하게 하는 SATP 클레임 규칙에 대한 업데이트를 요청함
    NetApp에서 LUN(논리 장치 번호)의 예약 충돌을 방지하는 SATP 클레임 규칙에 대한 업데이트를 요청했습니다. 업데이트된 SATP 클레임 규칙은 재설정 옵션을 사용하여 LUN에서 예약을 지우고 다른 사용자가 예약 옵션을 설정할 수 있게 합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMKlinux가 디바이스 상태를 잘못 설정하면 VMkernel 로그 파일에 잘못된 디바이스 사용 중(D:0x8) 상태 메시지가 표시될 수 있음
    VMKlinux가 디바이스 상태를 잘못 설정하면 VMkernel 로그 파일에 다음과 유사한 잘못된 디바이스 사용 중(D:0x8)상태 메시지가 기록됩니다.
    2013-04-04T17:56:47.668Z cpu0:4012)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x412441541f80) 0x16, CmdSN 0x1c9f from world 0 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x0 D:0x8 P:0x0 가능한 감지 데이터: 0x0 0x0 0x0
    따라서 스토리지 어레이가 SCSI 명령에 대해 디바이스 사용 상태 메시지를 보내지 않으므로 잘못된 경보가 생성됩니다.
    이 문제는 이 릴리스에서 다음과 같이 디바이스 드라이버의 문제에 대해 호스트 버스 사용 중(H:0x2) 상태 메시지를 올바로 가리켜 해결되었습니다.
    2013-04-04T13:16:27.300Z cpu12:4008)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x4124819c2f00) 0x2a, CmdSN 0xfffffa80043a2350 from world 4697 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x2 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0

  • 이 문제는 이 릴리스에서 해결되었습니다.
  • 씩 프로비저닝된 2TB 가상 시스템 디스크의 크기가 데이터스토어 브라우저에서 0바이트로 표시됨
  • 2TB 크기의 씩 VMDK(가상 시스템 디스크) 파일을 생성하면 데이터스토어 브라우저에서 VMDK 디스크 크기를 0.00바이트로 잘못 보고합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 큰 VMDK 및 스냅샷 파일을 포함하는 가상 시스템의 복제 및 콜드 마이그레이션에 실패할 수 있음
    큰 VMDK(가상 시스템 디스크) 및 스냅샷 파일을 포함하는 가상 시스템을 다른 데이터스토어로 복제하거나 콜드 마이그레이션을 수행하는 것이 불가능할 수 있습니다. 이 문제는 콜드 마이그레이션 중에 vpxa 프로세스가 메모리 할당 제한을 초과하는 경우에 발생합니다. 결과적으로 ESXi 호스트와 vCenter Server의 연결이 끊기고 마이그레이션에 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • NFS 데이터스토어의 프로비저닝 공간 값이 잘못 계산되면 잘못된 경보가 생성될 수 있음
    특정 조건에서 NFS 데이터스토어의 프로비저닝 공간 값이 잘못 계산되어 잘못된 경보가 생성될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 데이터스토어 생성 중 vCenter Server 또는 vSphere Client가 ESXi 호스트에서 연결이 끊길 수 있음
    VMFS 데이터스토어를 생성하는 동안 vCenter Server 또는 vSphere Client가 ESXi 호스트에서 연결이 끊길 수 있습니다. 이 문제는 hostd가 실패하고 hostd 로그에 다음과 유사한 오류 메시지가 표시되는 경우에 발생합니다.
    패닉: 어설션 실패: \\\"matchingPart != __null\\\"
    파티션 정렬이 필요한 특정 파티션 구성으로 디스크에서 VMFS 데이터스토어를 생성하는 동안 hostd 프로세스가 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Microsoft 페일오버 클러스터 I/O가 스토리지 Fault Tolerance를 유지하지 못할 수 있음
    Microsoft 페일오버 클러스터 I/O가 스토리지 Fault Tolerance를 유지하지 못하고 예약 충돌로 I/O에 장애가 발생할 수 있습니다. 이 문제는 2개의 페일오버 클러스터 가상 시스템이 2개의 다른 ESXi 호스트에 위치하고 스토리지 어레이가 ALUA 구성에서 실행되는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 원격 경로 이름이 115자 이상인 NFS 데이터스토어를 마운트할 수 없음
    원격 경로 이름이 115자 이상인 NFS 데이터스토어를 마운트할 수 없습니다. 다음과 유사한 오류 메시지가 표시됩니다.
    마운트를 위한 콘솔 경로를 가져올 수 없음

    ESXi 호스트는 NAS 볼륨을 NFS 서버 IP 주소와 내보낸 공유의 전체 경로 이름 조합으로 유지합니다. 이 문제는 이 조합이 128자를 초과하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 NAS 볼륨 크기를 1024로 늘려서 해결되었습니다.
  • 많은 수의 VMFS 스냅샷 볼륨에 다시 서명할 때 vCenter Server에서 ESXi 호스트가 응답을 중지할 수 있음
    많은 수의 VMFS(가상 시스템 파일 시스템) 스냅샷 볼륨에 다시 서명할 때 ESXi 호스트가 간헐적으로 응답을 중지하거나 vCenter Server에서 연결이 끊어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치

  • 재부팅에만 영향을 주는 공지에 대한 호스트 업데이트 적용이 실패함
    재부팅에만 영향을 주는 공지로 구성된 패치 기준선에 대해 ESXi 호스트의 업데이트 적용 프로세스 도중 Update Manager가 호스트에 있는 가상 시스템의 전원을 끄지 않거나 가상 시스템을 일시 중단하지 않습니다. 그 결과 호스트가 유지 보수 모드로 전환되지 못하여 업데이트 적용을 완료할 수 없습니다.

    이 문제는 이번 릴리스와 그 이후 릴리스에서 생성된 공지에서 해결되었습니다.
  • ESXi 호스트를 업그레이드할 때 부팅 디바이스에서 state.tgz 백업 파일을 찾을 수 없음
    ISO 이미지를 사용하여 ESXi 호스트를 업데이트할 때 부팅 디바이스에서 state.tgz백업 파일을 찾지 못할 수 있습니다.
    이 문제는 업그레이드 전에 시스템을 올바로 종료하지 않아 state.tgz백업 파일이 업데이트되지 않은 경우에 발생합니다. 결과적으로 ESX 라이센스를 재설정할 때 찾는 파일이 없음예외 오류 메시지가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • esxcli 명령이 공백 또는 괄호를 포함하는 데이터스토어 이름을 처리하지 못함
    esxcli 명령에서 공백 또는 괄호가 포함된 데이터스토어 이름을 잘못 처리합니다. 이 문제는 사용자가 esxcli 명령을 사용하여 ESXi 업그레이드를 시도하는 경우에 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 여러 ESXi 4.x를 ESXi 5.x로 업그레이드할 때 Syslog 서버 구성이 새 구성으로 마이그레이션되지 않을 수 있음
    ESXi 4.x에서는 Syslog.Local.DatastorePath경로에 대한 구성이 /etc/syslog.conf파일에 저장됩니다.
    하지만 ESXi 5.x에서는 /etc/syslog.conf파일이 /etc/vmsyslog.conf파일로 대체되고 Syslog.global.logDir디렉토리의 구성이 /etc/vmsyslog.conf파일에 저장됩니다.
    결과적으로 /etc/syslog.conf파일의 logfileloghost특성에 대한 Syslog 서버 구성이 새 /etc/vmsyslog.conf파일에서 새로 구성된 logdirloghost특성으로 마이그레이션되지 않습니다. 따라서 여러 ESXi 4.x 서버를 ESXi 5.x 서버로 업그레이드하는 경우에는 업그레이드가 완료될 때마다 Syslog.global.logDir디렉토리를 수동으로 구성해야 합니다.

    이 문제는 이 릴리스에서 다음과 같이 특성을 업데이트하여 해결되었습니다.
    1. /etc/syslog.conf파일의 loghost특성은 새 /etc/vmsyslog.conf파일에서 계속 유지됩니다.
    2. logfile특성은 이제 더 이상 유효하지 않습니다. 이 특성은 새 /etc/vmsyslog.conf파일의 logdir특성으로 마이그레이션됩니다. logdir특성 값은 이전 logfile특성 값의 디렉토리 이름입니다. 디렉토리가 업그레이드된 시스템에서 계속 유효한 디렉토리인 경우에만 마이그레이션이 수행됩니다.
  • HA 클러스터의 ESXi 호스트를 업그레이드하려고 할 경우 vCenter Update Manager에서 오류가 발생할 수 있음
    HA(고가용성) 클러스터의 ESXi 호스트를 업그레이드할 경우 업그레이드가 실패하고 VUM(vCenter Update Manager)에서 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    호스트가 ESX 업데이트 오류 코드 7을 반환했습니다.
    이 문제는 여러 스테이징 작업이 Update Manager에서 서로 다른 기준선을 사용하여 수행되는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • USB 드라이브의 파일 시스템 유형이 하나라도 Fat 16 또는 Fat 32가 아닌 경우 연결된 USB 드라이브에서 스크립트로 작성된 ESXi 설치 또는 업그레이드가 실패할 수 있음
    여러 USB 플래시 드라이브가 ESXi 호스트에 연결된 경우 MS-DOS 파티션이 있는 USB 드라이브의 파일 시스템 유형이 하나라도 fat16 또는 fat32가 아닌 경우 ks=usb부팅 옵션을 통한 스크립트로 작성된 ESXi 설치 또는 업그레이드가 실패하고 예외 오류가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

vCenter Server 및 vSphere Client

  • VAAI 지원 호스트에서 가상 시스템 및 NFS 또는 NAS 데이터스토어에 대한 프로비저닝 공간 값이 요약 탭에 잘못 표시될 수 있음
    VAAI 지원 ESXi 호스트에서 느리게 비워지는 씩 프로비저닝 형식의 가상 디스크를 VAAI 지원 NAS에 생성하면 해당하는 가상 시스템 및 데이터스토어의 프로비저닝 공간이 잘못 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 사용자 지정된 성능 차트에 가상 시스템 개체의 가상 디스크 차트를 표시하는 옵션이 없음
    가상 디스크 메트릭을 사용하여 성능 차트를 확인하는 경우 사용 가능한 가상 디스크 개체의 가상 디스크 성능 차트를 표시하는 옵션만 있습니다.

    이 릴리스에서는 가상 시스템 개체의 가상 디스크 성능 차트도 볼 수 있습니다. 가상 시스템별 가상 디스크 사용량을 기준으로 경보를 트리거해야 하는 경우 이 차트가 유용합니다.

가상 시스템 관리

  • VMDK 파일에 액세스할 수 없으면 가상 시스템의 전원이 켜지지 않음
    ESXi 호스트에서 VMDK 파일에 액세스할 수 없고 해당 VMX 파일의 disk.powerOnWithDisabledDiskTRUE로, answer.msg.disk.notConfiguredYes로 설정되어 있으면 가상 시스템 전원이 켜지지 않습니다. 다음 오류 메시지가 표시됩니다.
    The system cannot find the file specified(시스템에서 지정한 파일을 찾을 수 없습니다).

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템의 중지된 스냅샷을 생성한 후 가상 시스템의 VMX 파일이 업데이트되지 않음
    가상 시스템의 중지된 스냅샷을 생성한 후 가상 시스템의 전원을 다시 켤 때까지 vmx 파일이 업데이트되지 않습니다. vmx구성이 오래되어 원본 VMDK를 가리킵니다. 스냅샷을 생성한 후 다음에 전원을 켜기 전까지 가상 시스템에 장애가 발생하면 데이터가 손실되고 VMDK 연결이 끊어집니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템에 Linux를 설치하려는 시도가 실패할 수 있음
    플로피 이미지를 가상 시스템에 연결하고 Linux 운영 체제를 설치하려고 하면 작업에 실패할 수 있습니다.
    vmware.log파일에 다음과 유사한 항목이 포함될 수 있습니다.

    RemoteFloppyVMX: 원격 cmd uid 0이 시간 초과되었습니다.
    | vcpu-3| Caught signal 11 -- tid 115057
    | vcpu-3| 신호: eip 0x1f5c2eca esp 0xcaf10da0 ebp 0xcaf10e00
    | vcpu-3| 신호: eax 0x0 ebx 0x201826a0 ecx 0x593faa10 edx 0x201d63b0 esi 0x0 edi 0x593faa00
    | vcpu-3| r8 0x593faa00 r9 0x0 r10 0x1fd79f87 r11 0x293 r12 0x2022d000 r13 0x0 r14 0x0 r15 0x1fd6eba0
    | vcpu-3| 역추적:
    | vcpu-3| Backtrace[0] 00000000caf109a0 rip=000000001f8caf9e rbx=000000001f8cad70 rbp=00000000caf109c0 r12=0000000000000000 r13=00000000caf198c8 r14=00000000caf10b50 r15=0000000000000080
    ....
    | vcpu-3| SymBacktrace[2] 00000000caf10ad0 rip=000000000038c00f
    | vcpu-3| 예기치 않은 신호: 11.
    | vcpu-3| 모니터 코어 파일 "/vmfs/volumes/519f119b-e52d3cf3-6825-001999db3236/EMS/vmmcores.gz"를 쓰는 중


    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템 모니터의 페이지 장애로 인해 ESXi 호스트가 실패함
    가상 시스템 모니터의 페이지 장애로 인해 ESXi 호스트가 실패하고 보라색 진단 화면이 나타나며 vmware.log에 다음과 유사한 페이지 장애 예외 오류가 보고될 수 있습니다.
    2013-05-15T12:48:25.195Z| vcpu-1| W110: 코어 파일은 "/vmfs/volumes/5088c935-f71201bf-d750-90b11c033174/BF-TS5/vmx-zdump.000"에서 사용할 수 있습니다. 2013-05-15T12:48:25.196Z| vcpu-1| I120: Msg_Post: 오류 2013-05-15T12:48:25.196Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX 복구 불가능 오류: (vcpu-1) 2013-05-15T12:48:25.196Z| vcpu-1| I120+ vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc243748 regs=0xfffffffffc008e98 2013-05-15T12:48:25.196Z| vcpu-1| I120: [msg.panic.haveLog] 로그 파일은 "/vmfs/volumes/5088c935-f71201bf-d750-90b11c033174/BF-TS5/vmware.log"에서 사용할 수 있습니다. 2013-05-15T12:48:25.196Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] 지원을 요청할 수 있습니다. 2013-05-15T12:48:25.196Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86] 2013-05-15T12:48:25.196Z| vcpu-1| I120+ VMware 기술 지원에 제출할 데이터를 수집하려면 "vm-support"를 실행하십시오. 2013-05-15T12:48:25.196Z| vcpu-1| I120: [msg.panic.response] 고객은 지원 사용 권한에 따라 응답을 받게 됩니다. 2013-05-15T12:48:25.196Z| vcpu-1| I120:


    이 문제는 이 릴리스에서 해결되었습니다.


  • 가상 디스크 관련 작업을 수행할 때 가상 시스템이 실패할 수 있음
    가상 디스크 관련 I/O 작업, 특히 CDROM 액세스 재시도와 관련된 작업으로 인해 가상 시스템이 실패할 수 있습니다.
    로그 파일에 다음과 유사한 항목이 포함될 수 있습니다.
    <Time_Stamp> vmx| [msg.vmxaiomgr.retrycontabort.rudeunplug] "/vmfs/volumes/16b2bd7c-1d66d7ef/VMware/VMware-VIMSetup-all-5.1.0-947939.iso" 파일에 대한 작업이 실패했습니다.
    <Time_Stamp> vmx| --> 파일이 원격 파일 시스템에 있는 경우 이 디스크가 있는 서버 및 네트워크 연결이 제대로 작동하는지 확인하십시오. 파일이 이동식 미디어에 있는 경우 미디어를 다시 연결하십시오.
    <Time_Stamp> vmx| --> 작업을 다시 시도하려면 재시도를 선택하십시오.
    ...
    다음:

    <Time_Stamp> vmx| MsgQuestion: msg.vmxaiomgr.retrycontabort.rudeunplug reply=0
    <Time_Stamp> vmx| VMXAIOMGR: /vmfs/volumes/16b2bd7c-1d66d7ef/VMware/VMware-VIMSetup-all-5.1.0-947939.iso를 다시 열고 미결된 IO 다시 시도
    ...


    이 문제는 이 릴리스에서 해결되었습니다.

  • 가상 시스템을 OVF로 내보내려는 시도가 실패하고 시간 초과 오류가 발생함
    OVF(Open Virtualization Format)의 가상 시스템을 내보내려고 할 때 해당 가상 시스템이 디스크의 비어 있는 블록 대부분을 포함하고 있으며(예: 210GB 이상) Ext 2 또는 Ext 3 파일 시스템을 사용하는 경우 작업 시간이 초과됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

vMotion 및 Storage vMotion

  • CBT 지원 가상 시스템에 대해 vMotion을 사용하여 VMDK를 다른 볼륨으로 이동한 후 증분 백업에 실패하고 QueryChangedDiskAreas에 대한 FileFault 오류가 발생할 수 있음
    vMotion을 사용하여 VMDK(가상 시스템 디스크)를 다른 볼륨으로 이동한 후 가상 시스템에서 CBT(변경된 블록 추적)를 사용하도록 설정하고 QueryChangedDiskAreas를 수행하면 증분 백업에 실패하고 다음과 유사한 FileFault 오류가 발생할 수 있습니다.
    2012-09-04T11:56:17.846+02:00 [03616 info 'Default' opID=52dc4afb] [VpxLRO] -- ERROR task-internal-4118 -- vm-26512 -- vim.VirtualMachine.queryChangedDiskAreas: vim.fault.FileFault:
    --> 결과:
    --> (vim.fault.FileFault) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> file = "/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> msg ="/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk 파일로 인해 오류 발생",
    --> }

    이 문제는 라이브러리 기능이 디스크 변경 내용 추적 기능을 잘못 다시 초기화하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 2TB 스토리지를 포함하는 가상 시스템의 Storage vMotion이 실패할 수 있음
    Storage vMotion을 사용하여 2TB 스토리지(예: 1TB 디스크 2개)를 포함하는 가상 시스템을 마이그레이션하면 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    일반 시스템 오류가 발생했습니다. 소스가 대상이 재개되지 못했음을 감지했습니다.


    가상 시스템이 대상 호스트에서 시작되지 않고 다음과 유사한 오류 메시지가 표시됩니다.
    오류: "VMware ESX 복구할 수 없는 오류: (vmx) 예기치 않은 신호 8".

    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance

  • HA 지원 ESXi 호스트에 대해 지정된 페일오버 호스트로의 가상 시스템 페일오버가 실패할 수 있음
    ESXi 호스트에서 HA(고가용성)를 사용하도록 설정하고 vMotion을 실행하면 지정된 페일오버 호스트로의 가상 시스템 페일오버가 실패할 수 있습니다.
    이 문제는 가상 시스템 스왑 파일(.vswp 파일)이 잠겨 있어서 HA용 FDM(장애 도메인 관리자) 에이전트가 지정된 호스트에서 가상 시스템을 페일오버하지 못하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools

  • Linux 커널 3.8.0-rc3+에서 가상 시스템 통신 인터페이스 드라이버가 컴파일되지 않음
    Linux 커널 3.8.0-rc3+에서 VMware Tools를 설치할 때 VMCI 드라이버가 컴파일되지 않습니다. 커널에서 일부 Linux 드라이버를 제거하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CentOS 6.4 32비트 가상 시스템에서 VMware Tools를 설치한 후 시스템이 반복해서 다시 시작됨
    CentOS 6.4 32비트 가상 시스템에서 VMware Tools를 설치한 후 가상 시스템을 재부팅하면 가상 시스템이 반복해서 다시 시작됩니다. 이 문제는 커널 비호환성으로 인해 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 업그레이드한 후 SMVI가 시스템을 백업하지 못할 수 있음
    VMware Tools를 업그레이드한 후 NetApp SMVI(SnapManager for Virtual Infrastructure)가 시스템을 백업하지 못할 수 있습니다. 또한 중지 상태의 스냅샷을 생성하면 작업에 실패하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    스냅샷 생성 작업이 동결된 가상 시스템에서 I/O를 지연시키는 시간 제한을 초과했기 때문에 중지 상태의 스냅샷을 생성할 수 없습니다.

    이 문제는 Windows Server 2008, Windows Server 2008 R2 및 Windows Server 2012 가상 시스템에서 발생합니다. Windows 2003 가상 시스템에서는 이 문제가 발생하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 가상 시스템에서 NetIpConfigInfoIpAddress 데이터 개체의 prefixLength 속성이 잘못된 서브넷 마스크 정보를 표시할 수 있음
    데이터 개체 NetIpConfigInfoIpAddress는 특정 IP 주소에 대한 정보를 제공합니다. 일부 가상 시스템에서는 일반 인터넷 네트워크 주소 접두사의 길이를 표시하는 데 사용되는 NetIpConfigInfoIpAddress 데이터 개체의 prefixLength 속성이 잘못된 서브넷 마스크 정보를 표시할 수 있습니다.
    이 문제는 컴퓨터 메모리 내에서 바이트가 정렬되는 방식을 결정하는 IP 주소 endianness 특성이 서브넷 마스크 계산에서 올바르지 않은 경우에 발생합니다.
    이 문제는 Windows Server 2008 R2(64비트) 및 Windows Server 2003 가상 시스템에서 발견되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 기본 SVGA 드라이버에 따라 VMware Tools 설치 후 Windows Server 2008 가상 시스템이 응답을 중지할 수 있음
    VMware Tools를 설치한 후 Windows Server 2008 가상 시스템을 시스템 로그인 페이지에서 다시 시작하면 응답이 중지될 수 있습니다. 이 문제는 VMware Tools와 함께 설치되는 SVGA 드라이버의 기본 설정이 올바르지 않을 경우에 발생합니다. 다시 시작하는 과정에서 마우스를 이동하고 아무 키나 누르는 경우에도 가상 시스템이 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • OSP(Operating System Specific Package)를 사용하여 VMware Tools를 설치할 때 /tmp/vmware-root 디렉토리에 vmware-db.pl.* 파일이 채워짐
  • OSP를 사용하여 VMware Tools를 설치할 때 /tmp/vmware-root디렉토리에 있는 로그 파일 수가 늘어나는 것을 알 수 있습니다. 이 문제는 SUSE Linux Enterprise Server 11 서비스 팩 2 및 Red Hat Enterprise Linux Server 6에서 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 커널 버전 3.7 이상에서 VMware Tools를 설치하지 못할 수 있음
    Linux 커널 버전 3.7 이상 및 버전 3.8을 사용하는 경우 VMware Tools 설치 스크립트가 새 커널 헤더 경로를 식별할 수 없으므로 VMware Tools 드라이버가 컴파일되지 않습니다. 이로 인해 VMware Tools 설치가 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • IntallPath 레지스트리 키가 없으면 VMware Tools 서비스가 실패함
    VMware Tools를 제거하는 도중 vmusr프로세스가 실패할 수 있음을 발견했습니다. 이 문제는 vmusr프로세스가 완료될 때까지 기다리지 않고 제거 프로세스를 시작하기 때문에 발생합니다. 특히, 제거 프로세스를 통해 vmusr프로세스에서 나중에 읽으려는 레지스트리 키를 삭제하면 VMware Tools 서비스가 실패하게 됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter 보호 에이전트에서 VMware Tools 업데이트의 서명되지 않은 실행 파일에 대한 경고 메시지를 표시함
    VMware Workstation에서 VMware Tools 업데이트를 시도하면 vCenter 보호 에이전트에서 서명되지 않은 실행 파일 사용을 나타내는 팝업 메시지를 표시합니다. 서명된 형식의 파일을 포함시키면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Windows Vista 이상의 게스트 운영 체제에서 VM 프로세서 또는 VM 메모리 성능 카운터의 이름과 설명을 표시할 수 없음
    관리 사용자 권한으로 실행되는 Windows Vista 이상 등의 게스트 운영 체제에서 원격 성능 로그가 구성될 경우 Windows 성능 모니터(perfmon) 콘솔에 VM 프로세서 및 VM 메모리 카운터의 이름과 설명이 표시되지 않을 수 있습니다.
    Windows 게스트 운영 체제의 로케일이 en_us 또는 de가 아닌 경우에 이러한 상황이 발생합니다. 이 문제는 VMware Tools 버전 8.3.1.2에서 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Oracle 5.x 커널용 Linux Tools 설치 관리자에서 UEK2-200 및 UEK-400 PBM이 누락될 수 있음
    Oracle 5.9 2.6.39-200/400 커널용 Linux Tools 설치 관리자에서 UEK2-200 및 UEK-400 PBM이 누락될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools가 업데이트되어 SUSE Linux Enterprise Server 11 SP3 및 Oracle Linux 6.4에 대한 사전 구축 모듈을 제공함

알려진 문제

다음의 알려진 문제는 철저한 테스트를 통해 발견되었으며 이번 릴리스에서 발생할 수 있는 일부 동작을 이해하는 데 도움이 될 것입니다. 이 문제 목록은 이번 릴리스의 ESXi 5.0 업데이트 3, ESXi 5.0 업데이트 2, ESXi 5.0 업데이트 1 및 ESXi 5.0에만 적용됩니다. 이전 릴리스의 알려진 문제 중 일부가 이 릴리스에도 적용될 수 있습니다. 아래의 알려진 문제 목록에 없는 문제가 발생할 경우에는 이전 릴리스의 알려진 문제를 검토하거나, VMware 기술 자료를 검색하거나, 피드백을 통해 알려 주십시오. 이전에 문서화되지 않은 알려진 문제는 * 기호로 표시되어 있습니다.

알려진 문제 목록

알려진 문제는 다음과 같이 그룹화되어 있습니다.

설치
  • ESXi 5.0 업데이트 3를 설치한 후 관련이 없는 네트워킹 관련 주의 메시지가 표시됨
    ESXi 5.0 업데이트 3을 설치한 후 ESXi DCUI(Direct Console User Interface)에 다음과 유사한 주의 메시지가 표시됩니다.

    주의: DHCP 조회에 실패했습니다. 네트워크 구성을 사용자 지정할 때까지 이 시스템에 액세스하지 못할 수 있습니다.


    그러나 호스트에서 DHCP IP를 획득하고 다른 호스트를 ping할 수 있습니다.

    해결 방법: 이 오류 메시지는 정보 제공용이므로 무시해도 됩니다. 키보드에서 Enter 키를 누르면 오류 메시지가 사라집니다.

  • 스크립트로 작성된 설치에서 ESXi 설치 관리자가 ks 파일의 part 명령에 --fstype 옵션을 적용하지 않음
    part명령의 --fstype옵션은 ESXi 5.0에서 더 이상 사용되지 않습니다. 설치 관리자가 오류 메시지를 표시하지 않고 --fstype옵션을 수락하기는 하지만 --fstype옵션에 지정된 파티션 유형은 생성되지 않습니다. 기본적으로 설치 관리자는 ESXi 5.0에 항상 VMFS5 파티션을 생성합니다. part명령에 --fstype옵션을 사용하여 다른 파티션 유형을 지정할 수 없습니다.

  • PowerShell 1.0에서 Image Builder cmdlet을 실행하여 수정된 이미지 프로파일을 표시할 경우 규칙 정보가 누락됨
    Microsoft PowerShell 1.0에서 vSphere PowerCLI를 설치하고 OEM 소프트웨어 패키지를 이미지 프로파일에 추가한 후 이미지 프로파일을 나열하면 규칙 속성에 대한 정보가 누락됩니다.

    해결 방법: 이미지 프로파일 개체의 규칙 속성을 표시하여 규칙 정보에 액세스하십시오.

  • 부팅 줄 명령에 스크립트 파일 이름을 대문자로 사용하지 않으면 CD 또는 DVD에서 수행하는 스크립트로 작성된 ESXi 설치 또는 업그레이드가 실패함
    CD 또는 DVD에 기록된 ESXi 5.0 설치 관리자 ISO와 함께 설치 또는 업그레이드 스크립트(kickstart 파일)를 사용하여 스크립트로 작성된 설치 또는 업그레이드를 수행할 경우, kickstart 파일 이름이 소문자인 경우에도 설치 관리자가 파일 이름을 대문자로만 인식합니다. 예를 들어 kickstart 파일 이름이 ks.cfg이고, ks=cdrom:/ks.cfg부팅 줄 명령을 사용하여 kickstart 파일 위치를 지정하면 HandledError: 오류(자세한 내용은 로그 참조): cd-rom의 다음 경로에서 kickstart 파일을 찾을 수 없음 -- /ks.cfg와 유사한 오류 메시지가 표시되고 설치가 실패합니다.

    해결 방법: kickstart 파일을 지정할 때 부팅 줄 명령에 kickstart 파일 이름을 대문자로 입력하십시오(예: ks=cdrom:/KS.CFG).

  • VIB를 설치할 때 상대 경로를 사용하면 오류 메시지가 표시됨
    esxcli software vib 명령을 사용하여 디포, VIB 또는 프로파일을 설치할 때 상대 경로를 지정하면 지정한 파일이나 디렉토리가 없음: '/var/log/vmware/a.vib'라는 오류 메시지와 함께 작업이 실패합니다.

    해결 방법: 설치 작업을 수행할 때 절대 경로를 지정하십시오.

  • vSphere Web Client 설치 후 브라우저가 열리고 빈 페이지가 표시됨
    vSphere Client 설치 후 설치 마법사에서 마침을 클릭하면 브라우저가 열리고 빈 페이지가 표시됩니다. 이 상태가 유지되고 브라우저가 vSphere 관리 애플리케이션에 연결되지 않습니다.

    해결 방법: 브라우저를 닫고 시작 메뉴에서 vSphere 관리 애플리케이션 페이지를 시작하십시오.

업그레이드

  • vCenter Server를 통해 연결된 ESXi 호스트에서 PowerCLI를 통해 ESXi 5.0 업데이트 3 VIB를 적용할 수 없음
    vCenter Server에서 관리되는 ESXi 5.0 호스트에서 PowerCLI의 GET-ESXCLI명령을 사용하여 ESXi 5.0 업데이트 3 VIB를 적용하려고 하면 실패하고 다음과 유사한 오류 메시지가 표시됩니다.
    2011-11-18T09:53:50Z esxupdate: root: ERROR: Traceback (most recent call last):
    2011-11-18T09:53:50Z esxupdate: root: ERROR: File "/usr/lib/vmware/esxcli-software", line 441, in <module>
    2011-11-18T09:53:50Z esxupdate: root: ERROR: main()
    2011-11-18T09:53:50Z esxupdate: root: ERROR: File "/usr/lib/vmware/esxcli-software", line 432, in main
    2011-11-18T09:53:50Z esxupdate: root: ERROR: ret = CMDTABLE[command](options)
    2011-11-18T09:53:50Z esxupdate: root: ERROR: File "/usr/lib/vmware/esxcli-software", line 329, in VibInstallCmd
    2011-11-18T09:53:50Z esxupdate: root: ERROR: raise Exception("No VIBs specified with -n/--vibname or -v/--viburl.")
    2011-11-18T09:53:50Z esxupdate: root: ERROR: Exception: No VIBs specified with -n/--vibname or -v/--viburl.


    해결 방법: 없음
  • ESXCLI를 사용한 라이브 업데이트가 실패하고 VibDownloadError 메시지가 표시됨
    다음과 같은 작업을 차례로 수행하면 재부팅이 필요한 트랜잭션이 실패하고 VibDownloadError메시지가 표시됩니다.

    1. esxcli software profile update또는 esxcli vib update명령을 사용하여 실시간 설치 업데이트를 수행합니다.
    2. 재부팅하기 전에, 재부팅이 필요한 트랜잭션을 수행했지만 이 트랜잭션이 성공적으로 완료되지 않습니다. 가장 일반적인 실패 이유는 서명 검증 때문인데, 서명은 VIB를 다운로드한 이후에만 확인할 수 있습니다.
    3. 호스트를 재부팅하지 않은 채로 재부팅이 필요한 다른 트랜잭션을 수행하려고 시도합니다. VibDownloadError메시지와 함께 트랜잭션이 실패합니다.

     

    해결 방법: 이 문제를 해결하려면 다음 단계를 수행하십시오.

    1. ESXi 호스트를 재부팅하여 상태를 정리합니다.
    2. 실시간 설치를 반복합니다.
  • ESX/ESXi 4.x에서 ESXi 5.0으로 스크립트로 작성된 업그레이드를 수행할 때 MPX 및 VML 디스크 디바이스 이름이 변경되어 업그레이드가 실패할 수 있음
    MPX 및 VML 디스크 디바이스 이름은 호스트를 재부팅하면 달라질 수 있습니다. 스크립트로 작성된 업그레이드를 진행하는 동안 재부팅 이후에 이름이 변경되면 업그레이드가 중단될 수 있습니다.

    해결 방법: 가능한 경우 디스크 디바이스에 NAA ID(Network Address Authority Identifier)를 사용하십시오. CCISS 컨트롤러를 사용하는 Hewlett Packard 시스템과 같이 NAA ID 사용 디스크가 없는 시스템인 경우에는 ESXi 설치 관리자 ISO가 포함된 CD나 DVD를 통해 업그레이드를 수행하십시오. 스크립트로 작성된 업그레이드인 경우, upgrade명령을 실행할 때 --firstdisk=매개 변수를 지정하여 업그레이드할 대상 ESX 또는 ESXi 인스턴스를 구체적으로 지정할 수도 있습니다. 설치 및 업그레이드 스크립트 명령은 vSphere 설치 및 설정vSphere 업그레이드 설명서에 자세히 나와 있습니다.

  • DHCP 서비스를 사용하지 않는 서브넷에서 ESX 시스템이 수동으로 할당된 IP 주소를 사용할 경우, 업그레이드 동안 ESX 콘솔과 esxi_install.log보고서가 DHCP 주소를 획득하지 못함
    이 문제는 수동으로 할당된 IP 주소를 가진 ESX 시스템을 DHCP 서버가 없는 서브넷에서 실행하거나 DHCP 서버의 용량이 부족할 경우에 발생합니다. 두 경우 모두 ESX 시스템을 업그레이드하면 시스템이 DHCP 서버에서 IPv4 주소를 가져오기 위해 최대 1분 동안 일시 중지됩니다.

    해결 방법:없음. 시스템이 최대 1분 동안 일시 중지되었다가 업그레이드가 성공적으로 완료됩니다. 이때 Enter 키를 눌러 계속하라는 메시지가 표시될 수 있습니다. Enter 키를 누르거나 메시지를 무시할 수 있습니다. 두 경우 모두 시스템이 일시 중지되었다가 업그레이드를 진행합니다.

네트워킹

  • Emulex be2net network adapter with device id 0710 fail to be probed in ESXi 5.0(ESXi 5.0에서 디바이스 ID가 0710인 Emulex be2net 네트워크 어댑터가 검색되지 않음)(KB 2041665 )

  • vCenter Server 4.x에서 생성된 vDS 구성을 포함하는 호스트 프로파일에서 부팅된 상태 비저장 ESX 5.0 호스트에 대해 게이트웨이 설정이 적용되지 않을 수 있음
    4.x 호스트 프로파일에서 vSphere Auto Deploy를 사용하는 동안 부팅된 상태 비저장 ESX 5.0 호스트에 대해 게이트웨이 설정이 적용되지 않을 수 있습니다. 이로 인해 이러한 호스트의 네트워크 연결이 끊어지고 호스트가 vCenter Server 5.0에 자동으로 추가되지 않습니다.

    해결 방법: vDS 구성이 포함된 4.x 호스트 프로파일을 사용하여 상태 비저장 ESX 5.0 호스트를 부팅하려면 다음 단계를 수행하십시오.

    1. 4.x 호스트 프로파일을 지정하지 않고 Auto Deploy를 사용하여 구성된 ESX 5.0 상태 비저장 호스트를 부팅합니다.
    2. 상태 비저장 호스트가 vCenter Server 5.0에 추가된 후 4.x 호스트 프로파일을 적용합니다.
    3. 상태 비저장 ESX 5.0 부팅된 호스트에서 새 호스트 프로파일을 생성합니다. 새로 생성한 호스트 프로파일을 vSphere Auto Deploy에서 사용하여 상태 비저장 ESX 5.0 호스트를 부팅합니다.

    vDS 구성 없이 ESX 5.0 상태 비저장 호스트를 부팅하려면 vDS 설정이 포함되지 않은 4.x 호스트 프로파일을 사용합니다. 또한 다음과 같이 4.x 호스트 프로파일에서 vDS 설정을 해제하거나 제거할 수 있습니다.

    호스트 프로파일 > 네트워킹 구성에서 프로파일 구성 사용/사용 안 함 옵션을 사용하여 vDS 및 관련 포트 그룹을 호스트 프로파일에서 해제합니다. 호스트 프로파일 > 네트워킹 구성에서 프로파일 편집 옵션을 사용하여 vDS 및 관련 포트 그룹을 호스트 프로파일에서 제거합니다.

  • 서비스 콘솔 세부 정보가 vSphere distributed에 호스트 추가 마법사 및 호스트 관리 마법사에 나타나지 않음
    Distributed switch에 4.x ESX 호스트를 추가할 경우 서비스 콘솔 네트워크 어댑터의 세부 정보가 가상 어댑터 세부 정보 섹션에 있는 네트워크 연결 페이지의 호스트 추가 마법사에 나타나지 않습니다. 일반적으로 MAC 주소, IP 주소 및 서브넷 마스크가 여기 나타나야 합니다.

    해결 방법: 서비스 콘솔 네트워크 어댑터의 세부 정보를 보려면 호스트 추가 또는 호스트 관리 마법사를 종료한 다음 vSphere Client의 [호스트] > [구성] > [네트워킹]으로 이동하십시오.

    서비스 콘솔 네트워크 어댑터가 표준 스위치로 배포된 경우:

    1. 스위치를 찾습니다.
    2. "속성..." 버튼을 클릭합니다.
    3. 서비스 콘솔 네트워크 어댑터를 선택합니다.
      VSS 다이어그램에 나타나는 어댑터의 이름을 기록합니다.

     

    서비스 콘솔 네트워크 어댑터가 Distributed Switch로 배포된 경우:

    1. [vSphere Distributed Switch] 탭으로 이동합니다.
    2. Distributed Switch를 찾아 "가상 어댑터 관리..."를 선택합니다.
    3. 서비스 콘솔 네트워크 어댑터를 찾아 선택합니다.

     

  • ESXi Dump Collector 서버가 자동으로 종료
    ESXi Dump Collector 서버의 포트가 잘못된 값으로 구성되면 오류 메시지 없이 자동으로 종료합니다. 이 포트는 ESXi Dump Collector 서버가 ESXi 호스트에서 코어 덤프를 수신하는 포트이기 때문에 이렇게 자동 종료하면 ESXi 호스트 코어 덤프가 수집되는 것을 방지할 수 있습니다. ESXi Dump Collector에서 vCenter Server로 오류 메시지가 전송되지 않기 때문에 vSphere 관리자는 이 문제를 알지 못합니다. 이 문제가 해결되지 않으면 ESXi 호스트에서 오류가 발생할 경우 지원 가능성에 영향을 미칩니다.

    해결 방법: 이 오류를 방지하려면 권장 포트 범위 내에서만 포트를 선택하여 ESXi Dump Collector 서버를 구성하십시오. 기본 포트를 사용하는 것이 좋습니다.

  • nx_nic 드라이버가 포함된 QLE3142 버전의 10G QLogic NIC를 사용하면 gPXE 부팅 동안 서버가 작동 중지
    nx_nic 드라이버가 포함된 QLE3142 버전의 10G QLogic NIC를 사용하여 gPXE가 ESXi 비저장 부팅 구성으로 부팅할 경우 ESXi 서버가 작동을 중지하고 부팅이 실패합니다.

    해결 방법: gPXE 부팅에 다른 NIC를 사용하십시오.

  • 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 vSphere vMotion이 실패함
    vSphere 5.0에서는 호스트 하나당 VMkernel 네트워크 어댑터를 16개까지 사용할 수 있습니다. 특정 호스트에서 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 해당 호스트를 대상으로 하는 vMotion 작업이 실패합니다. 오류 메시지는 17 스트림 IP 항목을 초기화하기 위한 요청을 거부합니다.이며, 여기서 숫자는 vMotion을 위해 설정한 VMkernel 네트워크 어댑터의 수를 나타냅니다.

    해결 방법: vMotion에 사용하도록 설정한 vMotion VMkernel 네트워크 어댑터 수가 16개를 초과하지 않도록 설정하십시오.

  • ESXi 5.0에서 Network I/O Control이 송신 패킷의 802.1p 태그를 재정의함
    ESXi 5.0에서 Network I/O Control은 리소스 풀 단위로 802.1p 태그를 지정할 수 있도록 가상 네트워킹 QoS(서비스 품질)와 물리적 네트워킹 QoS를 이어 주는 역할을 합니다.
    이 기능의 단점은 태그를 명시적으로 설정하지 않은 경우에도 각 리소스 풀에 기본 802.1p 태그(0)가 지정된다는 것입니다. Network I/O Control을 사용하도록 설정되어 있으면 ESXi 호스트를 종료할 때 가상 시스템 내의 CoS(Class of Service) 비트 태깅이 재정의됩니다.

    해결 방법:없음. Network I/O Control을 사용하지 않도록 선택할 수 있습니다.

  • 호스트 프로파일에서 IPv6 전용 VMkernel 네트워크 어댑터 구성이 지원되지 않음
    vSphere Client를 사용하여 호스트 프로파일의 IP 구성을 설정할 경우 VMkernel 네트워크 어댑터를 IPv4 전용, IPv6 전용 또는 IPv4와 IPv6 혼합 모드로 설정할 수 있습니다. 그러나 IPv6 전용 설정은 호스트 프로파일에서 지원하지 않습니다. VMkernel 네트워크 어댑터를 IPv6 전용 설정으로 구성하면 호스트 프로파일 응답 파일에 IPv4 구성을 지정하라는 메시지가 표시됩니다.

    해결 방법: 다음 작업 중 하나를 수행하십시오.

    • vSphere Client를 통해 VMkernel 네트워크 어댑터를 구성할 때 IPv6 설정만 사용하고 호스트 프로파일을 사용하지 않습니다.
    • 호스트 프로파일을 생성하고 적용할 때 VMkernel 네트워크 어댑터에 대해 IPv6 구성과 IPv4 구성을 모두 포함한 다음, 프로파일을 적용한 후 VMkernel 네트워크 어댑터에 대해 IPv4 구성을 사용하지 않도록 설정합니다.

     

  • 일부 Cisco 스위치에서 우선 순위 비트가 설정된 패킷이 손실됨
    VMware vSphere Network I/O Control을 사용하면 송신 트래픽에 802.1p 태그를 지정할 수 있습니다. 그러나 일부 Cisco 스위치(4948 및 6509)의 경우 태그가 지정된 패킷을 네이티브 VLAN(VLAN 0)을 통해 송신할 경우 해당 패킷이 손실됩니다.

    해결 방법:없음

  • VLAN를 구성하고 드라이버를 로드하는 동안 ESXi 부팅 프로세스가 크게 지연됨
    BE2 또는 BE3 인터페이스를 사용하는 ESXi 호스트에서 드라이버를 로드하고 VLAN을 구성하는 동안 처리가 크게 지연됩니다. 지연 시간은 호스트의 BE2 및 BE3 인터페이스 수에 따라 증가하며 몇 분 정도 지속될 수 있습니다.

    해결 방법:없음

  • vSphere Distributed Switch에 네트워크 리소스 풀을 추가하면 하나 이상의 호스트 멤버에 대한 vSphere Distributed Switch 작업을 완료할 수 없습니다.오류가 발생하여 작업이 실패함
    이 오류 메시지는 Distributed Switch에서 하나 이상의 호스트에 최대 수의 네트워크 리소스 풀이 이미 연결되어 있음을 의미합니다. 호스트 하나에 연결할 수 있는 네트워크 리소스 풀의 최대 개수는 56개입니다.

    해결 방법:없음

  • vSphere Distributed Switch에 네트워크 리소스 풀을 추가하면 vim.fault.LimitExceeded오류가 발생하여 작업이 실패함
    이 오류 메시지는 Distributed Switch에 최대 수의 네트워크 리소스 풀이 이미 연결되어 있음을 의미합니다. vSphere Distributed Switch에 연결할 수 있는 네트워크 리소스 풀의 최대 개수는 56개입니다.

    해결 방법:없음

  • 익스트림 스위치에 연결된 시스템 이름이 LLDP에 표시되지 않음
    기본적으로 익스트림 스위치에 연결된 시스템 이름은 표시되지 않습니다. 익스트림 스위치에 대해 표시되도록 시스템 이름을 명시적으로 설정하지 않으면 LLDP에 이 정보가 표시될 수 없습니다.

    해결 방법: configure lldp ports <port ID> advertise system-name 명령을 실행하여 시스템 이름을 익스트림 스위치에 표시하십시오.

  • 미러링된 패킷을 자르면 ESXi 장애가 발생함
    미러링된 패킷이 포트 미러링 세션에 설정된 미러링 패킷 길이를 초과하면 ESXi 장애가 발생합니다. 패킷을 자르는 다른 작업도 ESXi 장애의 원인이 될 수 있습니다.

    해결 방법: 포트 미러링 세션에 미러링된 패킷 길이를 설정하지 않습니다.

  • Fault Tolerance가 vSphere vMotion을 사용한 vSphere DirectPath I/O와 호환되지 않음
    가상 시스템에서 Fault Tolerance를 사용하는 경우, 가상 시스템의 모든 가상 어댑터에 대해 vMotion을 사용한 DirectPath I/O가 비활성화됩니다.

    해결 방법: vMotion을 사용한 DirectPath I/O를 활성화하기 전에 Fault Tolerance를 해제한 후 가상 시스템을 재부팅하십시오.

  • VMCI 기반 애플리케이션에 vSphere vMotion을 사용한 vSphere DirectPath I/O가 해제되어 있음
    Cisco UCS 시스템에서 VMCI 기반 애플리케이션을 사용하면 모든 가상 시스템 네트워크 어댑터에 DirectPath가 비활성화됩니다.

    해결 방법: 모든 VMCI 기반 애플리케이션의 사용을 중지하고 가상 시스템을 재부팅하여 vSphere DirectPath I/O를 복원하십시오.

스토리지
  • 데이터스토어 클러스터의 I/O 메트릭을 사용하지 않도록 설정한 이후에 I/O 지연 시간 임계값이 15ms로 표시됨
    데이터스토어 클러스터에 대해 I/O 메트릭을 사용하지 않도록 설정한 이후에도 계속 데이터스토어 클러스터의 요약 페이지에 I/O 지연 시간 임계값이 15ms(기본값)로 표시됩니다.

    해결 방법:없음. 올바른 값을 보려면 데이터스토어 클러스터 > 스토리지를 선택하십시오.

  • SDRS 유지 보수 모드로 전환하는 링크가 독립 실행형 데이터스토어의 요약 페이지에 나타남
    데이터스토어 클러스터의 일부인 데이터스토어만 Storage DRS 유지 보수 모드로 전환될 수 있습니다. 그러나 Storage DRS 유지 보수 모드로 전환하는 링크가 데이터스토어 클러스터에 속해 있지 않은 데이터스토어의 요약 페이지에 나타납니다. 독립 실행형 데이터스토어에 대해 SDRS 유지 보수 모드로 전환을 클릭하면 데이터스토어를 유지 보수 모드로 전환하려는 작업이 시도되지만 무기한 보류 상태로 표시됩니다.

    해결 방법:vSphere Client의 최근 작업 창에서 SDRS 유지 보수 모드로 전환 작업을 취소하십시오.

  • Storage vMotion을 사용하는 동안 APD(모든 경로 다운) 상태로 인해 vCenter Server와 ESXi 호스트 사이의 통신이 끊김
    Storage vMotion을 사용하여 가상 시스템을 마이그레이션할 때 APD 상태가 되면 vCenter Server가 Storage vMotion에 관련된 호스트와 vCenter Server 인벤토리 사이의 연결을 끊습니다. 이 상태는 백그라운드에서 실행 중인 Storage vMotion 작업이 완료될 때까지 계속됩니다. 이 작업은 Storage vMotion 작업 시간에 따라 몇 분에서 몇 시간까지 소요될 수 있습니다. 이 시간 동안은 vCenter Server에서 해당 호스트에 대해 다른 어떠한 작업도 수행할 수 없습니다.

    해결 방법:없음. Storage vMotion 작업이 완료되면 vCenter Server에서 호스트를 인벤토리에 다시 연결합니다. 이 장애는 APD가 아닌 데이터스토어에서 실행되는 가상 시스템에 영향을 주지 않습니다.

  • 데이터스토어에 추가된 심볼 링크로 인해 데이터스토어 브라우저에 데이터스토어 내용이 잘못 표시됨
    외부 NFS 서버에서 또는 호스트에 로그인하여 데이터스토어의 최상위 수준에 심볼 링크를 추가하면 데이터스토어를 탐색할 때 파일 및 폴더 같은 데이터스토어 정보가 올바르게 표시되지 않을 수 있습니다. 심볼 링크가 잘못된 파일과 폴더를 참조할 경우에 이 문제가 발생할 수 있습니다.

    해결 방법: 심볼 링크를 제거하십시오. 데이터스토어에는 심볼 링크를 사용하지 않습니다.

  • ATS 지원 VMFS 데이터스토어에 익스텐트를 추가하려는 작업이 실패함
    ATS 지원 데이터스토어는 ATS 지원 디바이스를 통해서만 확장할 수 있습니다. ATS 지원 데이터스토어를 확장할 때 ATS를 지원하지 않는 디바이스를 선택하면 작업이 실패합니다. 이 경우 vSphere Client에 호스트를 구성하는 동안 오류가 발생했습니다.라는 메시지가 표시됩니다. 로그 파일에도 Operation failed, unable to add extent to filesystem이라는 오류 메시지가 기록될 수 있습니다.

    해결 방법: ATS 데이터스토어에 익스텐트를 추가하기 전에 다음 명령을 실행하여 익스텐트 디바이스가 ATS를 지원하는지 여부를 확인하십시오.
    esxcli storage core device vaai status get -d=device_ID
    출력에 다음 정보가 표시되어야 합니다.
    ATS 상태: 지원됨

  • I/O 로드 밸런싱을 수행할 때 Storage DRS가 예상대로 작동하지 않을 수 있음
    Storage DRS를 테스트하기 위해 IOMeter 소프트웨어를 사용하여 I/O 로드를 생성하면 IOMeter는 기본적으로 파일을 0 값으로만 채웁니다. 이 데이터는 실제 데이터에 포함되어 있고 Storage DRS가 데이터스토어의 I/O 특성과 성능을 확인하는 데 필요한 내용, 즉 1과 0으로 이루어진 임의의 패턴을 포함하고 있지 않습니다.

    해결 방법: Storage DRS 로드 밸런싱을 테스트할 때 실제 데이터를 사용하여 데이터스토어의 스토리지 공간을 적어도 20% 채우십시오. IOMeter 소프트웨어를 사용하여 I/O 로드를 생성할 경우 파일에 1과 0으로 이루어진 임의의 패턴을 사용자가 직접 작성할 수 있는 버전을 선택하십시오.

  • 새 가상 시스템 디스크의 이름이 Storage DRS 초기 배치 권장 사항에 나타나지 않음
    Storage DRS를 사용하는 데이터스토어 클러스터에 가상 시스템을 생성, 복제 또는 템플릿에서 배포할 경우 배치 권장 사항 또는 장애 대화상자에 새 가상 시스템 하드 디스크의 이름이 나열되지 않습니다. 대신 대화상자에 <datastore name>에 새 가상 시스템 하드 디스크 배치가 표시됩니다.

    해결 방법:없음. 가상 시스템을 생성할 때 하드 디스크 이름은 디스크 배치가 완료될 때까지 할당되지 않습니다. 가상 시스템 하드 디스크의 크기와 배치된 데이터스토어가 서로 다를 경우 통계를 계산하기 전과 후에 공간 사용률 기능을 사용하여 어느 디스크가 어떤 데이터스토어에 배치되었는지 확인할 수 있습니다.

  • 스케줄링된 작업 마법사를 사용하여 가상 시스템을 생성하거나 복제할 때 Storage DRS가 해제된 것으로 나타남
    가상 시스템을 복제하거나 생성하기 위해 스케줄링된 작업을 생성하고, 가상 시스템 파일의 대상 스토리지로 사용할 데이터스토어 클러스터를 선택할 경우 [Storage DRS 사용 안 함] 확인란이 항상 선택되어 있습니다. 스케줄링된 작업 마법사에서는 가상 시스템에 대해 [Storage DRS 사용 안 함] 확인란의 선택을 취소할 수 없습니다.

    해결 방법:없음. [Storage DRS 사용 안 함] 확인란은 스케줄링된 작업 마법사에서 항상 선택되어 있습니다. 그러나 스케줄링된 작업을 실행한 후 가상 시스템이 생성되면 가상 시스템의 자동화 수준이 데이터스토어 클러스터의 기본 자동화 수준과 동일하게 됩니다.

  • Storage I/O Control을 사용하도록 설정된 NFS 데이터스토어를 마운트 해제하려고 하면 vSphere Client에 오류가 표시됨
    NFS 데이터스토어에 Storage I/O Control을 사용하도록 설정하면 데이터스토어를 마운트 해제할 수 없습니다. 이 경우 다음과 같은 오류 메시지가 표시됩니다. 리소스가 사용 중입니다.

    해결 방법: 데이터스토어를 마운트 해제하기 전에 Storage I/O Control을 사용하지 않도록 설정하십시오.

  • 하드웨어 가속이 지원되는 NFS 데이터스토어에서 ESXi가 느리게 비워지는 씩 프로비저닝 가상 디스크와 빠르게 비워지는 씩 프로비저닝 가상 디스크를 구분하지 못함
    하드웨어 가속이 지원되는 NFS 데이터스토어를 사용할 경우 vSphere Client를 통해 느리게 비워지는 씩 프로비저닝(zeroedthick) 또는 빠르게 비워지는 씩 프로비저닝(eagerzeroedthick) 포맷의 가상 디스크를 생성할 수 있습니다. 그러나 [가상 시스템 속성] 대화상자에서 디스크 유형을 확인하면 디스크를 생성할 때 어떤 포맷을 선택했는지에 관계없이 디스크 프로비저닝 섹션에 빠르게 비워지는 씩 프로비저닝이 디스크 포맷으로 표시됩니다. 즉 ESXi에서는 NFS 데이터스토어에서 느리게 비워지는 가상 디스크와 빠르게 비워지는 가상 디스크를 구분하지 못합니다.

    해결 방법:없음

  • 마이그레이션 후 물리적 호환성 모드인 IDE RDM 디스크의 모드가 독립-영구 모드로 변경되지 않음
    물리적 호환성 모드의 IDE RDM 디스크를 가진 가상 시스템을 ESX/ESXi 4.x 호스트에서 ESXi 5.0으로 마이그레이션한 후에 해당 디스크가 독립-영구 모드로 변경되지 않습니다.

    해결 방법:마이그레이션 이후 vSphere Client를 사용하여 디스크 모드를 독립-영구 모드로 변경하십시오.

  • 하위 디스크를 가진 가상 호환성 RDM을 기존 가상 시스템에 추가할 수 없음
    하위 디스크를 가진 가상 호환성 RDM을 기존 가상 시스템에 추가하려고 하면 작업이 실패합니다. vSphere Client에 재구성 작업 실패: vim.fault.DeviceUnsupportedForVmPlatform라는 오류 메시지가 표시됩니다.

    해결 방법: 가상 호환성 RDM을 추가할 수 있도록 하위 디스크를 제거하십시오.

  • 소프트웨어 FCoE를 사용하는 상태에서 스토리지 맵을 표시하려고 하면 오류 메시지와 함께 작업이 실패함
    이 문제는 소프트웨어 FCoE가 구성되어 있지 않은 vCenter Server에 추가한 ESXi 호스트에만 적용됩니다. 이러한 호스트에 소프트웨어 FCoE 어댑터를 설정한 후에 vSphere Client에서 스토리지 맵을 표시하려고 하면 작업이 실패합니다. 이 경우 다음과 같은 오류 메시지가 표시됩니다. 내부 오류가 발생했습니다. 응답을 serialize하지 못했습니다.

    해결 방법: ESXi 호스트에 소프트웨어 FCoE를 먼저 구성한 후 호스트를 vCenter Server에 추가하십시오.

  • 공간이 충분한 NFS 데이터스토어에 공간 부족 오류가 표시됨
    이 문제는 RPC(원격 프로시저 호출) 클라이언트 공유 기능을 사용하고 NFS 볼륨 여러 개를 동일한 NFS 서버 IP 주소에서 마운트하는 경우에만 발생합니다. 이 구성을 사용할 경우, NFS 볼륨 하나의 공간이 부족하면 동일한 RPC 클라이언트를 공유하는 다른 NFS 볼륨도 공간 부족 오류를 보고할 수 있습니다.

    해결 방법: 사용 중인 호스트에서 RPC 클라이언트 공유 기능을 사용하지 않도록 다음 작업을 수행하십시오.

    1. vSphere Client 인벤토리 패널에서 호스트를 선택합니다.
    2. 구성 탭을 클릭하고 소프트웨어 아래에서 고급 설정을 클릭합니다.
    3. 왼쪽 패널에서 NFS를 클릭한 후 오른쪽에서 NFS.MaxConnPerIP로 스크롤합니다.
    4. 기본값을 128으로 변경합니다.

     

  • 재부팅 후 상태 비저장 호스트가 iSCSI 데이터스토어를 검색할 수 없음
    상태 비저장 호스트가 Cisco Nexus 1000V 시리즈 스위치에 추가되고 9000개의 MTU로 구성되면, 재부팅 후 호스트가 해당 디바이스를 감지할 수 있음에도 불구하고 iSCSI 데이터스토어를 검색할 수 없습니다.

    해결 방법: 데이터스토어를 보이게 하려면 vSphere Client의 구성 > 스토리지 화면에서 새로 고침을 클릭하십시오.

서버 구성
  • ESXi 호스트에 적용할 호스트 프로파일 규칙에 대한 SATP-PSP 변경 내용이 재부팅 후 호스트에 반영되지 않음
    SATP PSP(SAN Array Type Plugin 경로 선택 정책) 규칙 이후 변경 내용을 적용하고, Auto Deploy를 사용하여 프로비저닝된 호스트를 재부팅하면 새 변경 내용이 각 디바이스의 SATP PSP에 적용되지 않습니다. Auto Deploy로 프로비저닝되지 않은 ESXi 호스트의 경우 SATP PSP 변경 내용이 호스트에서 제대로 업데이트되지만 호스트 프로파일에 대한 ESXi 호스트의 규정 준수 검사가 실패합니다.

    해결 방법: ESXi 호스트에 호스트 프로파일을 적용한 후 해당 호스트 프로파일을 삭제하고 ESXi 호스트에서 새 호스트 프로파일을 추출한 다음, 재부팅 전에 이 프로파일을 호스트에 연결하십시오. 이렇게 하려면 호스트 프로파일 UI에서 참조 호스트에서 업데이트하는 기능을 사용하십시오. 이 작업은 호스트 프로파일을 삭제하고 현재의 모든 연결 사항을 유지하면서 호스트로부터 새 프로파일을 추출합니다.

    호스트 프로파일을 추출하기 전에 호스트 자체에서 esxcli 명령을 사용하여 SATP PSP를 편집합니다. 호스트 프로파일 편집기를 사용하여 SATP PSP를 편집하면 안 됩니다.

  • 서비스 시작 정책이 해제된 상태로 호스트 프로파일을 적용해도 해당 서비스가 해제되지 않음
    일부 서비스를 사용하지 않도록 구성한 ESXi 호스트를 참조 호스트로 사용하여 호스트 프로파일을 생성한 후 해당 서비스가 설정된 상태로 해당 호스트 프로파일을 호스트에 적용합니다. 호스트 프로파일을 적용하는 프로세스 동안 대상 ESXi 호스트에서 해당 서비스가 해제되지 않습니다. 이 문제는 사용자가 vSphere Client에서 보안 프로파일을 사용하거나 DCUI에서 문제 해결 옵션을 사용하여 대상 ESXi 호스트에서 ESXShell 또는 SSH 서비스를 사용하도록 설정한 경우에 주로 발생합니다.

    해결 방법: 재부팅하면 서비스가 해제됩니다. vSphere Client에서 호스트를 구성하여 서비스를 수동으로 중지할 수도 있습니다. 각 서비스에 대해 다음 절차를 수행합니다.

    1. 인벤토리에서 호스트를 선택합니다.
    2. 구성 탭을 클릭합니다.
    3. 소프트웨어 섹션에서 보안 프로파일을 클릭합니다.
    4. 속성을 클릭하고 서비스를 선택합니다.
    5. 옵션을 클릭합니다.
    6. 중지를 클릭한 후 확인을 클릭합니다.
  • 호스트의 연결된 프로파일을 전환할 때 호스트 프로파일 응답 파일 상태가 업데이트되지 않음
    다른 호스트 프로파일에 연결되어 있던 호스트에 호스트 프로파일을 추가해도 응답 파일 상태가 업데이트되지 않습니다. 응답 파일 상태가 '완료됨'인 경우에는 호스트에 다른 호스트 프로파일을 연결한 후에도 호스트 프로파일 보기에 응답 파일 상태가 '완료됨'으로 계속 표시됩니다. 그러나 실제 상태는 '완료 안 됨'일 수 있습니다.

    해결 방법: 호스트 프로파일을 연결한 후 응답 파일 상태를 수동으로 업데이트하십시오.

    1. vSphere Client에서 새로 연결한 프로파일을 호스트 프로파일 인벤토리 보기에서 선택합니다.
    2. 호스트 및 클러스터 탭을 클릭합니다.
    3. 엔티티 이름 목록에서 호스트를 마우스 오른쪽 버튼으로 클릭하고 응답 파일 확인을 선택합니다.

    호스트 프로파일 응답 파일 상태가 업데이트됩니다.

  • 많은 양의 구성 데이터가 포함된 호스트 프로파일을 수동으로 적용하면 시간이 초과됨
    많은 양의 구성, 예를 들면 다수의 vSwitch와 포트 그룹이 포함된 호스트 프로파일을 적용할 경우 대상 호스트가 구성되어 있지 않거나 부분적으로 구성되어 있으면 시간이 초과될 수 있습니다. 이와 같은 경우, ESXi에서 해당 구성을 적용하는 기본 프로세스가 계속 실행 중이더라도 vSphere Client에 호스트 구성을 적용할 수 없습니다.라는 오류 메시지가 표시될 수 있습니다.

    또한 syslog.log나 다른 로그 파일에 다음과 같은 메시지가 기록될 수 있습니다.
    Error interacting with configuration file /etc/vmware/esx.conf: Timeout while waiting for lock, /etc/vmware/esx.conf.LOCK, to be released. Another process has kept this file locked for more than 20 seconds. The process currently holding the lock is hostd-worker(5055). This is likely a temporary condition. Please try your operation again.

    이 오류는 호스트 프로파일의 적용 작업을 통해 구성이 설정되는 동안 여러 작업에서 시스템 구성 정보를 수집하려고 할 경우 나타나는 시스템 경합 때문에 발생합니다. 이러한 오류와 다른 시간 초과 관련 오류 때문에 호스트 프로파일 적용 작업이 시스템에서 완료된 후에도 호스트 프로파일에 캡처된 구성이 전체적으로 적용되어 있지 않을 수 있습니다. 이 경우 호스트에서 규정 준수 검사를 수행하면 어떤 구성 부분이 적용되지 않았는지 표시하고, 적용 작업을 다시 수행하여 규정 비준수 문제를 해결할 수 있습니다.

    해결 방법: 다음 작업 중 하나를 수행하십시오.

    • Auto Deploy를 통해 프로비저닝되지 않은 ESXi 호스트

      1. /etc/vmware/hostd/cmdMo.xml 파일에 다음 항목을 추가하여 적용 작업의 시간 초과 값을 늘립니다.

        <managedObject id="2">
        <type> vim.profile.host.profileEngine.HostProfileManager </type>
        <moId> ha-hostprofileengine-hostprofilemanager </moId>
        --> <timeOutInSeconds> xxxx </timeOutInSeconds> <--****
        <version> vim.version.dev </version>
        <cmd> /usr/bin/sh </cmd>
        <arg id="1"> -l </arg>
        <arg id="2"> -c </arg>
        <arg id="3"> /usr/lib/vmware/hostd/hmo/hostProfileEngine.py --cgi </arg>
        </managedObject>


        여기서 xxxx는 시간 초과 값(초)입니다. 기본적으로 적용 작업은 10분 후면 시간 초과됩니다. 이 입력 값에서 더 긴 시간 초과를 설정할 수 있습니다. 예를 들어, 값 3600은 시간 초과를 1시간으로 늘립니다. 입력하는 값은 특정 호스트 프로파일 구성에 따라 다를 수도 있습니다. 충분히 높은 값을 설정한 후에는 적용 작업 시간 초과 오류가 더 이상 나타나지 않고 작업이 완료될 때까지 vSphere Client에서 해당 작업이 표시됩니다.
      2. hostd를 다시 시작합니다.
    • Auto Deploy를 사용하여 프로비저닝된 호스트

      1. Auto Deploy를 사용하여 프로비저닝된 호스트를 재부팅합니다.
      2. Auto Deploy를 사용하여 프로비저닝한 ESXi 호스트의 경우, ESXi 호스트에서 응답 파일 업데이트 작업을 수행하여 응답 파일이 완성되었는지 확인한 후 호스트를 재부팅합니다.

        그러면 시스템이 초기화되는 동안 호스트 프로파일 및 응답 파일의 구성이 시스템에 적용됩니다. 구성이 많으면 부팅하는 데 시간이 더 오래 걸릴 수 있지만 vSphere Client를 통해 호스트 프로파일을 수동으로 적용하는 것보다는 훨씬 속도가 빠릅니다.
  • 새로 생성된 프로파일을 가진 참조 호스트에 대해 호스트 프로파일 규정 준수 검사가 실패함
    규정 준수를 검사하기 전에 응답 파일을 업데이트하지 않으면 새로 구성된 호스트 프로파일(예: iSCSI로 구성된 호스트 프로파일)에 대한 규정 준수 검사가 실패할 수 있습니다.

    해결 방법:프로파일의 응답 파일을 업데이트한 후에 규정 준수 검사를 수행하십시오.

  • syslog logdir이 경로 없이 데이터 저장소에 설정된 경우 호스트 프로파일을 적용할 수 없음
    esxcli 명령 또는 vSphere Client를 사용하여 syslog 디렉토리를 추가 경로 없이 데이터 저장소에 설정하면 해당 시스템에서 추출된 호스트 프로파일을 다른 호스트에 적용할 수 없습니다.

    예를 들어 다음과 같은 시스템 구성 시에 위와 같은 상황이 발생합니다.
    esxcli system syslog config set --logdir /vmfs/volumes/datastore1

     

    마찬가지로, 호스트의 [구성] 탭의 고급 설정 대화상자에서 Syslog.global.logDir을 datastore1로 설정해도 위와 같은 상황이 발생합니다.

    해결 방법: 다음 작업 중 하나를 수행하십시오.

    • 호스트 프로파일 추출 전에 고급 설정 대화상자에서 "DATASTORE_NAME" 대신 "DATASTORE_NAME /" 값을 갖도록 Syslog.global.logDir을 수정하십시오.
    • Syslog.global.logDir의 고급 구성 옵션과 같은 호스트 프로파일이 "DATASTORE_NAME" 대신 "DATASTORE_NAME /" 값을 갖도록 편집하십시오.

     

  • 호스트 프로파일을 적용하면 vSwitch 및 포트 그룹이 다시 만들어질 수 있음
    호스트 프로파일이 적용될 경우 vSwitch 및 호스트의 포트 그룹이 다시 만들어질 수 있습니다. 호스트가 호스트 프로파일과 호환될 경우에도 이 문제가 발생할 수 있습니다.

    Portgroupprofile 정책 옵션이 기본 값을 사용하도록 설정되면 이 문제가 발생합니다. 이렇게 설정될 경우 프로파일이 적용될 때 프로파일과 호스트 구성 사이의 비교가 잘못되어 실패하는 문제가 발생합니다. 이 때 규정 준수 검사는 통과됩니다. 비교 오류가 발생하면 프로파일 작업이 적용되어 vSwitch와 포트 그룹을 다시 만듭니다. 이에 따라 portgroupprofile의 모든 하위 프로파일이 영향을 받습니다.

    해결 방법: 기본값 사용을 선택하지 말고 원하는 설정에 맞게 프로파일 설정을 변경하십시오.

  • VMware 포함 SNMP 에이전트가 HOST-RESOURCES-MIBhrSWInstalledTable을 통해 잘못된 소프트웨어 설치 날짜를 보고함
    VMware 포함 SNMP 에이전트를 사용하여 설치된 소프트웨어(hrSWInstalledTable RFC 2790)를 폴링하면 HOST-RESOURCES-MIBhrSWInstalledTablehrSWInstalledDate를 틀리게 보고하기 때문에 사용자가 설치한 소프트웨어의 설치 날짜가 틀리게 표시됩니다.

    해결 방법: 올바른 설치 날짜를 검색하려면 esxcli 명령 esxcli software vib list를 사용하십시오.

vCenter Server 및 vSphere Client

  • vCenter Server 하드웨어 상태 탭의 알 수 없는 디바이스 상태
    vCenter Server 하드웨어 상태 탭의 센서 보기에서 일부 PCI 디바이스의 상태가 알 수 없음 알 수 없는 #<number>로 표시됩니다. 일부 디바이스의 최신 PCI ID가 ESXi 호스트의 /usr/share/hwdata/pci.ids파일에 나열되어 있지 않습니다. vCenter Server는 ID를 찾을 수 없는 디바이스를 알 수 없음으로 표시합니다.

    알 수 없음 상태는 중요하지 않으며 주 vSphere 릴리스에서 정기적으로 PCI ID 목록이 업데이트됩니다.

  • VCVA(vCenter Virtual Appliance)에 AutoDeploy를 다시 등록하는 동안 데이터베이스 오류 발생함(KB 2014087).
  • -t 옵션 없이 snmpwalk 명령을 실행하면 오류 메시지가 반환됨
    snmpwalk명령을 실행할 때 SNMP 데이터를 폴링하는 -t또는 -r옵션을 지정하지 않으면 VMware 포함 SNMP 에이전트에 전체 데이터가 표시되지 않고 No response from host라는 오류 메시지가 표시됩니다.

    해결 방법: snmpwalk명령을 실행할 때 -t옵션을 사용하여 시간 초과 간격을 지정하고 -r옵션을 사용하여 재시도 횟수를 설정하십시오. 예: snmpwalk -m all -c public -v1 host-name -r 2 -t 10 variable-name

  • 포함된 SNMP 에이전트 구성을 지우기 위해 vCLI 명령을 실행하면 표시 소스가 재설정되고 트랩 필터가 지워짐
    포함된 SNMP 에이전트 구성을 지우는 vicfg-snmp -rvCLI 명령을 실행하면 이벤트 소스 또는 트랩이 기본값( indications)으로 재설정되고 모든 트랩 필터가 지워집니다.

    해결 방법:없음

  • 포함된 SNMP 에이전트를 사용하도록 설정하면 주소가 이미 사용 중이라는 오류와 함께 작업이 실패함
    포함된 SNMP 에이전트를 사용하도록 설정하지 않은 상태에서 에이전트에 udp/161 이외의 포트를 구성하면 해당 에이전트는 포트의 사용 여부를 확인하지 않습니다. 그러면 에이전트를 사용하도록 설정했을 때 포트 충돌이 발생하여 주소가 이미 사용되고 있습니다.라는 오류 메시지가 발생합니다.

    해결 방법: 포트를 구성하기 전에 포함된 SNMP 에이전트를 사용하도록 설정하십시오.

가상 시스템 관리

  • VMware Tools를 설치한 후 Windows Server 2012 R2 및 Windows 8.1 가상 시스템 외부로 마우스 포인터가 이동하지 못할 수 있음*
    Windows Server 2012 R2 및 Windows 8.1 가상 시스템에 VMware Tools를 설치하면 마우스 포인터가 가상 시스템 외부로 이동하지 못할 수 있습니다. 이 문제는 VMware Tools를 설치하기 전에 USB 2.0 컨트롤러를 구성하는 경우에 발생합니다.

    해결 방법: .vmx파일에 다음 구성 옵션을 설정합니다.
    mouse.vusb.enable = "FALSE"

  • USB 3.0 디바이스용 xHCI 컨트롤러에 사용할 수 있는 드라이버
    가상 하드웨어 버전 8에서는 xHCI 컨트롤러와 USB 3.0 디바이스가 지원됩니다. 그러나 대부분의 운영 체제에서는 xHCI 드라이버를 사용하지 못할 수 있습니다. 게스트 운영 체제에 드라이버가 설치되어 있지 않으면 USB 3.0 디바이스를 사용할 수 없습니다. 현재로서는 Windows 운영 체제에서 사용할 수 있는 드라이버가 없습니다. 드라이버의 사용 가능 여부는 운영 체제 벤더에 문의하십시오. Windows 게스트 운영 체제를 실행하는 가상 시스템을 생성하거나 업그레이드할 경우 기존의 EHCI+UHCI 컨트롤러를 계속해서 사용할 수 있기 때문에 ESXi 호스트 또는 클라이언트 컴퓨터에서 USB 1.1 및 2.0 디바이스를 사용하여 가상 시스템의 USB를 구성할 수 있습니다. Windows 가상 시스템에 xHCI 및 EHCI+UHCI USB 컨트롤러가 있으면 새로 추가하는 USB 1.1 및 USB 2.0 디바이스가 xHCI에 연결되고, 게스트에서 이를 감지하지 못합니다.

    해결 방법: 가상 시스템의 구성에서 xHCI 컨트롤러를 제거하고 USB 디바이스를 EHCI+UHCI에 연결하십시오.

  • 2.6.27보다 이전 버전의 Linux 커널에서 소켓당 코어 수가 2의 제곱이 아닌 값을 보고하지 않음
    ESXi 5.0부터는 다중 코어 가상 CPU에 소켓당 코어 수가 2의 제곱이 아닌 값도 지원됩니다. 2.6.27보다 이전 버전의 Linux 커널에서는 소켓당 코어 수가 2의 제곱인 값만 올바르게 보고됩니다. 예를 들어 일부 Linux 게스트 운영 체제에서는 .vmx 파일에 값을 numvcpus = 6cpuid.coresPerSocket = 3으로 지정하면 물리적 ID 정보가 보고되지 않습니다. 그러나 Linux 커널 2.6.28 이상에서는 CPU 및 코어 토폴로지가 올바르게 보고됩니다.

    해결 방법: 없음

  • Linux 64비트 게스트 운영 체제나 Windows 7 또는 Windows 8 32비트 게스트 운영 체제를 사용하는 가상 시스템에 메모리를 핫 추가하면 기존 가상 메모리를 3GB까지만 늘릴 수 있음
    Linux 64비트 게스트 운영 체제나 Windows 7 및 Windows 8 32비트 게스트 운영 체제를 사용하는 가상 시스템에 메모리를 핫 추가할 경우 다음과 같은 조건이 적용됩니다.

    • 전원이 켜진 가상 시스템의 메모리가 3GB 미만이면 메모리를 3GB까지만 핫 추가할 수 있습니다.
    • 가상 시스템의 메모리가 1GB이면 2GB를 추가할 수 있습니다.
    • 가상 시스템의 메모리가 2GB이면 1GB를 추가할 수 있습니다.
    • 가상 시스템의 메모리가 3444MB이면 128MB를 추가할 수 있습니다.
    • 전원이 켜진 가상 시스템의 메모리가 정확히 3GB이면 메모리를 핫 추가할 수 없습니다.

     

    전원이 켜진 가상 시스템에 3GB 이상의 메모리가 있으면 가상 시스템의 초기 전원 크기 또는 하드웨어 버전의 제한 크기 중 더 작은 크기의 16배까지 가상 시스템 메모리를 늘릴 수 있습니다. 하드웨어 버전 제한 크기는 하드웨어 버전 7의 경우에는 255GB이고 하드웨어 버전 8의 경우에는 1011GB입니다.

    Linux 64비트 게스트 운영 체제와 32비트 Windows 7 및 Windows 8 게스트 운영 체제에서는 가상 시스템의 전원이 켜져 있을 때 메모리가 3GB보다 작거나 같은 상태에서 3GB 이상으로 증가하면 운영 체제가 중지됩니다. 이 vSphere 제한은 게스트 운영 체제에서 그러한 버그가 트리거되지 않도록 도와줍니다.

    해결 방법:없음

  • 하드웨어 버전 7 가상 시스템에서의 CPU 핫 추가 오류
    가상 CPU 핫 추가 기능은 하드웨어 8 가상 시스템에서 다중 코어 가상 CPU 기능을 통해 지원됩니다.
    소켓당 코어 수가 2개 이상인 하드웨어 버전 7 가상 시스템의 경우 [가상 시스템 속성] 대화상자에서 CPU 핫 추가를 사용하도록 설정한 후 가상 CPU를 핫 추가하려고 하면 작업이 실패하고 이 가상 시스템은 CPU 핫 플러깅을 지원하지 않습니다.라는 오류 메시지가 표시됩니다.

    해결 방법: 하드웨어 버전 7 가상 시스템에서 CPU 핫 추가 기능을 사용하려면 가상 시스템 전원을 끄고 소켓당 코어 수를 1로 설정하십시오.
    최상의 결과를 얻으려면 하드웨어 버전이 8인 가상 시스템을 사용하십시오.

  • 2007년 11월 20일 날짜의 LSISAS 드라이버를 사용하는 Windows 2003 32비트 시스템에 메모리를 핫 추가하면 가상 시스템이 응답하지 않음
    2007년 11월 20일 날짜의 LSI-SAS 드라이버는 메모리가 3GB를 초과할 경우 시스템 시작 시 없었던 메모리를 올바르게 인식하지 못합니다. 메모리가 핫 추가 작업 이전에는 3GB 미만이었지만 핫 추가 작업 이후에는 3GB 이상이 된 시스템에 메모리를 핫 추가하면 Windows 상태가 손상되고 결과적으로 Windows가 더 이상 응답하지 않습니다.

    해결 방법: LSI 웹 사이트에서 제공하는 최신 LSI SAS 드라이버를 사용하십시오. Windows 2003 가상 시스템에 LSISAS1068 가상 어댑터를 사용하지 않습니다.

  • MacOS X Server 10.6.5 이상의 게스트 운영 체제에서 요약 탭에 잘못된 IPv6 주소가 나타남
    vSphere Client의 요약 탭에서 모두 보기를 클릭하면 IPv6 주소 목록에 잘못된 링크 로컬 주소가 포함됩니다. 잘못된 주소는 ifconfig파일을 실행한 후 명령의 출력을 vSphere Client의 주소 목록과 비교하면 표시됩니다. 올바르지 않은 이 정보는 vim-cmd명령을 실행하여 GuestInfo데이터를 가져올 때도 나타납니다.

    해결 방법: 없음

  • 많은 수의 가상 시스템을 동시에 생성하면 파일 작업이 실패함
    동일한 디렉토리 내에 여러 개의 가상 시스템을 동시에 생성하면 스토리지 시스템의 작업량이 너무 많아 일부 파일 작업이 실패합니다. 이 경우 vim.fault.CannotAccessFile오류 메시지가 표시되고 가상 시스템 생성 작업이 실패합니다.

    해결 방법: 한 번에 64개 정도의 소규모 단위로 가상 시스템을 생성하거나, 가상 시스템을 서로 다른 데이터스토어 또는 동일한 데이터스토어 내의 서로 다른 디렉토리에 생성하십시오.

  • ESXi 호스트에서 가상 시스템으로 전달한 USB 디바이스가 vMotion을 사용한 마이그레이션 과정에서 연결이 끊어짐
    ESXi 호스트에서 가상 시스템에 USB 디바이스를 전달한 경우, vMotion을 사용한 마이그레이션 과정에서 연결 상태를 유지하도록 디바이스가 구성되어 있어도 실제 마이그레이션 작업 시 디바이스 연결이 끊어질 수 있습니다. DRS로 마이그레이션을 트리거한 경우에도 디바이스 연결이 끊어질 수 있습니다. 디바이스는 연결이 끊어지면 호스트로 복구되고 가상 시스템에 더 이상 연결되지 않습니다. 이 문제는 USB 디바이스가 여러 개 연결되어 있는 가상 시스템을 마이그레이션할 때 더 자주 발생하지만, 연결된 디바이스 수가 적은 경우에도 가끔씩 발생합니다.

    해결 방법:USB 디바이스가 물리적으로 연결되어 있는 ESXI 호스트로 가상 시스템을 마이그레이션한 다음 가상 시스템에 디바이스를 다시 연결하십시오.

  • 액세스할 수 없는 SCSI 패스스루 디바이스를 가진 가상 시스템의 전원을 켤 수 없음
    가상 시스템에 연결된 SCSI 패스스루 디바이스에 가상 시스템의 호스트에서는 액세스할 수 없는 디바이스 백업이 있으면 VM의 전원을 켜는 동안 ESX 호스트에서 예기치 않은 오류를 수신했습니다.라는 오류가 발생하고 가상 시스템 전원을 켤 수 없습니다.

    해결 방법: 다음 절차 중 하나를 수행하십시오.

    • 가상 시스템의 호스트에 물리적 SCSI 디바이스가 있는 경우, SCSI 패스스루 디바이스의 디바이스 백업을 호스트의 물리적 SCSI 디바이스로 변경한 후 가상 시스템 전원을 켭니다.
    • 호스트에 물리적 SCSI 디바이스가 없으면 가상 시스템에서 SCSI 패스스루 디바이스를 제거한 후 가상 시스템 전원을 켭니다.

     

  • VMware Tools 시스템 트레이 아이콘이 최신 버전이 아닌 상태로 잘못 표시됨
    가상 시스템에서 vSphere 4.x와 함께 설치된 VMware Tools를 사용하는 경우 게스트 운영 체제의 시스템 트레이 아이콘이 최신 버전이 아닌 상태로 잘못 표시됩니다. vSphere 5.0 Client 및 vSphere Web Client에서는 가상 시스템의 요약 탭에 상태가 최신 버전 아님(정상입니다. 이 버전이 기존 호스트에서 지원되지만 새 기능이 작동하지 않으면 업그레이드하십시오.)으로 표시됩니다. vSphere 4.x와 함께 설치된 VMware Tools도 지원되며 vSphere 5.0에서 사용하기 위해 반드시 업그레이드할 필요는 없습니다.

    해결 방법: vSphere 5.0의 경우 vSphere Client 또는 vSphere Web Client에서 가상 시스템의 요약 탭을 사용하여 VMware Tools의 상태를 확인하십시오. 최신 버전이 아닌 상태로 표시되지만 업그레이드하지 않으려면 다음의 설정을 사용하여 게스트 운영 체제에서 업그레이드 메시지와 주의 아이콘을 해제할 수 있습니다.

    • VMware Tools를 자동으로 업그레이드하도록 가상 시스템이 설정되어 있지만 지원되는 최하 버전으로 가상 시스템을 계속 사용하려면 특정 속성을 고급 구성 매개 변수로 설정합니다. 이 경우 tools.supportedOld.autoupgradeFALSE로 설정합니다. 이렇게 설정하면 게스트에서 지원되지 않는 VMware Tools를 나타내는 느낌표 아이콘이 사용되지 않습니다.
    • VMware Tools가 최신 버전이 아니고 시스템 트레이의 VMware Tools 아이콘에 나타나는 느낌표 아이콘을 사용하지 않으려면 특정 속성을 고급 구성 매개 변수로 설정합니다. 이 경우에는 tools.supportedOld.warnFALSE로 설정합니다.

    위의 설정은 요약 탭에 상태가 '지원되지 않음' 또는 '오류'로 표시되어도 VMware Tools의 동작에는 영향을 주지 않습니다. 이러한 경우 느낌표 아이콘이 나타나고, 고급 구성 설정이 FALSE로 설정되어 있어도 VMware Tools가 자동으로 업그레이드됩니다(자동 업그레이드로 구성된 경우). 고급 구성 매개 변수는 가상 시스템의 구성 파일인 .vmx를 편집하거나, vSphere Client 또는 vSphere Web Client를 사용하여 가상 시스템 설정을 편집하는 방법으로 설정할 수 있습니다. 옵션 탭에서 고급 > 일반을 선택하고 구성 매개 변수를 클릭합니다.

  • ESXi 5.0 이상에서 전원 주기 동안 Tools 확인 및 업그레이드 기능이 작동하지 않음
    ESX/ESXi 4.1에서는 전원 주기 동안 Tools 확인 및 업그레이드 옵션을 사용하여 가상 시스템 종료 시 VMware Tools를 업그레이드할 수 있었습니다. 그러나 ESXi 5.0 이상에서는 이 기능을 사용할 수 없습니다. 이 기능과 관련된 설명서의 모든 절차를 무시하십시오.

    해결 방법: VMware Tools를 수동으로 설치하십시오.

  • CPU 및 메모리 사용량이 많은 Mac OS X 게스트 운영 체제의 경우 가상 시스템을 일시 중단 또는 재개하거나 마이그레이션 작업을 수행하는 동안 커널 패닉이 발생함
    CPU 및 메모리 로드가 많은 호스트에서 vMotion을 사용하여 가상 시스템을 마이그레이션하거나 가상 시스템을 일시 중단 또는 재개하면 TLB(Translation Lookaside Buffer) 무효화 요청이 시간 초과될 수 있습니다. 이러한 경우 Mac OS X 게스트 운영 체제가 응답을 중지하고 다음 중 하나와 유사한 메시지가 vmware.log 파일에 기록됩니다.
    The guest OS panicked. The first line of the panic report is: Panic(CPU 0): Unresponsive processor
    The guest OS panicked. The first line of the panic report is: panic(cpu 0 caller 0xffffff8000224a10): "pmap_flush_tlbs()timeout: " "cpu(s) failing to respond to interrupts,pmap=0xffffff800067d8a0 cpus_to_respond=0x4"@/SourceCache/xnu/xnu-1504.7.4/osfmk/x86_64/pmap.c:2710

    해결 방법: 호스트의 CPU 및 메모리 로드를 줄이거나 가상 CPU 수를 1로 줄이십시오.

  • 복제를 사용하도록 설정된 경우 ESXi 5.0에서 ESX/ESXi 4.1로 가상 시스템을 복제하거나 재배치하는 작업이 실패함
    hbr enablereplication명령을 사용하여 ESXi 5.0 호스트에 상주하는 가상 시스템에서 복제를 사용하도록 설정한 후 가상 시스템을 ESX/ESXi 4.1 또는 이전 버전의 호스트에 복제하면 작업이 지원되지 않습니다.라는 오류 메시지와 함께 검증이 실패합니다. ESXi 5.0 가상 시스템을 ESX/ESXi 4.1 호스트에 복제할 수 없습니다.

    해결 방법:다음 해결 방법 중 하나를 선택하십시오.

    • 가상 시스템을 ESXi 5.0 호스트에 복제합니다.
    • 새 가상 시스템을 ESX/ESXi 4.1 호스트에 복제하거나 재배치합니다.
  • 사용자 지정 스크립트 경로에 ASCII가 아닌 문자가 포함되어 있는 경우 Linux 게스트 운영 체제에서 VMware-Toolbox UI를 사용하여 VMware Tools 사용자 지정 스크립트를 설정할 수 없음
    시스템 로케일이 zh_CN.gb18030, ja_JP.eucjp또는 ko_KR.euckr인 경우 ASCII가 아닌 문자는 Linux 게스트 운영 체제의 VMware Tools 속성 창에 X표시가 있는 네모 상자로 나타납니다. 이런 경우에는 사용자 지정 VMware Tools 스크립트를 설정할 수 없습니다.

    해결 방법: 다음 작업 중 하나를 수행하십시오.

    • 사용자 지정 VMware Tools 스크립트가 있는 디렉토리 이름을 ASCII 문자만 포함하도록 변경합니다.
    • 셸 프롬프트에 vmware-toolbox-cmd script명령을 입력하여 사용자 지정 VMware Tools 스크립트를 설정합니다.

     

  • Windows XP 및 Windows 2003을 사용자 지정한 후 ASCII가 아닌 DNS 접미사가 올바르게 설정되지 않음
    사용자 지정 규격 마법사를 사용하여 Windows XP 또는 Windows 2003을 사용자 지정할 경우, 네트워크 속성 DNS 탭에 ASCII가 아닌 DNS 접미사를 입력하면 성공적으로 사용자 지정된 것으로 표시되지만 실제로는 ASCII가 아닌 DNS 접미사가 올바르게 설정되지 않습니다.

    해결 방법:Windows XP 및 Windows 2003에서 DNS 접미사를 수동으로 설정하십시오.

  • VMware 포함 SNMP 에이전트가 HOST-RESOURCES-MIB 모듈에 있는 hrDeviceStatus개체의 프로세서 상태를 잘못 보고함
    시스템 세부 정보를 보고할 때 VMware 포함 SNMP 에이전트가 프로세서 상태를 잘못 표시합니다. SNMP 에이전트가 HOST-RESOURCES-MIB의 hrDeviceStatus에 대해 프로세서 상태를 알 수 없음으로 보고합니다. HOST-RESOURCES-MIB의 ESX/net-snmp 구현은 hrDeviceStatus개체를 반환하지 않으며 이것은 알 수 없음상태의 보고와 동일합니다.

    해결 방법: CIM API 또는 SMBIOS 데이터를 사용하여 프로세서 상태를 확인하십시오.

  • .vmsd 스냅샷 데이터베이스 파일의 스냅샷 디스크 경로와 델타 디스크 설명자 파일의 상위 경로가 마이그레이션 후 업데이트되지 않음
    snapshot.redoNotWithParentTRUE로 설정되었을 때 snapshotDirectory설정을 데이터베이스 A에서 데이터베이스 B로 변경할 경우 잘못된 스냅샷 구성이 검색되었습니다.라는 오류 메시지가 표시될 수 있습니다. 다음 조건을 모두 충족할 경우 이런 문제가 발생합니다.

    • 스냅샷 트리에서 이전 스냅샷으로 되돌리고 해당 스냅샷 시점에서 새로운 스냅샷을 생성합니다. 그 결과 비선형 스냅샷 트리 계층이 만들어집니다.
    • 디스크 체인의 디스크 링크가 여러 데이터 저장소에 걸쳐 있고 소스와 대상 데이터 저장소 모두를 포함합니다. 이 상황은 다른 데이터스토어를 한 번 이상 가리키도록 snapshotDirectory설정을 변경하고 snapshotDirectory변경 사이에 가상 시스템 스냅샷을 생성할 경우 발생합니다. 예를 들어, snapshotDirectory가 데이터 저장소 A로 설정된 가상 시스템의 스냅샷을 생성하고 이전 스냅샷으로 되돌린 다음 snapshotDirectory설정을 데이터 저장소 B로 변경하고 추가 스냅샷을 생성합니다. 이제 가상 디스크를 데이터 저장소 B에서 데이터 저장소 A로 마이그레이션합니다.

    가장 좋은 방법은 스냅샷 디렉토리에 상위 및 하위 스냅샷을 모두 저장하는 기본 설정을 유지하는 것입니다. snapshotDirectory설정 변경 또는 데이터 저장소 변경 중간에 스냅샷 생성은 피하십시오. snapshot.redoNotWithParentTRUE로 설정했다면, 현재 가상 시스템이 사용하지 않고 있는 데이터 저장소로 전체 스토리지 마이그레이션을 수행하십시오.

     

    해결 방법: 디스크 경로 참조를 수동으로 스냅샷 데이터베이스 파일 및 디스크 설명자 파일의 올바른 데이터스토어 경로로 업데이트하십시오.

마이그레이션
  • DST(일광 절약 시간제) 전환 시 성능 차트의 시간 축에 변경된 DST 시간이 업데이트되지 않음
    예를 들어, DST를 준수하는 지역의 로컬 시계를 2011년 3월 27일 일요일 오전 3시에 1시간 앞으로 설정했습니다. 이 경우 성능 차트에서 시간 축은 ..., 2:00, 2:20, 2:40, 4:00, 4:20, ...같이 오전 3시로 시작되는 눈금이 생략되어야 합니다. 그러나 실제 레이블은 ..., 2:00, 2:20, 2:40, 3:00, 3:20, 3:40, 4:00, 4:20, ...같이 표시됩니다.

    해결 방법: 없음

  • 디스크 포맷 변경 옵션을 지정하여 Storage vMotion 작업을 수행한 이후에도 가상 시스템 디스크가 원래 포맷으로 유지됨
    ESXi 4.1 또는 이전 버전을 실행하는 호스트에서 전원이 켜진 가상 시스템에 대해 Storage vMotion 작업을 수행하는 동안 디스크 포맷을 빠르게 비워지는 씩 프로비저닝 포맷으로 변경하려고 해도 포맷이 변환되지 않습니다. Storage vMotion 작업은 성공적으로 완료되지만 ESX/ESXi 4.1 및 이전 버전에 내재된 제한 때문에 디스크가 원래 포맷으로 유지됩니다. ESXi 5.0 호스트에서 가상 시스템에 대해 동일한 작업을 수행하면 포맷이 성공적으로 변환됩니다.

    해결 방법:없음

VMware HA 및 Fault Tolerance
  • 호스트 오류가 발생할 경우 vSphere HA가 vMotion을 사용하여 마이그레이션되는 가상 시스템을 다시 시작하지 못함
    가상 시스템이 하나의 호스트에서 다른 호스트로 마이그레이션되는 동안 원래 호스트에 오류가 발생하고 응답이 없거나 가상 시스템의 구성 파일을 포함하는 데이터 저장소에 대한 액세스가 끊길 수 있습니다. 그러한 오류가 발생하고 vMotion도 따라서 오류가 발생하면 vSphere HA가 가상 시스템을 다시 시작하지 않을 수 있으며, 보호도 못할 수 있습니다.

    해결 방법: 가상 시스템에 오류가 발생하고 vSphere HA가 가상 시스템을 다시 시작하지 않으면, 가상 시스템 전원을 수동으로 켜십시오. 그러면 vSphere HA가 가상 시스템을 보호합니다.

게스트 운영 체제

  • Windows 8 또는 Windows Server 2012 가상 시스템에서 USB 3.0 디바이스가 작동하지 않을 수 있음
    Windows 또는 Linux 운영 체제를 클라이언트로 사용하는 동안 Windows 8 또는 Windows Server 2012 가상 시스템에서 USB 3.0 디바이스를 사용하면 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    포트 재설정 실패
    USB 설정 SEL 요청 실패함

    해결 방법: 없음

  • PXE 부팅하거나 RHEL 6을 재부팅하면 빈 화면이 나타남
    Red Hat 부트 로더를 사용하여 EFI 가상 시스템에서 RHEL 6으로 PXE 부팅하려고 하면 운영 체제를 선택한 이후에 빈 화면이 나타납니다. 일반 RHEL 6 설치의 grub.conf 파일에서 splashscreen지시문을 제거한 후 가상 시스템을 재부팅했을 때도 이 문제가 나타납니다.

    해결 방법: splashscreen지시문이 있고 부트 로더가 액세스할 수 있는 파일을 참조하는지 확인하십시오.

  • Mac OS X 10.6.x를 재부팅하면 여러 vNIC가 임의로 연결이 끊어짐
    Mac OS X 10.6을 재부팅하면 n >=3 e1000 vNIC에 대해 잘못된 게스트 링크 상태가 표시됩니다.

    n(e1000)=3인 경우 게스트 링크 상태는 2(연결됨), 1(연결 끊김)입니다.
    n(e1000)=5인 경우 게스트 링크 상태는 3(연결됨), 2(연결 끊김)입니다.

    해결 방법: ifconfig 유틸리티를 사용하여 어댑터를 수동으로 활성화/비활성화하십시오. 수동 활성화/비활성화는 다음 재부팅 프로세스까지 유지되지 않습니다.

지원되는 하드웨어
  • IBM x3550 M2의 부팅 시 기존 비디오 적용을 사용하지 않도록 설정해야 함
    IBM x3550 M2에는 부팅 시 기존 비디오 적용이라고 하는 펌웨어 옵션이 있는데, 이 옵션은 UEFI(Unified Extensible Firmware Interface)로 부팅할 경우에 기존 INT10h 비디오를 사용할 수 있도록 지원합니다. 이 옵션은 ESXi 5.0과 호환되지 않기 때문에 사용하지 않도록 설정해야 합니다.

    해결 방법: IBM x3550 M2를 UEFI로 부팅할 때 F1 키를 눌러 펌웨어 설정으로 들어간 후 System Settings > Legacy Support > Force Legacy Video on Boot를 선택하고 Disable을 클릭하십시오.

기타
  •  
    • vCenter Server 하드웨어 상태에서 센서 데이터에 대한 부정확한 모니터링(KB 2012998).

    • 로그 파일 위치가 /var/log에서 /var/run/log로 변경됨
      ESXi 5.0 로그 파일 위치는 /var/run/log입니다. 이전 버전과의 호환성을 위해 로그 파일에는 이전 위치인 /var/log부터 최근 로그 파일의 현재 위치인 /var/run/log까지 링크가 포함되어 있습니다. 회전 로그 파일에 대한 링크는 로그 파일에 포함되지 않습니다.

      해결 방법: 없음

    • tar 설치 관리자를 사용하여 VMware Tools를 제거한 이후 Linux 가상 시스템에 OSP를 설치할 수 없음
      tar 설치 관리자를 사용하여 Linux 가상 시스템에 설치되어 있는 VMware Tools를 제거하면 시스템에 파일이 남아 있습니다. 이 경우에는 OSP를 설치할 수 없습니다.

      해결 방법: 다음 명령을 실행하십시오. rm -rf /usr/lib/vmware-tools /etc/vmware-tools
    • Internet Explorer LAN 설정에 프록시 서버가 설정되어 있으면 PowerCLI를 사용하여 온라인 디포를 추가하는 작업이 가끔씩 실패함
      PowerCLI에서 Add-ESXSoftwareDepotcmdlet을 사용하여 온라인 디포를 추가할 수 있습니다. 사용 중인 시스템에 프록시 서버가 설정되어 있는 특정 상황에서는 PowerCLI에서 해당 세션에 온라인 디포를 추가하지 못합니다.
      이 오류는 다음과 같은 조건에서만 발생합니다.
      • 고객 사이트에서 웹 액세스를 위해 HTTP 프록시를 사용해야 하는 경우
      • 고객이 내부 네트워크에 디포를 호스트하는 경우
      • 고객 프록시를 사용하여 내부 네트워크에 있는 디포에 연결할 수 없는 경우

      해결 방법:
      1. IE LAN 설정에서 프록시 서버를 사용하지 않도록 설정합니다.
      2. PowerCLI에서 온라인 디포를 추가합니다.
  •