VMware ESXi 5.1 업데이트 2 | 2014년 1월 16일 | 빌드 1483097

마지막 업데이트 날짜: 2014년 1월 16일

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • 추가 게스트 운영 체제 지원 -이 릴리스에서는 여러 게스트 운영 체제에 대한 지원을 업데이트합니다.
    이 릴리스에서 지원되는 게스트 운영 체제의 전체 목록은 VMware 호환성 가이드를 참조하십시오.

  • 해결된 문제 이 릴리스에서는 해결된 문제 섹션에서 설명하는 여러 가지 버그 수정 사항도 제공합니다.

ESXi 5.1의 이전 릴리스

ESXi 5.1의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 ESXi 5.1 릴리스의 릴리스 정보를 보려면 다음을 참조하십시오.

국제화

VMware vSphere 5.1 업데이트 2는 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체

호환성 및 설치

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. 이 사이트에서는 ESXi나 vCenter Server를 설치하기 전에 사용할 수 있는 관리 및 백업 에이전트에 대한 정보도 확인할 수 있습니다.

vSphere Client와 vSphere Web Client는 vCenter Server 및 모듈 ZIP 파일에 함께 패키지되어 있으며 VMware vCenter™ 설치 관리자 마법사에서 클라이언트 하나 또는 둘 다를 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.1.2에는 ESXi 5.1 업데이트 2 및 vCenter Server 5.1 업데이트 2 릴리스에 대한 지원이 추가되었습니다. VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

ESXi의 하드웨어 호환성

vSphere 5.1 업데이트 2와 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 2 정보를 참조하십시오.

이번 릴리스에 대해 지원되는 프로세서 목록이 확장되었습니다. 이번 릴리스와 호환되는 프로세서를 확인하려면 VMware 호환성 가이드를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

ESXi 5.1 업데이트 2와 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 2 정보를 참조하십시오.

vSphere 5.1부터 이전 게스트 운영 체제에 대한 지원 수준 변경이 도입되었습니다. 각 지원 수준에 대한 설명은 기술 자료 문서 2015161을 참조하십시오. VMware 호환성 가이드에서는 모든 운영 체제 릴리스와 VMware 제품 릴리스에 대한 자세한 지원 정보를 제공합니다.

각 운영 체제 벤더가 더 이상 지원하지 않는 다음 게스트 운영 체제 릴리스는 더 이상 사용되지 않습니다. 이러한 게스트 운영 체제는 vSphere 5.1 업데이트 2에서는 지원되지만 이후 vSphere 릴리스에서는 지원되지 않습니다.

  • Windows NT
  • 모든 16비트 Windows 및 DOS 릴리스(Windows 98, Windows 95, Windows 3.1)
  • Debian 4.0 및 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • SUSE Linux Enterprise 9 SP4 이전
  • SUSE Linux Enterprise 10 SP3 이전
  • SUSE Linux Enterprise 11 SP1 이전
  • Ubuntu 릴리스 8.04, 8.10, 9.04, 9.10 및 10.10
  • 모든 Novell Netware 릴리스
  • 모든 IBM OS/2 릴리스

 

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 5.1 업데이트 2에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 더 이상 지원되지 않습니다. ESXi 5.1 업데이트 2에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 단계별 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 특히 다음 정보를 읽어 보십시오.

타사 솔루션 마이그레이션

호스트 업그레이드의 일부로 ESX 또는 ESXi 호스트에 설치된 타사 솔루션은 직접 마이그레이션할 수 없습니다. ESXi 5.0과 ESXi 5.1 간의 아키텍처 변경으로 타사 구성 요소가 손실되거나 시스템이 불안정해질 수 있습니다. 이러한 마이그레이션을 성공적으로 수행하려면 Image Builder를 사용하여 사용자 지정 ISO 파일을 생성합니다. 타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 5.1 업데이트 2에서는 LAHF 및 SAHF CPU 명령 집합이 포함된 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.1 업데이트 2와 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 보라색 화면이 나타나면서 비호환성 정보 메시지가 표시되면 vSphere 5.1 업데이트 1을 설치하거나 vSphere 5.1 업데이트 1로 업그레이드할 수 없습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

ESXi 5.1 업데이트 2에서는 ESX/ESXi 호스트를 업그레이드하기 위해 다음과 같은 도구를 제공합니다.

  •   CD-ROM, DVD 또는 USB 플래시 드라이브의 ESXi 설치 관리자 ISO 이미지를 사용하여 대화형으로 업그레이드. CD-ROM, DVD 또는 USB 플래시 드라이브에서 ESXi 5.1 업데이트 2 설치 관리자를 실행하여 대화형 업그레이드를 수행할 수 있습니다. 이 방법은 호스트 수가 적은 경우에 적절합니다.
  • 스크립트로 작성된 업그레이드 수행. 효율적인 자동 업그레이드를 제공하는 업데이트 스크립트를 호출하여 ESX/ESXi 버전 4.x 호스트, ESXi 5.0.x 및 ESXi 5.1.x 호스트에서 ESXi 5.1 업데이트 2로 업그레이드하거나 마이그레이션할 수 있습니다. 스크립트로 작성된 업그레이드를 수행할 경우 여러 호스트를 효율적으로 배포할 수 있습니다. 스크립트를 사용하여 CD-ROM이나 DVD 드라이브에서 ESXI를 업그레이드하거나 설치 관리자를 PXE 부팅할 수 있습니다.

  • vSphere Auto Deploy. ESXi 5.x 호스트가 vSphere Auto Deploy를 사용하여 배포된 경우 Auto Deploy를 통해 ESXi 업그레이드가 포함된 새 이미지 프로파일로 재부팅하여 호스트를 재프로비저닝할 수 있습니다.

  • esxcli. esxcli 명령줄 유틸리티를 통해 vmware.com의 다운로드 디포나 VMware 파트너가 제공하는 디포로부터 다운로드된 ZIP 파일에서 ESXi 5.1.x 호스트로 업데이트하거나 패치를 적용할 수 있습니다. esxcli를 사용하여 ESX/ESXI 5.1 이전 버전에서 ESX 또는 ESXI 5.1.x 호스트 버전으로 업그레이드할 수는 없습니다.

ESXi 5.1 업데이트 2로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.1 업데이트 2로의 업그레이드를 위해 지원되는 경로

ESX 4.0:
포함 버전:
ESX 4.0 업데이트 1
ESX4.0 업데이트 2

ESX4.0 업데이트 3
ESX 4.0 업데이트 4

ESXi 4.0:
포함 버전:
ESXi 4.0 업데이트 1
ESXi 4.0 업데이트 2

ESXi 4.0 업데이트 3
ESXi 4.0 업데이트 4

ESX 4.1:
포함 버전:
ESX 4.1 업데이트 1
ESX 4.1 업데이트 2

ESX 4.1 업데이트 3

 

ESXi 4.1 :
포함 버전:
ESXi 4.1 업데이트 1

ESXi 4.1 업데이트 2
ESXi 4.1 업데이트 3

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1

ESXi 5.0 업데이트 2
ESXi 5.0 업데이트 3

ESXi 5.1:
포함 버전:
ESXi 5.1 업데이트 1

VMware-VMvisor-Installer-5.1.0.update02-xxxxxxx.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드

update-from-esxi5.1-5.1_update02.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

아니요

아니요

VMware 포털(온라인)에서 다운로드한 패치 정의 사용

VMware vCenter Update Manager(패치 기준선 포함)

아니요

아니요

아니요

아니요

아니요

VMware vSphere 5.1 업데이트 2의 오픈 소스 구성 요소

vSphere 5.1 업데이트 2에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/open_source.html에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vSphere Client. vSphere 5.1에서는 vSphere Web Client를 통해서만 새로운 vSphere 기능을 모두 사용할 수 있습니다. 기존 vSphere Client가 계속해서 작동하면서 vSphere 5.0과 동일한 기능 세트를 지원하지만 vSphere 5.1의 새로운 기능은 지원하지 않습니다.

    vSphere 5.1과 해당 후속 업데이트 및 패치 릴리스는 기존 vSphere Client를 포함하는 마지막 릴리스입니다. VMware vSphere의 이후 주요 릴리스에는 vSphere Web Client만 포함됩니다.

    vSphere 5.1의 경우 기존 vSphere Client의 버그 수정은 보안 또는 중요 문제로 제한됩니다. 중요 버그는 지정된 제품 기능에서 벗어나 데이터 손상, 데이터 손실, 시스템 충돌 또는 상당한 고객 애플리케이션 다운타임을 초래하는 것으로, 구현 가능한 해결 방법이 없습니다.

  • VMware Toolbox. vSphere 5.1은 VMware Tools 그래픽 사용자 인터페이스인 VMware Toolbox를 지원하는 최근 릴리스입니다. VMware에서는 모든 VMware Tools 기능을 수행하는 Toolbox CLI(명령줄 인터페이스)를 지속적으로 업데이트하고 지원할 것입니다.

  • VMI 반가상화. vSphere 4.1은 VMI 게스트 운영 체제 반가상화 인터페이스를 지원하는 마지막 릴리스였습니다. 이후 vSphere 릴리스에서도 VMI를 실행할 수 있도록 VMI를 사용하는 가상 시스템을 마이그레이션하는 데 대한 자세한 내용은 기술 자료 문서 1013842를 참조하십시오.

  • Windows 게스트 운영 체제 사용자 지정. vSphere 5.1은 Windows 2000 게스트 운영 체제 사용자 지정 기능을 지원하는 마지막 릴리스입니다. VMware에서는 새로운 버전의 Windows 게스트를 위한 사용자 지정 기능을 지속적으로 지원할 것입니다.

  • VMCI 소켓. 게스트 간 통신(가상 시스템 간 통신)은 vSphere 5.1 릴리스에서 더 이상 사용되지 않습니다. 이 기능은 다음 주요 릴리스에서 제거됩니다. 호스트 및 게스트 간 통신은 계속 지원됩니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi510-Update02에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201401201-UG: ESXi 5.1 esx-base vib 업데이트
ESXi510-201401202-UG: ESXi 5.1 tools-light vib 업데이트
ESXi510-201401203-UG: ESXi 5.1 net-tg3 vib 업데이트
ESXi510-201401204-UG: ESXi 5.1 net-e1000e vib 업데이트
ESXi510-201401205-UG: ESXi 5.1 scsi-rste vib 업데이트
ESXi510-201401206-UG: ESXi 5.1 scsi-mpt2sas vib 업데이트
ESXi510-201401207-UG: ESXi 5.1 sata-ata-piix vib 업데이트
ESXi510-201401208-UG: ESXi 5.1 sata-ahci vib 업데이트


패치 릴리스 ESXi510-Update01 Security-only에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201401101-SG: ESXi 5.1 esx-base vib 업데이트
ESXi510-201401102-SG: ESXi 5.1 tools-light vib 업데이트
ESXi510-201401103-SG: ESXi 5.1 esx-xlibs vib 업데이트

패치 릴리스 ESXi510-Update02에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20140102001-standard
ESXi-5.1.0-20140102001-no-tools

패치 릴리스 ESXi510-Update02 Security-only에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20140101001s-standard
ESXi-5.1.0-20140101001s-no-tools


패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 해결된 문제에 대해 설명합니다.

CIM 및 API

  • sfcbd에서 inode가 소진되어 vCenter Server에서 ESXi 호스트의 연결이 끊김
    vCenter Server에서 ESXi 호스트의 연결이 끊기고 호스트가 vCenter Server에 다시 연결될 수 없습니다. 이 문제는 하드웨어 모니터링 서비스(sfcdb)가 /var/run/sfcb디렉토리를 5000개 이상의 파일로 채우기 때문에 발생합니다.

    /var/log/에 있는 hostd.log파일에 호스트의 공간이 부족하다고 표시됩니다.
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file. Failed with reason: No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file. Failed with reason: No space left on device


    /var/log에 있는 vmkernel.log파일에 호스트에 inode가 부족하다고 표시됩니다.
    cpu4:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: annot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 제공자가 잘못된 오류 메시지를 표시할 수 있음
    CIM 제공자가 다음과 유사한 오류 메시지를 잘못 표시할 수 있습니다.
    \"요청 헤더 ID(886262) != 프로세스 5에서 제공자 429에 대한 요청의 응답 헤더 reqId(0). 응답을 중지합니다.\"

    이 문제는 이 릴리스에서 오류 로그를 업데이트하여 해결되었으며 sfcbd 관리 에이전트를 다시 시작하면 다음과 유사한 오류 메시지가 올바르게 표시됩니다.
    헤더 ID(373) 프로세스 0에서 제공자 1에 대한 요청에 실패했습니다. 오류: 제공자의 응답을 기다리는 동안 시간 초과(또는 다른 소켓 오류)가 발생했습니다.
  • 하드웨어 모니터링 서비스가 중지되고 하드웨어 상태 탭에 오류 메시지만 표시됨
    하드웨어 상태 탭에서 상태를 표시하지 않고 다음과 유사한 오류 메시지를 표시합니다.
    이 호스트의 하드웨어 모니터링 서비스가 응답하지 않거나 사용할 수 없습니다.

    하드웨어 모니터링 서비스(sfcdb)가 중지되고 syslog파일에 다음과 유사한 항목이 포함됩니다.

    sfcb-smx[xxxxxx]: sfcb-smx[xxxxxx]: spRcvMsg Receive message from 12 (return socket: 6750210)
    sfcb-smx[xxxxxx]: ---- spRcvMsg drop bogus request chunking 6 payLoadSize 19 chunkSize 0 from 12 resp 6750210
    sfcb-smx[xxxxxx]: spRecvReq returned error -1. Skipping message.
    sfcb-smx[xxxxxx]: sspRcvMsg Receive message from 12 (return socket: 4)
    sfcb-smx[xxxxxx]: --- spRcvMsg drop bogus request chunking 220 payLoadSize 116 chunkSize 104 from 12 resp 4
    ...
    ...
    sfcb-vmware_int[xxxxxx]: spGetMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]: rcvMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]: Timeout or other socket error



    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 서버에서 WS 관리 GetInstance () 작업을 수행하면 wsa:DestinationUnreachable 오류가 발생할 수 있음
    일부 ESXi 서버에서 http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000에 대해 WS 관리 GetInstance ()작업을 수행하면 wsa:DestinationUnreachable오류가 발생할 수 있습니다. IPMI(Intelligent Platform Management Interface) BMC(베이스보드 관리 컨트롤러) 센서를 사용하는 시스템에서 CIM gi/ei/ein작업에 대해 OMC_MCFirmwareIdentity개체 경로가 일치하지 않습니다. 결과적으로 ESXi 서버에서 WS-Management GetInstance ()작업을 수행하면 wsa:DestinationUnreachable오류가 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vmkapimod의 vmklinux_9:ipmi_thread에 CPU 사용량이 1시간 동안 100%로 표시됨
    ESXi 호스트에서 IPMI(Intelligent Platform Management Interface) 도구를 사용하여 FRU(Field Replaceable Unit) 인벤토리 데이터를 읽을 때 vmkapimodvmklinux_9:ipmi_thread에 CPU 사용량이 100%로 잘못 표시됩니다. 이는 IPMI 도구가 Read FRU Data명령을 여러 번 사용해서 인벤토리 데이터를 읽기 때문입니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 하드웨어 상태를 모니터링할 수 없음
    SFCBD 서비스가 추적 모드에서 사용하도록 설정되고 실행을 중지하는 경우 ESXi 호스트의 하드웨어 상태 탭에서 오류를 보고할 수 있습니다. 어떠한 타사 도구도 ESXi 호스트의 하드웨어 상태를 모니터링하지 못할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 IPMI(Intelligent Platform Management Interface) SEL(시스템 이벤트 로그)을 지울 수 없음
    클러스터 환경에서 호스트 IPMI 시스템 이벤트 로그가 지워지지 않습니다. 이 문제는 IPMI SEL을 지우기 위한 새로운 CLI 지원 기능을 추가함으로써 해결되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • LSI CIM 제공자에서 파일 설명자 유출
    LSI CIM 제공자(sfcb 프로세스 중 하나)에서 파일 설명자가 유출됩니다. 이로 인해 sfcb-hhrc가 중지되고 sfcbd가 다시 시작될 수 있습니다. syslog 파일에 다음과 유사한 로그 메시지가 기록될 수 있습니다.
    sfcb-LSIESG_SMIS13_HHR[ ]: Error opening socket pair for getProviderContext: Too many open files
    sfcb-LSIESG_SMIS13_HHR[ ]: Failed to set recv timeout (30) for socket -1. Errno = 9
    ...
    ...
    sfcb-hhrc[ ]: Timeout or other socket error
    sfcb-hhrc[ ]: TIMEOUT DOING SHARED SOCKET RECV RESULT ( )


    이 문제는 이 릴리스에서 해결되었습니다.
  • CIM 포트 5989에서 취약한 암호를 사용할 수 없도록 설정할 수 없음
    PCI(지불 카드 산업) 규정 준수를 위해 CBC(암호 블록 연결) 알고리즘을 사용할 수 없도록 설정하기 위해 CIM 포트 5989에서 취약한 암호를 사용할 수 없도록 설정해야 할 수 있습니다. 이 작업은 허용되지 않습니다.  

    이 문제는 이 릴리스에서 해결되었습니다. 다음과 같은 명령을 사용하여 sfcb.cfg의 구성을 업데이트하여 취약한 암호를 사용할 수 없도록 설정할 수 있습니다.
    # vi /etc/sfcb/sfcb.cfg
    sslCipherList: HIGH:!DES-CBC3-SHA
    # /etc/init.d/sfcbd-watchdog restart
  • ESXi 호스트에서 장애가 발생하고 sfcb-CIMXML-Pro-zdump 오류 발생
    http처리에 대한 sfcb 하위 프로세스에서 fork 명령 다음에 atexit 및 exit를 잘못 호출할 때 ESXi 호스트에서 장애가 발생하고 sfcb-CIMXML-Pro-zdump오류가 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

기타

  • Windows 7 또는 Windows 8 가상 시스템에서 3D 지원을 사용하도록 설정하는 경우 일부 3D 애플리케이션이 위치가 잘못된 기하 도형을 표시함
    3D 지원 사용 옵션을 선택하는 경우 Windows 7 또는 Windows 8 가상 시스템에서 일부 3D 응용 프로그램이 위치가 잘못된 기하 도형을 표시합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Netlogond가 응답을 중지하고 ESXi 호스트의 Active Directory 기능이 손실될 수 있음
    연결할 수 없는 도메인 컨트롤러가 여러 개 있는 Active Directory 환경에서는 Netlogond의 메모리 사용량이 높을 수 있습니다. 따라서 Netlogond가 실패할 수 있고 ESXi 호스트의 Active Directory 기능이 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 특정 snmp OID에 대한 snmpwalk 명령이 실패함
    ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10에 대해 snmpwalk명령을 실행하면 다음과 유사한 오류 메시지가 표시됩니다.

    해당되는 인스턴스가 현재 ifHCOutOctets에 대한 이 OID 1.3.6.1.2.1.31.1.1.1.10에 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vShield Endpoint가 있는 ESXi 호스트에서 실행하는 vSocket 드라이버가 교착 상태가 될 수 있음
    vShield Endpoint가 있는 ESXi 호스트에서 실행하는 Windows 가상 시스템에서 vSocket 드라이버가 교착 상태가 될 수 있습니다. 다음과 같은 로그가 있는 파란색 진단 화면이 표시됩니다.
    esx-B15E102S-2013-07-01--09.54/vmfs/volumes/50477c5b-d5ad9a53-8e9c-047d7ba55d90/B15E030S/vmware.log:
    2013-06-27T20:44:05.812Z| vcpu-0| 설치된 TOOLS 기존 버전 8384, 사용 가능한 기존 버전 8389
    2013-06-27T20:44:05.813Z| vcpu-0| 게스트: 도구 상자: 버전: 빌드-515842
    ...
    2013-06-28T20:38:16.923Z| vcpu-1| 이더넷1 MAC 주소: 00:50:56:bf:73:52
    2013-06-28T20:38:16.923Z| vcpu-0| 이더넷0 MAC 주소: 00:50:56:bf:73:51
    2013-06-28T20:38:16.927Z| vcpu-1| 이더넷2 MAC 주소: 00:50:56:bf:73:53
    2013-06-28T20:39:16.930Z| vcpu-0| 게스트: vfile: vf-AUDIT: VFileAuditSvmConnectivity: SVM에 대한 연결 손실, irpStatus: 0xc0000001 ##에서 SecureVM 연결 끊음
    2013-06-28T20:41:06.185Z| vmx| GuestRpcSendTimedOut: 도구 상자에 대한 메시지가 시간 초과되었습니다.
    2013-06-28T20:41:06.186Z| vmx| Vix: [4304191 guestCommands.c:2194]: VMAutomationTranslateGuestRpcError()의 VIX_E_TOOLS_NOT_RUNNING 오류: VMware Tools가 게스트에서 실행되고 있지 않음
    2013-06-28T20:48:28.341Z| mks| MKS가 SVGA를 사용할 수 없도록 설정하고 있음
    2013-06-28T20:48:34.346Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 30 '
    2013-06-28T20:48:43.349Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 35 '
    2013-06-28T20:48:52.353Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 40 '
    2013-06-28T20:49:01.357Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 45 '
    2013-06-28T20:49:09.360Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 50 '
    2013-06-28T20:49:19.366Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 70 '
    2013-06-28T20:49:28.368Z| mks| WinBSOD: (30) `물리적 메모리를 디스크에 덤프하는 중: 80


    이 문제는 이 릴리스에서 해결되었습니다.
  • vShield 및 다른 구성 요소를 롤백할 수 없음
    설치를 취소할 경우 vShield 및 다른 구성 요소가 롤백되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SVGA 코드를 실행하는 동안 신호 11 오류로 인해 가상 시스템이 응답하지 않음
    svga2_map_surface에서 SVGA 코드를 실행하는 동안 신호 11 오류로 인해 가상 시스템이 응답하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 수천 개의 0바이트 .png 파일이 /tmp 폴더에서 지워지지 않아 ESXi 호스트에서 장애 발생
    수천 개의 0바이트 .png파일이 /tmp폴더에서 지워지지 않아 ESXi 호스트에서 장애가 발생합니다. 이 문제는 이미지 유틸리티 기능이 vCloud Director에서 tempFileName 파일을 지우지 못해 발생합니다. temp폴더에서 현재 .png파일을 삭제하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Hostd가 응답을 중지하고 hostd-worker 덤프를 생성함
    하드 드라이브를 제거하고 호스트에서 최신 정보를 검색하면 ESXi 5.1 호스트가 응답을 중지하고 hostd-worker덤프를 생성할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 원격으로 마운트된 vSphere Storage Appliance 데이터스토어에서 가상 시스템을 생성할 수 없음
    원격으로 마운트된 VSA 데이터스토어에서 VM을 생성하는 ESXi 호스트가 응답을 중지할 수 있습니다. 이는 VSA NAS 플러그인이 네트워크 오류를 올바르게 처리하지 못하기 때문입니다.

    이 문제는 기본 기능이 VSA NSA 플러그인에 NULL 포인터를 반환하는 문제와 통신 오류 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 대상 재설정 중에 가상 시스템의 lsilogic이 모든 대상에 대해 명령의 실행을 대기함
    lsilogic 가상 어댑터가 대상 재설정을 수행할 때 어댑터의 모든 대상에 대해 명령의 실행을 대기합니다. 이로 인해 대상 재설정 중에 필요한 것보다 많은 시간 동안 가상 시스템을 차단합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹

  • 분산 포트 그룹에서 NetFlow 모니터링을 사용하도록 설정하면 여러 ESXi 5.1 호스트가 일시적으로 응답을 중지할 수 있음
    분산 포트 그룹에서 NetFlow 모니터링을 사용하도록 설정하는 경우 IPFIX(Internet Protocol Flow Information Export) 기능이 스위치 트래픽을 모니터링하는 데 사용됩니다. 해시 테이블에 키가 동일한 레코드가 함께 있는 경우 IPFIX 필터 기능에서 경합 조건이 발생하여 ESXi 호스트가 응답을 중지하고 다음과 유사한 역추적이 생성됩니다.

    cpu8:42450)패닉: 766: Panic from another CPU (cpu 8, world 42450): ip=0x41801d47b266:
    #GP 예외 13 - 월드 42450:vmm0:Datacen @ 0x41801d4b7aaf
    cpu8:42450)역추적 대상 - 현재 CPU #8, worldID=42450, ebp=0x41221749b390
    cpu8:42450)0x41221749b390:[0x41801d4b7aaf]vmk_SPLock@vmkernel#nover+0x12 스택: 0x41221749b3f0, 0xe00000000000
    cpu8:42450)0x41221749b4a0:[0x41801db01409]IpfixFilterPacket@ # +0x7e8 스택: 0x4100102205c0, 0x1, 0x
    cpu8:42450)0x41221749b4e0:[0x41801db01f36]IpfixFilter@ # +0x41 스택: 0x41801db01458, 0x4100101a2e58


    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트를 다시 시작하는 경우 USB 컨트롤러에서 DirectPath I/O 패스스루 디바이스로 구성된 설정이 손실됨
    USB 컨트롤러를 DirectPath로 구성된 가상 시스템에 대한 패스스루 디바이스로 추가하고 가상 시스템이 실행되고 있는 호스트를 다시 시작하는 경우 USB 컨트롤러의 패스스루 상태가 손실되고 가상 시스템에 직접 액세스하는 데 이 컨트롤러를 더 이상 사용할 수 없게 됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 64방향 가상 CPU(VCPU)가 장착된 Windows Server 2012에서 VMXNET 3 어댑터가 로드되지 않을 수 있음
    재부팅 후 64방향 가상 CPU(VCPU)가 장착된 Windows Server 2012에서 VMXNET 3 어댑터가 로드되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • tcpdump-uw 유틸리티는 8138바이트보다 작은 패킷만 캡처할 수 있음
    ESXi에 포함된 tcpdump-uw 프레임 캡처 유틸리티는 8138바이트보다 작은 패킷만 캡처할 수 있습니다. 이 문제는 VMware의 tcpdump-uw 구현에서 소켓 버퍼 크기가 8KB로 설정되기 때문에 발생합니다. 소켓 버퍼 크기가 8192바이트로 설정되고 약 54바이트가 제어 데이터에 필요하므로 캡처할 수 있는 최대치는 8138바이트입니다.

    이 문제를 해결하기 위해 기본 버퍼 크기가 64KB로 늘어났습니다.
  • ESXi를 5.0에서 5.1로 업그레이드한 후 비Vmk0 관리 네트워크 인터페이스 카드가 기본적으로 Vmk0으로 설정됨
    ESXi 5.0에서 관리 인터페이스에 비vmk0 vmknic가 사용되는 경우 ESXi 5.0을 ESXi 5.1로 업그레이드하면 관리 인터페이스가 기본적으로 첫 번째 재부팅 후 생성된 vmk0으로 설정됩니다. 이는 올바르지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 동일한 ESXi 호스트 및 vSwitch에 있는 두 가상 시스템 사이 네트워크 패킷 손실의 esxtop에서 잘못 보고됨
    호스트의 동일한 vSwitch에서 두 가상 시스템이 e1000 드라이버를 사용하여 구성된 경우 두 가상 시스템 사이의 네트워크 트래픽에서 상당한 패킷 손실이 esxtop을 통해 보고될 수 있습니다. 이는 게스트에서 TSO를 사용하도록 설정할 때의 분할 패킷을 보고 중에 고려하지 않기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 명령 ip link 또는 ip addr에서 VMXNET3 어댑터의 링크 상태를 Up 대신 Unknown으로 표시할 수 있음
    게스트 운영 체제에서 VMXNET3 어댑터를 생성하는 경우 Linux 명령 ip link 또는 ip addr에서 링크 상태를 Up 대신 Unknown으로 표시할 수 있습니다. 이 문제는 어댑터의 기본 링크 상태가 carrier ok 모드로 설정되고 결과적으로 operstate가 업데이트되지 않는 경우에 발생합니다.

    이 문제는 이 릴리스에서 어댑터의 기본 링크 상태를 no carrier 모드로 설정하여 해결되었습니다.
  • Solaris 10 게스트 운영 체제 및 VMXNET3 드라이버의 디스플레이를 사용하는 가상 시스템에서 콘솔에 과도한 조각화 로그 메시지를 표시함
    Solaris 10 가상 시스템에 VMware Tools를 설치하고 게스트 운영 체제에서 VMXNET3 디바이스를 생성하는 경우 가상 시스템 콘솔에 다음과 유사한 로그 메시지가 표시됩니다.
    Apr 3 22:44:54 daxa020z last message repeated 274 times Apr 3 22:45:00 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 22:51:35 daxa020z last message repeated 399 times
    Apr 3 22:51:40 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 22:58:12 daxa020z last message repeated 398 times
    Apr 3 22:58:20 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 23:04:53 daxa020z last message repeated 393 times
    Apr 3 23:05:00 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMXNET3 NIC의 영구 MAC 주소를 가져오지 못할 수 있음
    ETHTOOL_GPERMADDR ioctl을 사용하여 VMXNET3 NIC의 영구 MAC 주소를 가져올 때 Linux 커널 버전이 2.6.13에서 2.6.23 사이이면 결과를 얻지 못합니다. Linux 커널 버전이 2.6.23 이상이면 반환된 MAC 주소에 모두 0이 포함됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • E1000 또는 E1000e 가상 어댑터를 사용하는 가상 시스템이 있는 ESXi 5.x 호스트에서 오류가 발생하고 보라색 진단 화면이 나타남
    rxRing 버퍼가 채워지고 최대 Rx 링이 2개 이상으로 설정된 경우 ESXi 호스트에서 보라색 진단 화면이 나타나고 E1000PollRxRing 및 E1000DevRx에 대한 오류가 표시됩니다. 두 번째 링에서 처리하는 수신된 다음 Rx 패킷은 NULL이므로 처리 오류가 발생합니다.

    보라색 진단 화면 또는 역추적에는 다음과 유사한 항목이 포함됩니다.

    @BlueScreen: #PF Exception 14 in world 63406:vmast.63405 IP 0x41801cd9c266 addr 0x0
    PTEs:0x8442d5027;0x383f35027;0x0;
    Code start: 0x41801cc00000 VMK uptime: 1:08:27:56.829
    0x41229eb9b590:[0x41801cd9c266]E1000PollRxRing@vmkernel#nover+0xdb9 stack: 0x410015264580
    0x41229eb9b600:[0x41801cd9fc73]E1000DevRx@vmkernel#nover+0x18a stack: 0x41229eb9b630
    0x41229eb9b6a0:[0x41801cd3ced0]IOChain_Resume@vmkernel#nover+0x247 stack: 0x41229eb9b6e0
    0x41229eb9b6f0:[0x41801cd2c0e4]PortOutput@vmkernel#nover+0xe3 stack: 0x410012375940
    0x41229eb9b750:[0x41801d1e476f]EtherswitchForwardLeafPortsQuick@ # +0xd6 stack: 0x31200f9
    0x41229eb9b950:[0x41801d1e5fd8]EtherswitchPortDispatch@ # +0x13bb stack: 0x412200000015
    0x41229eb9b9c0:[0x41801cd2b2c7]Port_InputResume@vmkernel#nover+0x146 stack: 0x412445c34cc0
    0x41229eb9ba10:[0x41801cd2ca42]Port_Input_Committed@vmkernel#nover+0x29 stack: 0x41001203aa01
    0x41229eb9ba70:[0x41801cd99a05]E1000DevAsyncTx@vmkernel#nover+0x190 stack: 0x41229eb9bab0
    0x41229eb9bae0:[0x41801cd51813]NetWorldletPerVMCB@vmkernel#nover+0xae stack: 0x2
    0x41229eb9bc60:[0x41801cd0b21b]WorldletProcessQueue@vmkernel#nover+0x486 stack: 0x41229eb9bd10
    0x41229eb9bca0:[0x41801cd0b895]WorldletBHHandler@vmkernel#nover+0x60 stack: 0x10041229eb9bd20
    0x41229eb9bd20:[0x41801cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x41229eb9be20
    0x41229eb9be20:[0x41801cdbc9bc]CpuSchedIdleLoopInt@vmkernel#nover+0x13b stack: 0x29eb9bfa0
    0x41229eb9bf10:[0x41801cdc4c1f]CpuSchedDispatch@vmkernel#nover+0xabe stack: 0x0
    0x41229eb9bf80:[0x41801cdc5f4f]CpuSchedWait@vmkernel#nover+0x242 stack: 0x412200000000
    0x41229eb9bfa0:[0x41801cdc659e]CpuSched_Wait@vmkernel#nover+0x1d stack: 0x41229eb9bff0
    0x41229eb9bff0:[0x41801ccb1a3a]VmAssistantProcessTask@vmkernel#nover+0x445 stack: 0x0
    0x41229eb9bff8:[0x0] stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.
  • e1000 NIC로 구성된 가상 시스템이 일시 중단 모드로 전환될 때 장애가 발생할 수 있음
    e1000 NIC 드라이버로 구성된 게스트 운영 체제가 일시 중단 모드로 전환될 때 가상 시스템에서 장애가 발생하고 vmware.log파일에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120: Msg_Post: Error
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120+ Unexpected signal: 11


    이 문제는 ip 별칭을 사용하고 IP 주소 수가 10개가 넘는 가상 시스템에서 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 여러 vmkernel 포트에서 관리 트래픽을 사용하도록 설정하는 경우 DCUI에 표시되는 IP 주소가 재설정 시 변경됨
    여러 vmkernel 포트에서 관리 트래픽을 사용하도록 설정한 관리 네트워크를 재설정할 때마다 DCUI(Direct Console User Interface)에 표시되는 IP 주소가 변경됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트에서 보라색 진단 화면에 #PF Exception 14 in world 10669:vmm1:TREND_M IP 오류가 표시됨
    DvFilter모듈이 포함된 ESXi 호스트에서 보라색 진단 화면이 표시될 수 있습니다. 다음과 유사한 역추적이 표시됩니다.

    2013-07-18T06:41:39.699Z cpu12:10669)0x412266b5bbe8:[0x41800d50b532]DVFilterDispatchMessage@com.vmware.vmkapi#v2_1_0_0+0x92d stack: 0x10
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bc68:[0x41800d505521]DVFilterCommBHDispatch@com.vmware.vmkapi#v2_1_0_0+0x394 stack: 0x100
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bce8:[0x41800cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x412266b5bde8, 0x412266b5bd88,

    이 문제는 이 릴리스에서 해결되었습니다.
  • 사용되지 않는 VDS(vSphere Distributed Switch) 포트가 데이터스토어의 .dvsData 디렉토리에서 지워지지 않음
    vNIC가 VDS에 연결된 가상 시스템의 vMotion을 사용하는 동안 VMotion 소스 호스트의 포트 파일이 좀 지난 후에도 .dvsData디렉터리에서 지워지지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Intel e1000e 네트워크 인터페이스 드라이버가 수신된 (RX) 트래픽에서 응답을 중지할 수 있음
    Intel e1000e 네트워크 인터페이스 드라이버가 수신된 (RX) 트래픽에서 응답을 중지할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 두 DVFilter 프로세스 간의 충돌로 인해 ESXi 호스트에서 장애가 발생하고 보라색 진단 화면이 표시될 수 있음
    두 DVF 필터에서 단일 구성 변수를 동시에 관리하려고 하는 경우 한 프로세스는 필터 구성을 해제하고 다른 프로세스는 잠그려고 하여 ESXi 호스트 장애로 이어질 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter 성능 차트 및 vmkernel에서 net.throughput.usage의 반환 값이 서로 모순됨
    vCenter 성능 차트에서 net.throughput.usage관련 값은 KB 단위이지만 vmkernel에서는 동일한 값이 바이트로 반환됩니다. 이로 인해 vCenter 성능 차트에서 값이 잘못 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • L2Echo 함수가 네트워크 트래픽을 처리할 수 없을 때 ESXi 호스트가 응답을 중지할 수 있음
    네트워크 상태 확인 기능을 사용하도록 설정한 경우 L2Echo 함수가 높은 네트워크 트래픽을 처리할 수 없고 보라색 진단 화면과 다음과 유사한 역추적이 표시되며 ESXi 호스트가 응답을 중지할 수 있습니다.

    cpu4:8196)@BlueScreen: PCPU 1: 하트비트 없음(2/2 IPI 받음)
    cpu4:8196)코드 시작: 0x418024600000 VMK 가동 시간: 44:20:54:02.516
    cpu4:8196)저장된 역추적 시작 위치: pcpu 1 하트비트 NMI
    cpu4:8196)0x41220781b480:[0x41802468ded2]SP_WaitLockIRQ@vmkernel#nover+0x199 스택: 0x3b
    cpu4:8196)0x41220781b4a0:[0x4180247f0253]Sched_TreeLockMemAdmit@vmkernel#nover+0x5e 스택: 0x20
    cpu4:8196)0x41220781b4c0:[0x4180247d0100]MemSched_ConsumeManagedKernelMemory@vmkernel#nover+0x1b 스택: 0x0
    cpu4:8196)0x41220781b500:[0x418024806ac5]SchedKmem_Alloc@vmkernel#nover+0x40 스택: 0x41220781b690
    ...
    cpu4:8196)0x41220781bbb0:[0x4180247a0b13]vmk_PortOutput@vmkernel#nover+0x4a 스택: 0x100
    cpu4:8196)0x41220781bc20:[0x418024c65fb2]L2EchoSendPkt@com.vmware.net.healthchk#1.0.0.0+0x85 스택: 0x4100000
    cpu4:8196)0x41220781bcf0:[0x418024c6648e]L2EchoSendPort@com.vmware.net.healthchk#1.0.0.0+0x4b1 스택: 0x0
    cpu4:8196)0x41220781bfa0:[0x418024c685d9]L2EchoRxWorldFn@com.vmware.net.healthchk#1.0.0.0+0x7f8 스택: 0x4122
    cpu4:8196)0x41220781bff0:[0x4180246b6c8f]vmkWorldFunc@vmkernel#nover+0x52 스택: 0x0


    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템에서 RSS(수신 측 크기 조정)를 사용하도록 설정한 경우 VMXNET3이 자주 재설정됨
    가상 시스템에서 RSS(수신 측 크기 조정)를 사용하도록 설정한 경우 VMXNET3 네트워크 드라이버가 자주 재설정되어 짧은 기간 동안 가상 시스템의 네트워크 연결이 끊길 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. VMXNET3 네트워크 드라이버는 이 릴리스에서 업데이트되었습니다.

보안

  • OpenSSL 라이브러리 업데이트로 여러 보안 문제 해결
    ESXi userworld OpenSSL 라이브러리가 openssl-0.9.8y버전으로 업데이트되어 여러 보안 문제가 해결되었습니다.

    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 CVE-2013-0169CVE-2013-0166이라는 이름을 할당했습니다.
  • libxml2 라이브러리 업데이트로 여러 보안 문제 해결
    ESXi userworld libxml2 라이브러리가 업데이트되어 보안 문제가 해결되었습니다.

    일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제에 CVE-2013-0338이라는 이름을 할당했습니다.
  • X.Org 구성 요소 업데이트
    ESXi X Window 시스템 클라이언트 라이브러리가 업데이트되었습니다.

서버 구성

  • NetApp에서 iSCSI가 응답 없는 상태로 전환되지 못하게 하는 SATP 클레임 규칙에 대한 업데이트를 요청함NetApp에서 LUN(논리 장치 번호)의 예약 충돌을 방지하는 SATP 클레임 규칙에 대한 업데이트를 요청했습니다. 업데이트된 SATP 클레임 규칙은 재설정 옵션을 사용하여 LUN에서 예약을 지우고 다른 사용자가 예약 옵션을 설정할 수 있게 합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Storage Area Network에서 부팅할 때 네트워크 대역폭에 따라 부팅 디바이스를 검색하는 데 오랜 시간이 걸릴 수 있음 SAN에서 부팅할 때 부팅 디바이스 검색 프로세스를 완료하는 데 오랜 시간이 걸릴 수 있습니다. 부팅 프로세스 전에 ESX 명령줄에 다시 검색 시간 초과 매개 변수를 전달하면 사용자가 시간 초과 값을 구성할 수 있으므로 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 여러 NFS 데이터스토어를 제거할 때 호스트 프로파일을 적용하지 못할 수 있음
    호스트 프로파일 옵션을 사용하여 여러 NFS 데이터스토어를 제거할 때 이미 삭제된 데이터스토어가 있을 수 있어 오류가 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 호스트를 적용할 때 vSwitch 페일백 및 페일오버 순서 설정이 호스트에 복사되지 않음
    호스트에 호스트 프로파일을 연결할 때 참조 호스트에서 추출된 페일백 및 페일오버 순서와 같은 vSwitch 속성이 호스트에 적용되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 hostd.log 파일에 ha-eventmgr에 대한 로그인 시간을 잘못 보고함
    ESXi 호스트가 루트에 대한 마지막 로그인 시간을 1970으로 잘못 표시할 수 있습니다. 이 정보는 ESXi 호스트의 웹 클라이언트에서 ha-eventmgr에 대해 표시됩니다. 이 릴리스에서는 로그인 시간이 시스템 시간을 사용하여 계산되므로 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트를 업그레이드할 때 부팅 디바이스에서 state.tgz 백업 파일을 찾을 수 없음
    ISO 이미지를 사용하여 ESXi 호스트를 업그레이드할 때 부팅 디바이스에서 state.tgz 백업 파일을 찾지 못할 수 있습니다.

     

    이 문제는 업그레이드 전에 시스템을 올바로 종료하지 않아 state.tgz 백업 파일이 업데이트되지 않은 경우에 발생합니다. 결과적으로 ESX 라이센스를 재설정할 때 찾는 파일이 없음 예외 오류가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 네트워크 페일오버 설정을 신호 검색으로 변경할 때 ESXi 호스트에서 장애가 발생하고 호스트 프로파일 오류가 발생함
    ESX 호스트에 호스트 프로파일을 적용하는 동안 네트워크 페일오버 감지를 신호 검색으로 변경하면 ESXi 호스트에서 장애가 발생하고 다음과 유사한 오류 메시지가 표시됩니다.
    관련 호스트 프로파일에 호스트에 적용할 수 없는 NIC 오류 조건 설정이 포함되어 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 상태 비저장 캐시에서 로컬로 캐시된 호스트 프로파일을 업데이트하지 않음
    ESXi 5.1 호스트에서 상태 비저장 캐시를 사용하도록 설정하고 구성 변경 후 캐시된 이미지에 호스트 프로파일을 다시 적용하면 새로 생성된 호스트 프로파일 구성이 적용되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Esxi 5.0.x를 Esxi 5.1.x로 업그레이드하는 경우 호스트에서 NAS 데이터스토어 및 다른 구성이 손실됨
    vCenter Update Manager를 사용하여 ESX 5.0.x를 ESX 5.1.x로 업그레이드하는 경우 ESX 호스트에서 Symantec 문자열이 포함된 NAS 데이터스토어 항목이 손실됩니다. 이 릴리스에서는 업그레이드 중 구성 파일에서 불필요한 항목을 제거하도록 스크립트가 수정되어 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 bandwidthCap 옵션이 게스트 운영 체제에서 작동하지 않을 수 있음
    ESXi 호스트에서 bandwidthCap 및 처리량 한도를 동시에 설정하는 경우 I/O 조정 옵션이 가상 시스템에서 작동하지 않을 수 있습니다. 이 문제는 scsi 스케줄러에서 조정 옵션을 설정할 때 논리 비교가 잘못되었기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SNMP를 통해 ESXi 호스트를 쿼리할 때 호스트에서 CPU 로드 평균 값을 잘못 보고함
    ESXi 호스트에 SNMP를 통해 CPU 로드 평균 값을 쿼리할 때 hrProcessorLoad는 지난 시간(분)에 대한 hrProcessorLoad를 계산하지 않고 전체 수명에 대한 CPU 로드를 계산합니다. 이로 인해 호스트가 CPU 로드 평균 값을 잘못 보고합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 resourceCpuAllocMax 시스템 카운터 값을 잘못 표시함
    호스트 시스템을 대상으로 resourceCpuAllocMax 및 resourceMemAllocMax 시스템 카운터 값을 검색하면 ESXi 호스트에서 잘못된 값을 반환합니다. 이 문제는 vCenter Server에 연결된 vSphere Client에서 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트 프로파일에서 Annotations.WelcomeMessage 옵션이 x 조건 오류 메시지와 일치하지 않는다는 준수 실패를 보고함
    Annotations.WelcomeMessage에서 텍스트를 추가하고, ESXi 호스트 프로파일을 생성하고, 동일한 호스트 프로파일을 다른 호스트에 적용할 때마다 다른 호스트에서 다음과 유사한 오류 메시지를 보고합니다.
    Annotations.WelcomeMessage 옵션이 지정된 조건과 일치하지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트의 bandwidthCap 옵션이 게스트 운영 체제에서 작동하지 않을 수 있음
    ESXi 호스트에서 bandwidthCap 및 처리량 한도를 동시에 설정하는 경우 I/O 조정 옵션이 가상 시스템에서 작동하지 않을 수 있습니다. 이 문제는 scsi 스케줄러에서 조정 옵션을 설정할 때 논리 비교가 잘못되었기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server에 ESXi 서버를 추가할 때 여러 ESXi 호스트가 응답을 중지할 수 있음
    vCenter Server에 ESXi 서버를 추가하려고 하면 여러 ESXi 서버가 응답을 중지할 수 있으며 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    지정된 호스트에 액세스할 수 없습니다. 호스트가 없거나, 서버 소프트웨어가 응답하지 않거나, 네트워크 문제가 있습니다.

    이 문제는 다량의 HTTP URL 요청이 hostd로 전송되고 hostd 서비스가 실패하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • MC5 상태에 대한 ESX 호스트 디코딩이 올바르지 않을 수 있음
    ESXi 호스트에서 장애가 발생하고 보라색 화면이 표시될 때 메모리 컨트롤러 오류 메시지가 TLB 오류로 잘못 보고될 수 있습니다.
    ESXi 호스트에서 장애가 발생하고 보라색 화면이 표시될 때 메모리 컨트롤러 오류 메시지가 TLB(Translation Look-aside Buffer) 오류 메시지인 수준 2 TLB 오류로 잘못 보고될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Active Directory 도메인에 연결된 ESXi 호스트에서 VI Client의 사용 권한을 Active Directory 사용자 또는 그룹에 추가할 수 없음
    도메인 드롭다운 메뉴에서 도메인 이름을 선택할 수 없기 때문에 AD 사용자 또는 그룹에 사용 권한을 추가하지 못할 수 있습니다.


    이 문제는 이 릴리스에서 해결되었습니다.
  • SNMP를 사용하도록 설정하고 서버에 타사 CIM 제공자가 설치된 호스트에서 SNMP 트랩이 수신되지 않음
    모니터링되는 하드웨어 상태가 SNMP를 사용하도록 설정하고 서버에 타사 CIM 제공자가 설치된 ESXi 호스트에서 변경되는 경우 SNMP 트랩을 수신하지 못할 수 있습니다. 다음과 유사한 메시지가 syslog에 기록됩니다.

    2013-07-11T05:24:39Z snmpd: to_sr_type: unable to convert varbind type '71'
    2013-07-11T05:24:39Z snmpd: convert_value: unknown SR type value 0
    2013-07-11T05:24:39Z snmpd: parse_varbind: invalid varbind with type 0 and value: '2'
    2013-07-11T05:24:39Z snmpd: forward_notifications: parse file '/var/spool/snmp/1373520279_6_1_3582.trp' failed, ignored

    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server에서 클러스터 전체 스토리지 재검색으로 인해 ESXi 호스트 및 가상 시스템이 응답하지 않음
    직간접적으로 VMFS(가상 시스템 파일 시스템)를 포함하는 특정 작업을 수행할 때 일반적으로 많은 수의 VMFS 데이터스토어를 공유하는 ESXi 클러스터 환경에서 다음 문제가 발생할 수 있습니다.
    • ESXi 호스트가 일시적으로 응답을 중지합니다.
    • ESXi 호스트와 vCenter Server의 연결이 끊어집니다.
    • 가상 시스템이 일시적으로 응답을 중지합니다.
    • MSCS(Microsoft Cluster Service)의 일부인 가상 시스템이 응답을 중지하여 페일오버가 발생합니다.
    • SRM(Site Recovery Manager) 데이터 복구 및 페일오버 테스트 중 호스트 통신 오류가 발생합니다.

  • 이 문제는 이 릴리스에서 해결되었습니다.
  • IPMI 센서 데이터를 가져올 수 없음
    주기적으로 exscli hardware ipmi sdr list 명령을 실행할 때 IPMI 데이터 저장소의 작동이 중지될 수 있습니다.

     

    이 문제는 이 릴리스에서 해결되었습니다.

  • 네트워크 중단 후 TCP, SSL 원격 로깅이 자동으로 다시 시작되지 않음
    원격 로그 서버에 대한 네트워크 연결이 중단되었다가 복원되는 경우 TCP/SSL 원격 syslog가 구성된 VMware ESXi 5.x 호스트에서 원격 로그 서버에 syslog를 더 이상 보내지 않습니다.

    이 문제는 기본 네트워크 재시도 제한 시간을 추가하여 해결되었으며 호스트에서는 기본 네트워크 재시도 제한 시간후에 syslog를 다시 보냅니다. 기본 네트워크 재시도 시간 제한의 기본값은 180초입니다. esxcli system syslog config set --default-timeout=명령을 사용하여 기본값을 변경할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 데이터스토어 또는 일부 파일에 액세스할 수 없음
    vCenter Server의 데이터스토어 탭에 누락된 VMFS(가상 시스템 파일 시스템) 데이터스토어가 있거나 이벤트 탭에 다음과 유사한 이벤트가 표시될 수 있습니다.
    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 또는 [[Image:prio1.png]]({2}) 볼륨에서 디스크에 있는 잠금 중 하나 이상이 손상된 것으로 감지되었습니다. 볼륨의 다른 영역도 손상되었을 수 있습니다.

    다음 메시지가 vmkernel.log에 기록됩니다.

    [lockAddr 36149248] Invalid state: Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING: DLX: 908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk. Corrupt lock detected at offset 2279800: [type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$
    You might also see the following message logged in the vmkernel.log:
    2013-07-24T05:00:43.171Z cpu13:11547)WARNING: Vol3: ValidateFS:2267: XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7: Non-zero generation of VMFS3 volume: 1


    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 응답을 중지하고 보라색 진단 화면에 "PCPU XX 하트비트가 없음" 오류가 표시됨
    VMotion 동안 ESXi 호스트가 응답하지 않고 아래와 같은 추적이 표시될 수 있습니다.
     
    2013-07-18T17:55:06.693Z cpu24:694725)0x4122e7147330:[0x418039b5d12e]Migrate_NiceAllocPage@esx#nover+0x75 stack: 0x4122e7147350
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e71473d0:[0x418039b5f673]Migrate_HeapCreate@esx#nover+0x1ba stack: 0x4122e714742c
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e7147460:[0x418039b5a7ef]MigrateInfo_Alloc@esx#nover+0x156 stack: 0x4122e71474f0
    2013-07-18T17:55:06.695Z cpu24:694725)0x4122e7147560:[0x418039b5df17]Migrate_InitMigration@esx#nover+0x1c2 stack: 0xe845962100000001
    ...
    2013-07-18T17:55:07.714Z cpu25:694288)WARNING: Heartbeat: 646: PCPU 27 didn't have a heartbeat for 7 seconds; *may* be locked up.
    2013-07-18T17:55:07.714Z cpu27:694729)ALERT: NMI: 1944: NMI IPI received.. Was eip(base):ebp:cs


    이 문제는 호스트에서 메모리 오버로드 상태로 vMotion을 실행하는 동안 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • DevFSFileClose 기능에서 fdshandle을 null로 설정하면 ESXi 호스트에서 장애가 발생하고 보라색 진단 화면이 표시됨
    fdshandle을 null로 설정하고 두 기능 DevFSFileCloseDevFSFileResetCommand에서 fdshandle 값을 동시에 변경하려고 하면 ESXi 호스트에서 장애가 발생하고 보라색 진단 화면이 표시될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • BIOS 모드에서 TXT 기능을 사용하도록 설정할 경우 ESXi 서버가 부팅되지 않음
    시스템 BIOS(1.41 버전) 모드의 ESXi 호스트에서 TPM/TXT를 사용하도록 설정하는 경우 Tboot 및 ESXi 호스트가 모두 부팅되지 않을 수 있습니다. 이 문제는 IBM 3650 M4 서버에서 발견됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • SCSIPathTimeoutHandlerFn에서 ScsiMidlayerFrame을 처리할 때 ESXi 호스트에서 장애가 발생하고 보라색 진단 화면이 표시됨
    SCSI 기능에서 vmkCmd옵션으로 ScsiMidlayerFrame을 초기화하기도 전에 타이머를 설정하는 경우 ESXi 호스트에서 장애가 발생하고 보라색 진단 화면과 함께 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    3045899 월드의 PF14:PathTaskmgmt IP 0x418003489e86 addr 0x48

    이 문제는 이 릴리스에서 해결되었습니다.
  • 코어 덤프 파티션 및 코어 Dump Collector 서비스가 구성되어 있지 않으면 ESXi 호스트가 구성 문제를 보고하지 못함
    코어 덤프 파티션 및 코어 Dump Collector 서비스가 구성되어 있지 않은 경우 ESXi 호스트가 구성 문제를 보고하지 못합니다. 이 구성 문제는 VI Client에서 고급 구성 옵션 UserVars.SuppressCoredumpWarningfollowing을 1로 설정하여 억제할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 대상 호스트에서 기본 경로 설정을 사용하여 호스트 프로파일을 적용하는 작업이 실패하고 잘못된 경로 값 오류가 발생함
    PSP가 고정으로 설정된 Host1을 구성하고 기본 경로를 구성한 다음 Host1에서 프로파일을 추출하여 Host2에 적용합니다. Host2 프로파일에 대한 초기 확인 중 호스트 프로파일 플러그인 모듈에서 잘못된 경로 값 오류가 발생하고 잘못된 경로 값을 보고합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지

  • 게스트 운영 체제에서 보낸 Request Sense 명령에서 데이터를 반환하지 않음
    게스트 운영 체제에서 물리적 모드의 RDM(원시 디바이스 매핑)에 SCSI Request Sense명령을 보내는 경우 반환된 감지 데이터가 NULL(0으로 설정)인 경우가 있습니다. ESXi 호스트에서 명령을 보내는 경우 이 문제가 발생하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 큰 VMDK 및 스냅샷 파일을 포함하는 가상 시스템의 복제 및 콜드 마이그레이션이 실패할 수 있음
    큰 VMDK(가상 시스템 디스크) 및 스냅샷 파일을 포함하는 가상 시스템을 다른 데이터스토어로 복제하거나 콜드 마이그레이션을 수행하는 것이 불가능할 수 있습니다. 이 문제는 콜드 마이그레이션 중에 vpxa 프로세스가 메모리 할당 제한을 초과하는 경우에 발생합니다. 결과적으로 ESXi 호스트와 vCenter Server의 연결이 끊기고 마이그레이션에 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMKlinux가 디바이스 상태를 잘못 설정하면 VMkernel 로그 파일에 잘못된 디바이스 사용 중(D:0x8) 상태 메시지가 표시될 수 있음
    VMKlinux가 디바이스 상태를 잘못 설정하면 VMkernel 로그 파일에 다음과 유사한 잘못된 디바이스 사용 중(D:0x8) 상태 메시지가 표시됩니다.

    2013-04-04T17:56:47.668Z cpu0:4012)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x412441541f80) 0x16, CmdSN 0x1c9f from world 0 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x0 D:0x8 P:0x0 Possible sense data: 0x0 0x0 0x0

    따라서 스토리지 어레이가 SCSI 명령에 대해 디바이스 사용 상태 메시지를 보내지 않으므로 잘못된 경보가 생성됩니다.
    이 문제는 이 릴리스에서 다음과 같이 디바이스 드라이버의 문제에 대해 호스트 버스 사용 중(H:0x2) 상태 메시지를 올바로 가리켜 해결되었습니다.

    2013-04-04T13:16:27.300Z cpu12:4008)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x4124819c2f00) 0x2a, CmdSN 0xfffffa80043a2350 from world 4697 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x2 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 데이터스토어 생성 중 vCenter Server 또는 vSphere Client가 ESXi 호스트에서 연결이 끊길 수 있음
    VMFS 데이터스토어를 생성하는 동안 vCenter Server 또는 vSphere Client가 ESXi 호스트에서 연결이 끊길 수 있습니다.

    이 문제는 hostd에서 장애가 발생하고 hostd 로그에 다음과 유사한 오류 메시지가 표시되는 경우에 발생합니다.
    패닉: 어설션 실패: "matchingPart != __null".

    파티션 정렬이 필요한 특정 파티션 구성으로 디스크에서 VMFS 데이터스토어를 생성하는 동안 hostd 프로세스가 실패합니다.
  • NFS 데이터스토어의 프로비저닝 공간 값이 잘못 계산되어 잘못된 경보가 생성될 수 있음
    특정 조건에서 NFS 데이터스토어의 프로비저닝 공간 값이 잘못 계산되어 잘못된 경보가 생성될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 영구적 디바이스 손실 후 데이터스토어를 다시 온라인으로 전환할 수 없음
    PDL(영구적 디바이스 손실) 후 볼륨에 일부 파일 핸들이 열려 있어 데이터스토어를 다시 온라인으로 전환할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 부팅 프로세스 동안 nfsclient 모듈을 로드하면 다른 모듈의 로드가 실패함
    ESXi 부팅 프로세스 동안 nfsclient 모듈을 로드하면 NFS(네트워크 파일 시스템) 마운트 지점에 대한 호스트 이름 확인이 지연되는 경우 esx.conf 파일이 장시간 잠길 수 있습니다. 이로 인해 migrate, ipmi 등과 같은 다른 모듈이 로드되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 데이터스토어 또는 일부 파일에 액세스할 수 없음
    vCenter Server의 데이터스토어 탭에 누락된 VMFS(가상 시스템 파일 시스템) 데이터스토어가 있거나 이벤트 탭에 다음과 유사한 이벤트가 표시될 수 있습니다.

    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 또는 {1}({2}) 볼륨에서 디스크에 있는 잠금 중 하나 이상이 손상된 것으로 감지되었습니다. 볼륨의 다른 영역도 손상되었을 수 있습니다.

    vmkernel 로그에 다음과 같은 로그 메시지가 표시됩니다.

    [lockAddr 36149248] Invalid state: Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING: DLX: 908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk. Corrupt lock detected at offset 2279800: [type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$

    vmkernel.log에 다음 오류 메시지도 기록되었을 수 있습니다.

    2013-07-24T05:00:43.171Z cpu13:11547)WARNING: Vol3: ValidateFS:2267: XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7: Non-zero generation of VMFS3 volume: 1

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.1 호스트에서 장애가 발생하고 보라색 진단 화면에 DevFSFileClose 기능과 관련된 오류 메시지가 표시됨
    여러 스레드에서 동일한 디바이스를 동시에 닫으려고 하는 경우 ESXi 5.1 호스트에서 장애가 발생하고 보라색 진단 화면에 다음과 유사한 역추적이 표시됩니다.
    cpu1:16423)@BlueScreen: #PF Exception 14 in world 16423:helper1-0 IP 0x41801ac50e3e addr 0x18PTEs:0x0;
    cpu1:16423)Code start: 0x41801aa00000 VMK uptime: 0:09:28:51.434
    cpu1:16423)0x4122009dbd70:[0x41801ac50e3e]FDS_CloseDevice@vmkernel#nover+0x9 stack: 0x4122009dbdd0
    cpu1:16423)0x4122009dbdd0:[0x41801ac497b4]DevFSFileClose@vmkernel#nover+0xf7 stack: 0x41000ff3ca98
    cpu1:16423)0x4122009dbe20:[0x41801ac2f701]FSS2CloseFile@vmkernel#nover+0x130 stack: 0x4122009dbe80
    cpu1:16423)0x4122009dbe50:[0x41801ac2f829]FSS2_CloseFile@vmkernel#nover+0xe0 stack: 0x41000fe9a5f0
    cpu1:16423)0x4122009dbe80:[0x41801ac2f89e]FSS_CloseFile@vmkernel#nover+0x31 stack: 0x1
    cpu1:16423)0x4122009dbec0:[0x41801b22d148]CBT_RemoveDev@ # +0x83 stack: 0x41000ff3ca60
    cpu1:16423)0x4122009dbef0:[0x41801ac51a24]FDS_RemoveDev@vmkernel#nover+0xdb stack: 0x4122009dbf60
    cpu1:16423)0x4122009dbf40:[0x41801ac4a188]DevFSUnlinkObj@vmkernel#nover+0xdf stack: 0x0
    cpu1:16423)0x4122009dbf60:[0x41801ac4a2ee]DevFSHelperUnlink@vmkernel#nover+0x51 stack: 0xfffffffffffffff1
    cpu1:16423)0x4122009dbff0:[0x41801aa48418]helpFunc@vmkernel#nover+0x517 stack: 0x0
    cpu1:16423)0x4122009dbff8:[0x0] stack: 0x0
    cpu1:16423)base fs=0x0 gs=0x418040400000 Kgs=0x0
    cpu1:16423)vmkernel 0x0 .data 0x0 .bss 0x0
    cpu1:16423)chardevs 0x41801ae70000 .data 0x417fc0000000 .bss 0x417fc00008a0

    이 문제는 이 릴리스에서 해결되었습니다.
  • FCP_RSP_INFO를 처리할 때 fc_fcp_resp 함수에서 논리 장치 번호 재설정이 실패함
    NetApp 대상의 LUN 재설정 테스트에서 LUN 재설정이 실패하는 것으로 확인되었습니다. fc_fcp_resp에서는 FCP_RSP_INFO가 4바이트 예약 필드를 포함하여 8바이트인 것으로 간주하지만 NetApp 대상의 경우 LUN 재설정에 대한 FCP_RSP는 4바이트의 FCP_RSP_INFO만 가지므로 fc_fcp_resp()에서 LUN 재설정 작업을 완료하지 못합니다. 이로 인해 작업이 완료되지 않고 fc_fcp_resp 오류가 발생하고, 결국 LUN 재설정이 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 사용자가 부팅 디바이스가 없는 FCoE(Fibre Channel over Ethernet)를 사용하지 않도록 설정할 수 없음
    ESX 호스트에서 FCoE SAN(Storage Area Network)을 통해 부팅하는 경우 사용자가 포트에서 FCoE를 사용하지 않도록 설정할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 소프트웨어 iSCSI 매개 변수 변경 사항이 syslog.log 파일에 기록되지 않음
    이제 이 릴리스부터 소프트웨어 iSCSI 세션 및 연결 매개 변수에 대한 변경 사항이 syslog.log 파일에 기록되며 여기에는 매개 변수의 이전 값 및 새로운 값이 포함됩니다.
  • Oracle Clustureware를 사용하는 경우 공유 가상 디스크가 있는 가상 시스템의 스냅샷을 생성하려고 하면 스냅샷 생성에 실패할 수 있음
    공유 가상 디스크에 Oracle Clusterware 소프트웨어의 Oracle RAC(Real Application Cluster) 옵션과 함께 다중 작성기 옵션을 사용하는 경우 가상 시스템의 스냅샷을 생성하려고 하면 스냅샷 생성에 실패할 수 있으며 가상 시스템이 실행을 중지할 수 있습니다. 로그 파일에 다음과 같은 항목이 포함될 수 있습니다.

    Resuming virtual disk scsi1:5 failed. The disk has been modified since a snapshot was taken or the virtual machine was suspended.

    이 문제는 다른 클러스터 관리 소프트웨어에서도 관찰될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치

  • 재부팅에만 영향을 주는 공지에 대한 호스트 업데이트 적용이 실패함
    재부팅에만 영향을 주는 공지로 구성된 패치 기준선에 대해 ESXi 호스트의 업데이트 적용 프로세스 중에는 Update Manager가 호스트에 있는 가상 시스템의 전원을 끄지 못하거나 가상 시스템을 일시 중단하지 못합니다. 그 결과 호스트가 유지 보수 모드로 전환되지 못하여 업데이트 적용을 완료할 수 없습니다.

    이 문제는 이번 릴리스와 그 이후 릴리스에서 생성된 공지에서 해결되었습니다.

vCenter Server, vSphere Client 및 vSphere Web Client

  • 사용자 지정된 성능 차트에 가상 시스템 개체의 집계된 가상 디스크 통계를 표시하는 옵션이 없음
    가상 디스크 메트릭을 사용하여 성능 차트를 확인하는 경우 사용 가능한 가상 디스크 개체의 가상 디스크 성능 차트를 표시하는 옵션만 있습니다.

    이 릴리스에서는 가상 시스템 개체의 가상 디스크 성능 차트도 볼 수 있습니다. 가상 시스템별 가상 디스크 사용량을 기준으로 경보를 트리거해야 하는 경우 이 차트가 유용합니다.
  • VAAI NAS가 있는 호스트의 경우 요약 탭에 프로비저닝된 공간에 대한 값이 잘못 표시될 수 있음*
    VAAI NAS가 있는 ESXi 호스트에서 느리게 비워지는 씩 프로비저닝 형식의 가상 디스크를 생성하는 경우 데이터스토어 및 데이터스토어 클러스터 보기에서 요약 탭에 표시되는 프로비저닝된 공간이 가상 디스크에 설정된 프로비저닝된 스토리지의 두 배가 될 수 있습니다.
    예를 들어 프로비저닝된 스토리지가 75GB인 경우 표시되는 프로비저닝된 공간은 약 150GB일 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VAAI NAS가 있는 호스트의 경우 요약 탭에 프로비저닝된 공간에 대한 값이 잘못 표시될 수 있음*
    VAAI NAS가 있는 ESXi 호스트에서 느리게 비워지는 씩 프로비저닝 형식의 가상 디스크를 생성하는 경우 데이터스토어 및 데이터스토어 클러스터 보기에서 요약 탭에 표시되는 프로비저닝된 공간이 가상 디스크에 설정된 프로비저닝된 스토리지의 두 배가 될 수 있습니다.
    예를 들어 프로비저닝된 스토리지가 75GB인 경우 표시되는 프로비저닝된 공간은 약 150GB일 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

가상 시스템 관리

  • 가상 시스템에서 3D 소프트웨어 렌더링 옵션을 사용하도록 설정하는 경우 WPF 애플리케이션이 항목을 잘못 표시함
    가상 시스템에서 WPF(Windows Presentation Foundation) 애플리케이션을 설치하고 3D 소프트웨어 렌더링 옵션을 사용하도록 설정하는 경우 WPF 애플리케이션에서 일부 이미지를 표시할 때 불일치가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 CPU가 8개 이상인 win2000 Server의 설치 중에 게스트 운영 체제에서 장애가 발생하고 버그 확인 코드 PAGE_FAULT_IN_NONPAGED_AREA가 표시됨
    가상 시스템에 Windows 2000 Server를 설치할 때 게스트 운영 체제에서 장애가 발생하고 파란색 진단 화면과 PAGE_FAULT_IN_NONPAGED_AREA오류 메시지가 표시됩니다. 이 문제는 가상 CPU가 8개 이상인 Windows 2000 가상 시스템에서 발견되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 공유 디스크에 대한 쓰기 잠금의 쓰기 경합으로 인해 공유 비영구 디스크의 무중단 제거 작업에 오랜 시간이 걸림
    Unidesk API를 사용하여 가상 시스템에 공유 비영구 읽기 전용 디스크를 추가할 때 가상 시스템이 응답을 중지할 수 있습니다. 이 문제는 가상 시스템이 읽기 전용 디스크를 배타적 모드로 열기 때문에 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.

vMotion 및 Storage vMotion

  • CBT 지원 가상 시스템에 대해 vMotion을 사용하여 VMDK를 다른 볼륨으로 이동한 후 증분 백업이 실패하고 QueryChangedDiskAreas에 대한 FileFault 오류가 발생할 수 있음
    CBT(변경된 블록 추적) 지원 가상 시스템에서 Storage vMotion을 사용하여 VMDK(가상 시스템 디스크)를 다른 볼륨으로 이동한 후 QueryChangedDiskAreas를 수행할 때
    모든 ChangeID 참조를 삭제하지 않고 CBT 정보가 다시 초기화됨에 따라 다음과 유사한 FileFault 오류가 발생할 수 있습니다.

    2012-09-04T11:56:17.846+02:00 [03616 info 'Default' opID=52dc4afb] [VpxLRO] -- ERROR task-internal-4118 -- vm-26512 --
    vim.VirtualMachine.queryChangedDiskAreas: vim.fault.FileFault:
    --> Result:
    --> (vim.fault.FileFault) {
    --> dynamicType = <unset>,
    --> faultCause = (vmodl.MethodFault) null, file =
    --> "/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> msg = "다음 파일로 인해 오류 발생
    /vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> }

    이 문제를 해결하려면 Storage vMotion을 사용하여 VMDK(가상 시스템 디스크)를 다른 데이터스토어로 이동한 후 CBT 추적을 비활성화했다가 다시 활성화하여 ChangeID 참조를 모두 삭제한 다음 전체 백업을 수행하여 추가 증분 백업에 CBT를 사용해야 합니다.

    이 문제는 라이브러리 기능에서 디스크 변경 추적 기능을 올바르게 다시 초기화하지 않는 경우 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware HA 및 Fault Tolerance

  • 단일 호스트를 유지 보수 모드로 전환한 후 고가용성 클러스터를 사용하도록 설정할 수 없음
    HA(고가용성) 클러스터의 단일 호스트를 유지 보수 모드로 전환한 후 해당 HA 클러스터를 사용하도록 설정하지 못할 수 있습니다. 이 문제는 inode 설명자 번호 값이 ESX 루트 파일 시스템(VisorFS)에서 올바르게 설정되어 있지 않아 이러한 inode에 대한 stat 호출에 실패하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools

  • vmhgfs 설치를 사용하도록 설정한 후 vmci 및 vsock가 업스트림되는 경우 VMware Tools 설치 관리자가 vmhgfs 모듈을 설치하지 않음
    vmci 및 vsock가 업스트림될 때 VMware Tools를 설치하는 경우 이 모듈 설치를 사용하도록 설정한 경우에도 설치 관리자에서 vmhgfs 모듈을 설치할 수 없습니다. 이 문제는 커널 버전이 3.9 이상인 Linux 운영 체제에서 발견되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMCI 및 VSOCK가 업스트림되는 경우 Linux 커널 3.9에서 가상 시스템 제어 인터페이스가 로드되지 않음
    vmci 및 vsock가 업스트림되고 VMware Tools가 설치되어 있는 경우 /etc/vmware-tools/service.sh restart명령을 실행하여 서비스를 확인하면 가상 시스템 통신 인터페이스 상태가 실패로 표시될 수 있습니다. 이 문제는 커널 버전이 3.9 이상인 Linux 운영 체제에서 발견되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Windows 운영 체제를 사용하는 가상 시스템에서 VMware Tools 업그레이드를 수행할 때 경고 메시지가 표시될 수 있음
    ESXi 5.1 호스트에서 VMware Tools를 버전 9.0으로 업그레이드할 때 Windows 운영 체제를 사용하는 가상 시스템에서 다음과 유사한 경고 메시지를 표시할 수 있습니다.

    플러그인 unity에서 애플리케이션 유형 2(Signals)의 등록에 실패했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • open-vm-tools가 Linux Tools 설치 관리자에 의해 제거됨
    사용자가 open-vm-tools를 포함하는 OS에서 vSphere의 VMware Tools 설치 관리자를 수행하는 경우 open-vm-tools가 자동으로 제거되고 VMware Tools가 설치됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 5.1에서 VMware Tools를 설치할 때 Solaris 10 게스트 운영 체제를 사용하는 가상 시스템이 응답하지 않음
    Solaris 10을 게스트 운영 체제로 사용하는 가상 시스템에 ESXi 5.1을 통해 VMware Tools를 설치하는 경우 가상 시스템이 응답하지 않고 다음과 유사한 메시지를 표시할 수 있습니다.
    CDE 데스크톱이 시작될 때까지 기다리십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 지원되지 않는 파일 시스템이 설치된 볼륨의 드라이브 문자를 포함하는 필터 규칙을 설정하려고 하면 Windows Server 2003 또는 Windows XP 가상 시스템에서 오류가 발생하여 파란색 화면이 표시될 수 있음
    지원되지 않는 파일 시스템이 설치된 볼륨의 드라이브 문자를 포함하는 필터 규칙을 설정하려고 하면 Windows Server 2003 또는 Windows XP 가상 시스템에서 장애가 발생하여 파란색 화면이 표시되고 다음과 유사한 오류 메시지가 나타날 수 있습니다.
    오류 코드 1000007e, parameter1 c0000005, parameter2 baee5d3b, parameter3 baa69a64, parameter4 baa69760.

    자세한 내용은 도움말 및 지원 센터(http://go.microsoft.com/fwlink/events.asp)를 참조하십시오. 데이터:

    0000: 53 79 73 74 65 6d 20 45 System E
    0008: 72 72 6f 72 20 20 45 72 rror Er
    0010: 72 6f 72 20 63 6f 64 65 ror code
    0018: 20 31 30 30 30 30 30 37 10000070020: 65 20 20 50 61 72 61 6d e Param
    0028: 65 74 65 72 73 20 63 30 eters c
    00030: 30 30 30 30 30 35 2c 20 000005,
    0038: 62 61 65 65 35 64 33 62 baee5d3b
    0040: 2c 20 62 61 61 36 39 61 , baa69a
    0048: 36 34 2c 20 62 61 61 36 64, baa6
    0050: 39 37 36 30 9760

    이 문제는 대부분 Microsoft App-V 솔루션에서 생성한 Q:\드라이브 문자가 필터 규칙에 추가되는 경우에 발생합니다. 이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools가 업데이트되어 SUSE Linux Enterprise 11 SP3, Oracle Linux 5.x(2.6.39-200/300/400 커널 포함)
    및 Oracle Linux 6.x(2.6.39-200/300/400 커널 포함)에 대한 사전 구축 모듈을 제공함
  • vCenter 보호 에이전트에서 VMware Tools 업데이트 중 서명되지 않은 실행 파일에 대한 VSS 드라이버 등록 취소 경고 메시지를 표시함
    VMware Workstation에서 VMware Tools 업데이트를 시도하면 vCenter 보호 에이전트에서 서명되지 않은 실행 파일의 사용을 나타내는 VSS 드라이버 등록 취소경고 메시지를 표시합니다. 설치 폴더에 복사된 파일 목록에 실행 파일을 포함하면 이 문제가 해결됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 도구에 대한 vShield MSM에 vnetflt.sys 커널 드라이버 및 관련 파일을 포함함
    도구에 대한 vShield MSM에 vnetflt.sys 커널 드라이브 및 관련 파일을 포함합니다. 관련 파일이 포함됨에 따라 기본 인수를 추가하여 여러 VM 설치 관리자 API를 수정하는 데 도움이 되며, 이러한 인수를 사용하여 그룹 내의 서비스 시작 순서를 지정하는 데 사용할 태그를 생성할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • clobber 옵션을 사용하여 vmci 및 vsock 드라이버를 설치한 경우 VMware Tools가 시작되지 않음
    --clobber-kernel-modules=vmci,vsock옵션을 사용하여 VMware Tools를 설치하는 경우 VMware Tools 서비스가 시작되지 않고 다음과 유사한 오류 메시지가 표시됩니다.

    커널에 대한 새로운 initrd 부트 이미지를 생성합니다.
    update-initramfs: /boot/initrd.img-3.9.0-rc2-custom 생성 중
    vmware-tools-thinprint start/running
    initctl: 작업이 시작되지 않음
    VMware Tools에 대한 서비스를 시작할 수 없음

    실행이 중단되었습니다.


    이 문제는 이 릴리스에서 해결되었습니다. 3.9보다 높은 Linux 커널 버전을 사용하여 업스트림한 후에는 vmci 및 vsock 드라이버를 더 이상 설치할 수 없습니다.
  • Window Server 2003에서 VMwareTools 제거
    Windows Server 2003에서 VMTools를 제거하려고 하면 VM(가상 시스템)에서 VMTools를 제거하지 못하고 오류 메시지를 표시합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

알려진 문제

이전에 문서화되지 않은 알려진 문제는 * 기호로 표시되어 있습니다. 알려진 문제는 다음과 같이 그룹화되어 있습니다.

설치 및 업그레이드 문제

  • Postgres 데이터베이스로 구성된 vCenter Server Appliance를 업그레이드한 후 인벤토리 개체가 표시되지 않을 수 있음
    Postgres 데이터베이스로 구성된 vCenter Server Appliance를 5.0 업데이트 2에서 5.1 업데이트 1로 업그레이드할 경우 업그레이드 전에 있었던 데이터 센터, vDS 등의 기존 인벤토리 개체가 표시되지 않을 수 있습니다. 이 문제는 vSphere Web Client를 사용하여 vCenter Server Appliance에 연결할 경우에 발생합니다.

    해결 방법: vCenter Server Appliance를 업그레이드한 후 Inventory Service를 다시 시작합니다.

  • Auto Deploy의 상태 저장 설치의 경우 ESX/ESXi가 USB에 이미 설치되어 있는 시스템에서 ESX의 firstdisk 인수를 사용할 수 없음
    상태 저장 설치용으로 설정하려는 호스트의 호스트 프로파일을 Auto Deploy를 사용하여 구성합니다. 구성 과정에서 디스크로 USB를 선택하고 첫 번째 인수로 esx를 지정합니다. 호스트는 현재 USB에 ESX/ESXi가 설치되어 있습니다. 하지만 Auto Deploy는 USB에 ESXi를 설치하는 대신 로컬 디스크에 ESXi를 설치합니다.

    해결 방법: 없음.

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 및 Set-DeployRule에 개체가 입력으로 필요함
    Copy-DeployRule또는 Set-DeployRulecmdlet을 실행하는 경우 이미지 프로파일 또는 호스트 프로파일 이름을 전달하면 오류가 발생합니다.

    해결 방법: 이미지 프로파일 또는 호스트 프로파일 개체를 전달합니다.

  • 선택한 디스크에 ESX를 설치한 경우 상태 비저장 캐시와 함께 Auto Deploy를 사용하도록 설정된 호스트 프로파일 적용이 실패함
    호스트 프로파일을 사용하여 상태 비저장 캐시를 사용하도록 설정되어 있는 Auto Deploy를 설정합니다. 호스트 프로파일에서 ESX(ESXi가 아님) 버전이 설치되어 있는 디스크를 선택합니다. 호스트 프로파일을 적용하면 다음 텍스트가 포함된 오류가 나타납니다.
    Expecting 2 bootbanks, found 0(2개의 부팅 뱅크가 필요함, 0개 발견)

    해결 방법: 디스크에서 ESX 소프트웨어를 제거하거나, 상태 비저장 캐시에 사용할 다른 디스크를 선택합니다.

  • Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경한 후 vSphere Auto Deploy가 더 이상 작동하지 않음
    vCenter Server와는 다른 시스템에 Auto Deploy를 설치하고 Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경합니다. 변경 후 Auto Deploy 명령이 더 이상 작동하지 않습니다.

    해결 방법: Auto Deploy 서버 서비스를 다시 시작합니다.
    net start vmware-autodeploy-waiter
    서비스를 다시 시작해도 문제가 해결되지 않으면 자동 배포 서버를 다시 등록해야 할 수 있습니다. 모든 옵션을 지정하여 다음 명령을 실행합니다.
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • HP DL980 G7에서 온보드 NIC를 사용하는 경우 ESXi 호스트가 Auto Deploy를 통해 부팅되지 않음
    시스템에서 온보드(LOM Netxen) NIC를 PXE 부팅에 사용하고 있으면 Auto Deploy를 사용하여 HP DL980 G7 시스템을 부팅할 수 없습니다.

    해결 방법: HP에서 승인된 추가 기능 NIC(예: HP NC3 60T)를 호스트에 설치하고 해당 NIC를 PXE 부팅에 사용합니다.

  • esxcli를 사용한 실시간 업데이트가 실패하고 VibDownloadError가 발생함
    사용자가 다음 두 가지 업데이트를 순차적으로 수행합니다.

    1. esxcli software profile update 또는 esxclivib update 명령을 사용한 실시간 설치 업데이트.
    2. 재부팅이 필요한 업데이트

    두 번째 트랜잭션이 실패합니다. 가장 일반적인 실패 이유는 서명 검증 때문인데, 서명은 VIB를 다운로드한 이후에만 확인할 수 있습니다.

    해결 방법: 이 문제는 두 단계 프로세스로 해결할 수 있습니다.

    1. ESXi 호스트를 재부팅하여 상태를 정리합니다.
    2. 실시간 설치를 반복합니다.

     

  • 시스템에 연결된 NIC가 없는 경우 ESXi 스크립트로 작성된 설치 시 CD-ROM 드라이브에서 ks(kickstart) 파일을 찾지 못함
    연결된 NIC가 없는 시스템의 CD-ROM 드라이브에 kickstart 파일이 있는 경우 다음 오류 메시지가 표시됩니다. Can't find the kickstart file on cd-rom with path < path_to_ks_file>(cd-rom의 다음 경로에서 kickstart 파일을 찾을 수 없음 < path_to_ks_file>).

    해결 방법: NIC를 재연결하여 네트워크 연결을 설정하고 설치를 다시 시도합니다.

  • SWFCoE LUN에서 스크립트로 작성된 설치에 실패함
    ESXi 설치 관리자가 ks(kickstart) 파일을 사용하여 설치를 호출하는 경우 설치가 시작될 때까지 일부 FCoE LUN이 아직 검색되어 채워지지 않았습니다. 따라서 모든 LUN에서 스크립트로 작성된 설치에 실패합니다. 이 실패는 https, http또는 ftp프로토콜이 kickstart 파일에 액세스하는 데 사용될 때 발생합니다.

    해결 방법: kickstart 파일의 %pre섹션에 2분의 유휴 시간을 포함합니다.
    %pre --interpreter=busybox
    sleep 120

  • vCenter Server는 업그레이드하지만 Auto Deploy 서버는 업그레이드하지 않는 경우에 발생할 수 있는 잠재적인 문제
    vCenter Server를 업그레이드하면 각 ESXi 호스트에서 5.0 vSphere HA 에이전트(vmware-fdm)가 새 에이전트로 교체됩니다. 이러한 교체는 ESXi 호스트가 재부팅될 때마다 발생합니다. vCenter Server를 사용할 수 없으면 ESXi 호스트가 클러스터에 가입할 수 없습니다.

    해결 방법: 가능한 경우 Auto Deploy 서버를 업그레이드합니다.
    Auto Deploy 서버를 업그레이드할 수 없는 경우 vSphere PowerCLI와 함께 포함된 Image Builder PowerCLI cmdlet을 사용하여 새 vmware-fdm VIB가 포함된 ESXi 5.0 이미지 프로파일을 생성할 수 있습니다. 그리고 호스트에 이 이미지 프로파일을 제공할 수 있습니다.

    1. ESXi 5.0 소프트웨어 디포를 추가하고 새 vmware-fdm VIB가 포함된 소프트웨어 디포를 추가합니다.
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 기존 이미지 프로파일을 복제하고 vmware-fdm VIB를 추가합니다.
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 호스트에 새 이미지 프로파일을 할당하는 규칙을 새로 생성하여 규칙 집합에 추가합니다.
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 호스트에 대한 테스트 및 복구 규정 준수 작업을 수행합니다.
      Test-DeployRuleSetCompliance Host_list

     

  • 상태 비저장 캐시가 켜져 있는 경우 Auto Deploy 서버를 사용할 수 없게 되면 호스트가 저장된 이미지를 사용하여 자동으로 부팅되지 않을 수 있음
    Auto Deploy 서버를 사용할 수 없게 되면 Auto Deploy와 함께 상태 비저장 캐시용으로 설정된 호스트가 저장된 이미지가 있는 디스크에서 자동으로 부팅되지 않는 경우가 있습니다. 이러한 상황은 원하는 부팅 디바이스가 논리적으로 다음 부팅 순서인 경우에도 발생할 수 있습니다. 정확한 발생 사항은 서버 벤더 BIOS 설정에 따라 다릅니다.

    해결 방법: 수동으로 캐시된 이미지가 있는 디스크를 부팅 디바이스로 선택합니다.

  • ESXCLI를 사용하여 ESXi 5.0 호스트를 ESXi 5.1로 업그레이드하는 동안 VMotion 및 FT(Fault Tolerance) 로깅 설정이 손실됨
    ESXi 5.0 호스트에서 포트 그룹에 대해 vMotion과 FT를 사용하도록 설정합니다. esxcli software profile update 명령을 실행하여 호스트를 업그레이드합니다. 성공적인 업그레이드의 일부로 vMotion 설정과 Fault Tolerance 로깅 설정이 기본 설정, 즉 사용 안 함 상태로 돌아갑니다.

    해결 방법: vSphere Upgrade Manager를 사용하여 호스트를 업그레이드하거나, 수동으로 vMotion과 Fault Tolerance를 업그레이드 전 설정으로 되돌립니다.

네트워킹 문제
  • SR-IOV를 사용하도록 설정된 ESXi 호스트에서 가상 기능과 연관된 가상 시스템을 시작하지 못할 수 있음
    Intel ixgbe NIC를 포함하는 ESXi 5.1 호스트에서 SR-IOV를 사용하도록 설정하고 이 환경에서 몇 가지 가상 기능을 사용하도록 설정하면 일부 가상 시스템을 시작하지 못할 수 있습니다.
    다음과 유사한 메시지가 vmware.log 파일에 표시됩니다.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    해결 방법: 문제가 있는 가상 시스템과 연련된 가상 기능의 수를 줄인 후 시작하십시오.

  • Auto Deploy를 사용하여 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답을 멈춤
    최신 오픈 소스 gPXE를 사용하여 Emulex 10GbE NC553i FlexFabric 2 포트에서 Auto Deploy로 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답하지 않습니다.

    Emulex 10GbE PCI-E 컨트롤러는 메모리 매핑된 컨트롤러입니다. 네트워크를 통해 패킷을 보내고 받으려면 이 컨트롤러에서 실행되고 있는 PXE/UNDI 스택이 1MB 이상에 위치한 디바이스별 레지스터를 프로그래밍할 수 있도록 PXE TFTP/HTTP 전송 중에 리얼 모드에서 빅 리얼 모드로 전환되어야 합니다. 이 프로세스 중에 CPU 인터럽트가 의도하지 않게 사용하도록 설정되어 CPU 모드 전환 중에 다른 디바이스 인터럽트가 생성될 때 시스템이 응답을 멈추게 됩니다.

    해결 방법: NIC 펌웨어를 빌드 4.1.450.7 이상으로 업그레이드합니다.

  • 표준 가상 스위치에서 포트 수 변경 사항이 호스트를 재부팅할 때까지 적용되지 않음
    표준 가상 스위치에서 포트 수를 변경할 경우 호스트를 재부팅하기 전에는 변경 사항이 적용되지 않습니다. 이것은 포트 수 변경 사항이 즉시 적용되는 분산 가상 스위치의 동작과 다릅니다.

    표준 가상 스위치에서 포트 수를 변경할 경우 호스트의 총 포트 수가 표준 스위치와 Distributed Switch 모두에서 4096개를 넘지 않는지 확인하십시오.

    해결 방법: 없음.

  •  

  • 물리적 NIC의 관리 상태가 작동 중지로 제대로 보고되지 않음
    관리 목적으로 물리적 NIC 상태를 작동 중지로 설정하는 것은 IEEE 표준에 부합하지 않습니다. 가상 스위치 명령을 통해 물리적 NIC를 작동 중지로 설정한 경우 다음 두 가지 알려진 문제가 발생합니다.

    • ESXi에서 처리할 수 없는 트래픽 증가로 인해 ESXi에 접해 있는 물리적 스위치의 네트워크 리소스와 ESXi 자체의 리소스가 낭비됩니다.

    • NIC가 예기치 않은 방식으로 동작합니다. 작업자는 NIC 전원이 꺼질 것으로 예상하지만 NIC는 여전히 활성 상태로 표시됩니다.

    ESXCLI network down -n vmnicN 명령을 사용할 때 주의할 사항은 다음과 같습니다.
    • 이 명령은 드라이버만 끄고 NIC의 전원은 끄지 않습니다. ESXi 시스템에 접해 있는 물리적 스위치의 관리 인터페이스에서 ESXi 물리적 네트워크 어댑터를 볼 경우 표준 스위치 업링크는 여전히 활성 상태인 것으로 나타납니다.

    • NIC의 관리 상태는 ESXCLI 또는 UI에 표시되지 않습니다. 디버깅할 때 /etc/vmware/esx.conf를 검사하여 상태를 확인해야 합니다.

    • SNMP 에이전트는 관리 상태를 보고하지만, NIC의 작동 상태가 처음부터 작동 중지 상태였던 경우 NIC가 작동 중지로 설정되면 관리 상태를 잘못 보고합니다. 작동 상태가 활성 상태일 때 NIC가 작동 중지로 설정된 경우에는 관리 상태를 올바르게 보고합니다.

     

    해결 방법: 가상 스위치 명령을 사용하는 대신 ESXi 시스템에 접해 있는 물리적 스위치에서 관리 상태를 작동 중지로 변경합니다.

  • Linux 드라이버 지원 변경 사항
    Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET2 또는 VMXNET(flexible) 가상 NIC의 디바이스 드라이버를 사용할 수 없습니다.

    해결 방법: Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET3 또는 e1000 가상 NIC를 사용합니다.

  • vSphere 5.0 Network I/O Control 대역폭 할당이 여러 업링크 간에 균등하게 배포되지 않음
    vSphere 5.0에서 Network I/O Control을 사용하는 동안 리소스 풀에 네트워킹 대역폭 제한이 설정된 경우 이 제한은 호스트 수준의 업링크 팀에 적용됩니다. 이 대역폭 제한은 여러 업링크 간에 대역폭을 균등하게 배포하도록 설계되지 않은 토큰 배포 알고리즘을 통해 구현됩니다.

    해결 방법: vSphere 5.1 Network I/O Control 제한은 업링크 단위로 좁혀졌습니다.

  • "미러링된 패킷 길이" 설정으로 인해 원격 미러링 소스 세션이 작동하지 않음
    "미러링된 패킷 길이" 옵션이 설정되어 있는 원격 미러링 소스 세션을 구성하는 경우 대상이 미러링된 패킷 중 일부를 수신하지 않습니다. 하지만 이 옵션을 사용하지 않도록 설정하면 패킷이 다시 수신됩니다.
    "미러링된 패킷 길이" 옵션을 설정한 경우 지정한 길이보다 긴 패킷이 잘리고 패킷이 삭제됩니다. 낮은 계층 코드는 조각화와 삭제된 패킷에 대한 체크섬 재계산을 수행하지 않습니다. 다음 두 가지 사항으로 인해 패킷이 삭제될 수 있습니다.

    • "미러링된 패킷 길이"가 MTU(최대 전송 단위)보다 큼
      사용자 환경에서 TSO를 사용하도록 설정한 경우 원래 패킷이 매우 클 수 있습니다. 이러한 원래 패킷은 미러링된 패킷 길이만큼 잘린 후에도 여전히 MTU보다 크므로 물리적 NIC에 의해 삭제됩니다.

    • 중간 스위치가 L3 검사를 수행함
      일부 잘린 패킷의 패킷 길이와 체크섬이 잘못될 수 있습니다. 일부 고급 물리적 스위치는 L3 정보를 검사하고 올바르지 않은 패킷을 삭제합니다. 따라서 대상이 패킷을 수신하지 않습니다.

    해결 방법:

    • TSO(TCP 세분화 오프로드)를 사용하도록 설정된 경우 "미러링된 패킷 길이" 옵션이 사용되지 않도록 설정합니다.

    • Cisco의 4500 시리즈 스위치와 같은 일부 스위치에서 L3 검사를 사용하거나 사용하지 않도록 설정할 수 있습니다. 이러한 스위치를 사용 중인 경우 L3 검사를 사용하지 않도록 설정합니다. 구성할 수 없는 스위치의 경우 "미러링된 패킷 길이" 옵션을 사용하지 않도록 설정합니다.
  • 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 vMotion이 실패함
    vSphere 5.x에서는 호스트당 vMotion에 VMkernel 네트워크 어댑터를 16개까지 사용하도록 설정할 수 있습니다. 특정 호스트에서 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 해당 호스트를 대상으로 하는 vMotion 마이그레이션이 실패할 수 있습니다. ESXi의 VMkernel 로그에 있는 오류 메시지는 17 스트림 IP 항목을 초기화하기 위한 요청을 거부합니다입니다. 여기서 숫자는 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터 수를 나타냅니다.

    해결 방법: vMotion에 사용하도록 설정한 vMotion VMkernel 네트워크 어댑터 수가 총 16개를 초과하지 않도록 설정하십시오.

  • VLAN 환경에서 nx_nic 드라이버를 사용하는 경우 vSphere 네트워크 코어 덤프가 작동하지 않음
    네트워크 코어 덤프가 VLAN에 속한 호스트에 구성된 경우 NIC가 QLogic Intelligent Ethernet Adapters 드라이버(nx_nic)를 사용하면 네트워크 코어 덤프가 실패합니다. 업링크 어댑터가 nx_nic를 사용하면 수신된 네트워크 코어 덤프 패킷에 올바른 VLAN 태그가 지정되지 않습니다.

    해결 방법: VLAN에서 네트워크 코어 덤프를 구성하는 경우 다른 드라이버가 있는 다른 업링크 어댑터를 사용합니다.

  • 스크립트로 작성된 설치에 대한 kickstart 파일에서 이미 사용 중인 NIC를 호출하는 경우 설치에 실패함
    kickstart 파일을 사용하여 관리 네트워크 사후 설치를 설정하는 경우 kickstart 파일에서 이미 사용 중인 NIC를 호출하면 다음 오류 메시지가 표시됩니다. Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information.(작업에서 반환된 상태에 대한 Sysinfo 오류는 "사용 중"입니다. 오류에 대한 자세한 내용은 VMkernel 로그를 참조하십시오.)

    오류는 두 개의 NIC, 즉 SWFCoE/SWiSCSI용으로 구성된 NIC와 네트워킹용으로 구성된 NIC가 있는 하나의 시스템에서 스크립트로 작성된 설치를 시작할 때 발생합니다. 부팅 옵션에서 netdevice=<nic> 또는 BOOTIF=<MAC of the NIC>를 제공하여 네트워크 NIC를 통해 스크립트로 작성된 설치를 시작하는 경우 kickstart 파일은 네트워크 라인에 있는 다른 NIC( netdevice=<nic configured for SWFCoE / SWiSCSI>)를 사용하여 관리 네트워크를 구성합니다.

    설치(디스크 파티셔닝)에는 성공하지만 구성에는 실패하는데, 이는 설치 관리자가 kickstart 파일에서 네트워크 매개 변수가 제공된 호스트에 대해 관리 네트워크를 구성하려고 할 때 NIC가 SWFCoE/SWiSCSI에서 이미 사용되고 있기 때문입니다.

    해결 방법: 설치 후 관리 네트워크를 설정하기 위한 kickstart 파일에서 사용 가능한 NIC를 사용합니다.

  • ESX를 실행 중이며 VMXNET3을 pNIC로 사용하는 가상 시스템이 충돌할 수 있음
    VMXNET3 지원은 실험 버전이므로 게스트로 ESX를 실행하고 pNIC로 vmxnet3을 사용하는 가상 시스템에서 충돌이 발생할 수 있습니다. ESX 가상 시스템의 기본 NIC는 e1000이므로 이 문제는 기본값을 재정의하고 대신 VMXNET3을 선택한 경우에만 발생합니다.

    해결 방법: ESX 가상 시스템의 pNIC로 e1000 또는 e1000e를 사용합니다.

  • 많은 수의 dvPort가 사용되고 있는 경우 오류 메시지가 표시됨
    이미 많은 수의 dvPort가 사용되고 있는 호스트에서 dvPort가 있는 가상 시스템의 전원을 켜면 메모리 부족또는 리소스 부족오류가 표시됩니다. esxcli 명령을 사용하여 호스트에 있는 스위치를 나열할 때에도 이 문제가 발생할 수 있습니다.

    해결 방법: dvsLargeHeap 크기를 늘립니다.

    1. 다음과 같이 호스트의 고급 구성 옵션을 변경합니다.
      • esxcli 명령: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
      • 가상 센터: 호스트 구성 -> 소프트웨어 패널 -> 고급 설정 -> "네트"에서 DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
      • vSphere 5.1 Web Client: 호스트 관리 -> 설정 -> 고급 시스템 설정 -> 필터로 이동합니다. DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
    2. 호스트에서 호스트 프로파일을 캡처합니다. 프로파일을 호스트와 연결하고 응답 파일을 업데이트합니다.
    3. 값이 적용되도록 호스트를 재부팅합니다.

    참고: /Net/DVSLargeHeapMaxSize의 최대값은 128입니다.

    대규모 배포 중에 /Net/DVSLargeHeapMaxSize를 128로 변경한 후 문제가 발생하고 로그에 다음 오류 메시지 중 하나가 표시되는 경우 VMware 지원에 문의하십시오.

    Unable to Add Port; Status(bad0006)= Limit exceeded

    Failed to get DVS state from vmkernel Status (bad0014)= Out of memory

  • ESXi가 Emulex BladeEngine-3 10G NIC(be2net 드라이버)에서 실패함
    VMware vCloud Director를 사용하여 vCDNI가 지원하는 네트워크 풀을 구성한 경우 ESXi가 Emulex BladeEngine-3 10G NIC가 있는 시스템에서 실패할 수 있습니다. 이 디바이스가 있는 네트워크 풀을 구성할 경우 Emulex에서 업데이트된 디바이스 드라이버를 얻어야 합니다.

    해결 방법: 없음.

스토리지 문제

  • VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션된 가상 시스템에서 RDM LUN이 분리됨
    vSphere Web Client를 사용하여 RDM LUN이 있는 가상 시스템을 VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션할 경우 오류 또는 주의 메시지 없이 마이그레이션 작업이 완료되지만 RDM LUN은 마이그레이션 후 가상 시스템에서 분리됩니다. 하지만 마이그레이션 작업 중 NFS 데이터스토어에는 RDM LUN을 대체하기 위해 RDM LUN과 같은 크기의 vmdk 파일이 생성됩니다.
    vSphere Client를 사용하는 경우 마이그레이션 마법사의 호환성 섹션에 해당 오류 메시지가 표시됩니다.

    해결 방법: 없음
  • EMC Symmetrix VMAX/VMAXe 스토리지 어레이를 사용하는 경우 VMFS5 데이터스토어 생성에 실패할 수 있음
    ESXi 호스트가 VMAX/VMAXe 어레이에 연결된 경우 어레이에서 나타나는 LUN에 VMFS5 데이터스토어를 생성하지 못할 수 있습니다. 이 경우 다음 오류가 표시됩니다. An error occurred during host configuration(호스트를 구성하는 동안 오류가 발생했습니다.) 이 오류는 이전에 기록되지 않은 LUN에서 새 데이터스토어를 방지하는 Symmetrix Enginuity Microcode(VMAX 5875.x)의 ATS(VAAI) 부분에 따른 결과입니다.

    해결 방법:

    1. ESXi 호스트에서 하드웨어 가속 잠금을 사용하지 않도록 설정합니다.
    2. VMFS5 데이터스토어를 생성합니다.
    3. 호스트에서 하드웨어 가속 잠금을 다시 사용하도록 설정합니다.

    하드웨어 가속 잠금 매개 변수를 사용하지 않도록 설정했다가 다시 사용하도록 설정하려면 다음 작업을 수행합니다.

    vSphere Web Client의 경우

    1. vSphere Web Client 탐색기에서 호스트를 찾습니다.
    2. 관리 탭을 클릭하고 설정을 클릭합니다.
    3. 시스템 아래에서 고급 시스템 설정을 클릭합니다.
    4. VMFS3.HardwareAcceleratedLocking을 선택하고 "편집" 아이콘을 클릭합니다.
    5. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
      • 0 사용 안 함
      • 1 사용

    vSphere Client의 경우

    1. vSphere Client 인벤토리 패널에서 호스트를 선택합니다.
    2. 구성 탭을 클릭하고 소프트웨어 아래에서 고급 설정을 클릭합니다.
    3. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
      • 0 사용 안 함
      • 1 사용

     

  • Storagesystem::updateDiskPartitions()를 사용하는 경우 빈 디스크에 GPT 파티션을 생성하려는 시도가 실패할 수 있음
    Storagesystem::computeDiskPartitionInfoAPI를 사용하여 디스크 규격을 검색한 다음 디스크 규격을 사용하여 Storagesystem::updateDiskPartitions()를 통해 디스크에 대한 레이블 지정과 파티션 생성을 수행할 수 있습니다. 하지만 디스크가 초기에 비어 있는 경우 대상 디스크 형식이 GPT이면 파티션을 생성하려는 시도가 실패할 수 있습니다.

    해결 방법: 대신 DatastoreSystem::createVmfsDatastore를 사용하여 빈 디스크에 대한 레이블 지정과 파티션 생성을 수행하고 VMFS5 데이터스토어를 생성합니다.

  •  

  • GPT 디스크에 진단 파티션을 생성하려는 시도가 실패할 수 있음
    GPT 디스크에 파티션이 없거나 디스크의 끝 부분이 비어 있는 경우 디스크에 진단 파티션을 생성하지 못할 수 있습니다.

    해결 방법: GPT 형식의 디스크를 진단 파티션에 사용하지 마십시오. 기존의 빈 GPT 디스크를 진단 파티션에 사용해야 하는 경우에는 디스크를 MBR 형식으로 변환합니다.

    1. 디스크에 VMFS3 데이터스토어를 생성합니다.
    2. 데이터스토어를 제거합니다.

    디스크 형식이 GPT에서 MBR로 변경됩니다.

     

  • 2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE LUN에서 ESXi를 부팅할 수 없음
    2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE 부팅 LUN에 ESXi를 설치하는 경우 설치에 성공할 수 있습니다. 하지만 ESXi 호스트를 부팅하려고 하면 부팅이 실패합니다. BIOS 실행 시 오류: No suitable geometry for this disk capacity!ERROR: Failed to connect to any configured disk!오류 메시지가 표시됩니다.

    해결 방법: 2TB보다 크고 FCoE 부팅용으로 구성한 Intel FCoE NIC에 연결된 FCoE LUN에 ESXi를 설치하지 마십시오. 2TB보다 작은 FCoE LUN에 ESXi를 설치하십시오.

서버 구성 문제

 

  • 콘솔을 통해 VMFS 폴더에 액세스하는 경우 호스트 프로파일 적용에 실패할 수 있음
    호스트 프로파일이 호스트에 적용됨과 동시에 사용자가 콘솔을 통해 VMFS 데이터스토어 폴더에 액세스하는 경우 업데이트 적용 또는 적용 작업이 실패할 수 있습니다. 이러한 실패는 호스트 프로파일에서 상태 비저장 캐시를 사용하도록 설정된 경우나 Auto Deploy 설치가 발생한 경우에 발생합니다.

    해결 방법: 호스트 프로파일 업데이트를 적용하는 동안 콘솔을 통해 VMFS 데이터스토어에 액세스하지 마십시오.

  • 로그인 배너의 선행 공백으로 인해 호스트 프로파일 규정 준수 실패가 발생함
    호스트 프로파일을 편집하고 "로그인 배너(요일 메시지)" 옵션의 텍스트를 변경하지만 배너 텍스트에 선행 공백을 추가하면 프로파일이 적용될 때 규정 준수 오류가 발생합니다. Login banner has been modified(로그인 배너가 수정됨)라는 규정 준수 오류가 나타납니다.

    해결 방법: 호스트 프로파일을 편집하고 로그인 배너 정책 옵션에서 선행 공백을 제거합니다.

  • Active Directory를 사용하도록 설정한 경우 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하지 못함
    Active Directory를 사용하도록 설정한 경우 원래 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하면 적용 작업이 실패합니다. likewise 시스템 리소스 풀의 최대 메모리 크기를 설정하면 오류가 발생할 수 있습니다. Active Directory를 사용하도록 설정한 경우 likewise 시스템 리소스 풀에 있는 서비스는 ESXi 5.0 호스트 프로파일에서 캡처된 ESXi 5.0의 기본 최대 메모리 제한보다 더 많이 소비합니다. 따라서 최대 메모리 제한을 ESXi 5.0 수준으로 설정하려고 시도하는 동안 ESXi 5.0 호스트 프로파일 적용이 실패합니다.

    해결 방법: 다음 작업 중 하나를 수행합니다.

    • 호스트 프로파일을 수동으로 편집하여 likewise 그룹의 최대 메모리 제한을 늘립니다.
      1. 호스트 프로파일 편집기에서 리소스 풀 폴더로 이동하고 host/vim/vmvisor/plugins/likewise를 봅니다.
      2. 20(ESXi 5.0 기본값)에서 25(ESXi 5.1 기본값)로 최대 메모리(MB) 설정을 수정합니다.
    • likewise 그룹의 하위 프로파일을 사용하지 않도록 설정합니다. 다음 중 하나를 수행합니다.
      • vSphere Web Client에서 호스트 프로파일을 편집하고 리소스 풀 폴더의 확인란을 선택 취소합니다. 이 작업을 수행하면 모든 리소스 풀 관리가 사용되지 않도록 설정됩니다. 리소스 풀 폴더의 host/vim/vmvisor/plugins/likewise 항목에 대해서만 이 기능을 사용하지 않도록 설정할 수 있습니다.
      • vSphere Client에서 호스트 프로파일을 마우스 오른쪽 버튼으로 클릭하고 메뉴에서 프로파일 구성 사용/사용 안 함...을 선택합니다.

     

  • ESXi 5.0.x 호스트 프로파일이 상태 저장 ESXi 5.1 호스트에 다시 적용될 때 호스트 게이트웨이가 삭제되고 규정 준수 실패가 발생함
    ESXi 5.0.x 호스트 프로파일이 새로 설치한 ESXi 5.1 호스트에 적용될 때 프로파일 규정 준수 상태가 규정 비준수입니다. 동일한 프로파일을 다시 적용한 후 호스트의 게이트웨이 IP가 삭제되고 규정 준수 상태가 계속해서 IP 경로 구성이 규격과 일치하지 않음상태 메시지와 함께 규정 비준수로 표시됩니다.

    해결 방법: 다음 해결 방법 중 하나를 수행합니다.

    • DCUI를 통해 호스트에 로그인하고 다음과 같은 esxcli명령을 사용하여 수동으로 기본 게이트웨이를 추가합니다.
      esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
    • ESX 5.0 호스트 프로파일을 한 번 적용한 후 ESX 5.1 호스트에서 새 호스트 프로파일을 추출합니다. ESX 5.1 호스트를 새 ESX 5.1 기반 호스트 프로파일로 마이그레이션합니다.

     

  • USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 후 규정 준수 오류가 발생할 수 있음
    호스트 프로파일에서 USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 경우 업데이트 적용 후 규정 준수 오류가 발생할 수 있습니다. 업데이트가 적용된 변경 사항을 적용하도록 호스트를 재부팅한 후 상태 비저장 캐시에 성공하지만 규정 준수 실패가 계속됩니다.

    해결 방법: 해결 방법이 없습니다.

  • 상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 동안 많은 데이터스토어가 있는 호스트가 시간 초과됨
    상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 경우 많은 데이터스토어가 있는 호스트가 시간 초과됩니다.

    해결 방법: vSphere Client를 사용하여 시간 초과를 늘립니다.

    1. 관리자 > vCenter Server 설정을 선택합니다.
    2. 시간 초과 설정을 선택합니다.
    3. 일반 작업과 긴 작업에 대한 값을 3600초로 변경합니다.

       

  • vmknic에서 IPv4를 사용하지 않도록 설정한 경우 호스트에서 호스트 프로파일을 추출할 수 없음
    모든 vmknic에서 모든 IPv4 주소를 제거하는 경우 해당 호스트에서 호스트 프로파일을 추출할 수 없습니다. 이 환경에서 호스트 구성을 저장하는 유일한 방법이 호스트 프로파일이므로 이 작업은 Auto Deploy로 프로비저닝된 호스트에 가장 큰 영향을 주게 됩니다.

    해결 방법: 하나 이상의 vmknic를 하나의 IPv4 주소에 할당합니다.

  • ESXi 4.1 호스트에서 추출된 호스트 프로파일을 ESXi 5.1 호스트에 적용하는 경우 호스트 프로파일 적용에 실패함
    ESXi 4.1을 사용하여 호스트를 설정하고 이 호스트(vCenter Server 포함)에서 호스트 프로파일을 추출한 다음 프로파일을 ESXi 5.1 호스트에 연결하는 경우 프로파일을 적용하려고 하면 작업이 실패합니다. 이 경우 다음 오류가 수신될 수 있습니다. NTP service turned off(NTP 서비스가 해제됨)

    ESXi 4.1의 /etc/ntp.conf에서 NTP 서버를 제공하지 않더라도 NTPD 서비스가 활성화된 상태로 실행되고 있을 수 있습니다. ESXi 5.1에 명시적 NTP 서버가 있어야 서비스를 실행할 수 있습니다.

    해결 방법: /etc/ntp.conf에서 올바른 NTP 서버를 추가하여 NTP 서비스를 켜고 5.1 호스트에서 NTP 대몬을 다시 시작합니다. 재부팅 후에도 서비스가 그대로 유지되는지 확인합니다. 이 작업을 수행하면 NTP 서비스가 호스트와 해당 호스트에 적용되는 프로파일에 대해 동기화됩니다.

  • 프로파일이 성공적으로 적용된 후 호스트 프로파일이 규정 비준수로 표시됨
    이 문제는 ESXi 5.0 호스트에서 호스트 프로파일을 추출하여 로컬 SAS 디바이스가 포함된 ESXi 5.1 호스트에 적용할 때 발생합니다. 호스트 프로파일 업데이트 적용에 성공해도 호스트 프로파일이 규정 비준수로 표시됩니다.

    다음과 같은 오류가 수신될 수 있습니다.

    • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 경로 선택 정책을 VMW_PSP_FIXED(으)로 설정해야 함
    • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 매개 변수를 State = "on" Queue Full Sample Size = "0" Queue Full Threshold = "0"(으)로 설정해야 함

     

    ESXi 5.1 호스트 프로파일 스토리지 플러그인이 PSA 및 NMP 디바이스 구성에 맞는 로컬 SAS 디바이스를 필터링하지만 ESXi 5.0에는 이와 같은 디바이스 구성이 포함되어 있습니다. 따라서 오래된 호스트 프로파일을 새 호스트에 적용하는 경우 누락된 디바이스가 발생합니다.

    해결 방법: 수동으로 호스트 프로파일을 편집하고 모든 로컬 SAS 디바이스의 PSA 및 NMP 디바이스 구성 항목을 제거합니다. 다음과 같은 esxcli 명령을 입력하여 디바이스가 로컬 SAS 디바이스인지 확인할 수 있습니다.
    esxcli storage core device list

    다음과 같은 줄이 반환되는 경우 디바이스는 로컬 SAS 디바이스입니다.
    Is Local SAS Device

  • 기본 시스템 서비스가 항상 Auto Deploy로 프로비저닝된 ESXi 호스트에서 시작됨
    Auto Deploy로 프로비저닝된 ESXi 호스트의 경우 관련 호스트 프로파일의 "서비스 구성" 섹션에 있는 서비스 시작 정책이 완전히 적용되지 않습니다. 특히, ESXi에서 기본적으로 켜져 있는 서비스 중 하나의 "시작 정책" 값이 off인 경우 해당 서비스는 Auto Deploy로 프로비저닝된 ESXi 호스트에서 여전히 부팅 시간에 시작됩니다.

    해결 방법: ESXi 호스트를 부팅한 후 서비스를 수동으로 중지합니다.

  • snmpd 다시 시작 후 VMWARE-VMINFO-MIB에서 정보 검색이 올바르게 이루어지지 않음
    ESXi Shell에서 /etc/init.d/snmpd restart를 사용하여 snmpd 대몬을 다시 시작한 후 SNMPWalk를 실행하는 동안 VMWARE-VMINFO-MIB의 일부 정보가 누락될 수 있습니다.

    해결 방법: /etc/init.d/snmpd restart를 사용하지 마십시오. esxcli system snmp set --enable명령을 사용하여 SNMP 대몬을 시작하거나 중지해야 합니다. /etc/init.d/snmpd restart를 사용하여 ESXi Shell에서 snmpd를 다시 시작한 경우 DCUI에서 Hostd를 다시 시작하거나 ESXi Shell에서 /etc/init.d/hostd restart를 사용하여 Hostd를 다시 시작합니다.

vCenter Server 및 vSphere Client 문제
  • View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server에 대한 ESXi 호스트 연결이 손실될 수 있음
    VMware View가 vSphere 5.1과 함께 배포된 경우 View 관리자가 데스크톱 풀에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server 5.1에 대한 ESXi 5.1 호스트 연결이 손실될 수 있습니다.

    View Storage Accelerator 기능을 컨텐츠 기반 읽기 캐시라고도 합니다. View 5.1 View Administrator 콘솔에서는 이 기능을 호스트 캐시라고 합니다.

    해결 방법: vSphere 5.1과 함께 배포된 View 환경에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하지 마십시오.

가상 시스템 관리 문제
  • ESX 3.x 이상(VM 버전 4)에서의 가상 시스템 호환성 업그레이드가 Windows 가상 시스템 Flexible 어댑터를 Windows 시스템 기본 드라이버로 잘못 구성함
    Flexible 네트워크 어댑터가 VMware Accelerated AMD PCnet Adapter 드라이버로 구성된 Windows 게스트 운영 체제가 있는 경우 가상 시스템 호환성을 ESX 3.x 이상(VM 버전 4)에서 다른 모든 이후의 호환성 설정으로 업그레이드하면(예: ESXi 4.x 이상(VM 버전 7) Windows가 Flexible 어댑터를 Windows AMD PCNET Family PCI Ethernet Adapter 기본 드라이버로 구성합니다.
    구성이 잘못되는 이유는 VMware Tools 드라이버가 서명되지 않아 Windows가 서명된 기본 Windows 드라이버를 선택하기 때문입니다. 호환성 업그레이드 이전에 설정되었던 Flexible 어댑터 네트워크 설정이 손실되고 NIC의 네트워크 속도가 1Gbps에서 10Mbps로 변경됩니다.

    해결 방법: 가상 시스템의 호환성을 업그레이드한 후 Windows 게스트 운영 체제에서 VMXNET 드라이버를 사용하도록 Flexible 네트워크 어댑터를 구성합니다. ESXi 5.1 VMware Tools로 게스트를 업데이트한 경우 VMXNET 드라이버는 다음 위치에 설치됩니다. C:\Program Files\Common Files\VMware\Drivers\vmxnet\.

  • 가상 시스템에 VMware Tools를 설치하고 재부팅하는 경우 네트워크를 사용할 수 없게 됨
    CentOS 6.3 및 Oracle Linux 6.3 운영 체제가 설치된 가상 시스템에서 VMware Tools를 성공적으로 설치하고 가상 시스템을 재부팅한 후에 네트워크를 사용할 수 없게 됩니다. 수동으로 DHCP 서버에서 IP 주소를 가져오거나 명령줄에서 정적 IP 주소를 설정하려고 하면 Cannot allocate memory(메모리를 할당하지 못했습니다) 오류가 나타납니다.
    이 문제는 기본적으로 사용되는 Flexible 네트워크 어댑터가 해당 운영 체제에 적합한 선택 항목이 아니기 때문에 발생합니다.

    해결 방법: 다음과 같이 네트워크 어댑터를 Flexible에서 E1000 또는 VMXNET 3으로 변경합니다.

    1. vmware-uninstall-tools.pl명령을 실행하여 VMware Tools를 제거합니다.
    2. 가상 시스템의 전원을 끕니다.
    3. vSphere Web Client에서 가상 시스템을 마우스 오른쪽 버튼으로 클릭하고 설정 편집을 선택합니다.
    4. "가상 하드웨어"를 클릭하고 "제거" 아이콘을 클릭하여 현재 네트워크 어댑터를 제거합니다.
    5. 새 네트워크 어댑터를 추가하고 어댑터 유형으로 E1000 또는 VMXNET 3을 선택합니다.
    6. 가상 시스템 전원 켜기.
    7. VMware Tools를 다시 설치합니다.

     

  • ESXi에서 VMFS가 아닌 가상 디스크가 포함된 복제 또는 마이그레이션 작업이 실패하고 오류가 발생함
    호스팅된 형식의 가상 디스크에서 vmkfstools 명령을 사용하여 복제, 복사 또는 마이그레이션 작업을 수행하든 클라이언트를 통해 복제, 복사 또는 마이그레이션 작업을 수행하든 해당 작업이 실패하고 다음 오류 메시지가 표시됩니다. The system cannot find the file specified(시스템에서 지정한 파일을 찾을 수 없습니다).

    해결 방법: 호스팅된 형식의 가상 디스크에서 복제, 복사 또는 마이그레이션 작업을 수행하려면 VMkernel 다중 익스텐트 모듈을 ESXi로 로드해야 합니다.

    1. ESXi Shell에 로그인하고 다중 익스텐트 모듈을 로드합니다.
      # vmkload_mod multiextent
    2. 가상 시스템 디스크가 호스팅된 유형인지 확인합니다. 호스팅된 디스크는 -s00x.vmdk라는 확장명으로 끝납니다.
    3. 호스팅된 형식의 가상 디스크를 VMFS 형식 중 하나로 변환합니다.
      1. 소스 호스팅된 디스크 test1.vmdk를 test2.vmdk에 복제합니다.
        # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
      2. 복제에 성공한 후 호스팅된 디스크 test1.vmdk를 삭제합니다.
        # vmkfstools -U test1.vmdk
      3. 복제된 vmfs 유형 디스크 test2.vmdk의 이름을 test1.vmdk로 바꿉니다.
        # vmkfstools -E test2.vmdk test1.vmdk
    4. 다중 익스텐트 모듈을 언로드합니다.
      #vmkload_mod -u multiextent

     

  • 가상 시스템에 할당된 IP 주소가 없으며 작동하는 것으로 나타나지 않음
    게스트 운영 체제에서 시작된 LUN 재설정 요청으로 인해 이 문제가 발생합니다. 이 문제는 ESXi 호스트에 소프트웨어 FCoE가 구성되어 있는 IBM XIV Fibre Channel 어레이와 관련이 있습니다. LUN에 상주하는 가상 시스템에서 다음과 같은 문제가 발생합니다.

    • 가상 시스템에 할당된 IP 주소가 없습니다.
    • 가상 시스템의 전원을 켜거나 끌 수 없습니다.
    • 콘솔 내부에 마우스 커서가 나타나지 않습니다. 결과적으로 게스트 운영 체제 내에서 영향을 받는 가상 시스템을 제어하거나 가상 시스템과 상호 작용할 방법이 없습니다.

     

    해결 방법: ESXi 호스트에서 문제가 발생하는 가상 시스템이 상주하는 LUN을 재설정합니다.

    1. 다음 명령을 실행하여 LUN 정보를 가져옵니다.
      # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
    2. 출력에서 다음 줄을 검색하여 LUN의 UID를 얻습니다.
      Partitions spanned (on 'lvm'): eui.001738004XXXXXX:1
      eui.001738004XXXXXX가 디바이스 UID입니다.
    3. 다음 명령을 실행하여 LUN을 재설정합니다.
      # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
    4. 응답하지 않는 가상 시스템이 연결된 LUN이 여러 개인 데이터스토어(예: 추가된 익스텐트)에 상주하는 경우 모든 데이터스토어 익스텐트에 대해 LUN을 재설정하십시오.

     

마이그레이션 문제
  • Storage vMotion을 사용하여 연결된 복제 가상 시스템 여러 개를 마이그레이션하려고 하면 실패함
    이 오류는 일반적으로 연결된 복제 가상 시스템에 영향을 미칩니다. 이 오류는 델타 디스크 크기가 1MB이고 ESXi 호스트에서 CBRC(컨텐츠 기반 읽기 캐시) 기능을 사용하도록 설정한 경우에 발생합니다. 다음 오류 메시지가 표시됩니다. 소스가 대상이 재개되지 못했음을 감지했습니다.

    해결 방법: 다음 방법 중 하나를 사용하여 Storage vMotion 오류를 방지합니다.

    • 4KB를 델타 디스크 크기로 사용합니다.

    • Storage vMotion을 사용하는 대신 전원이 꺼진 가상 시스템을 새 데이터스토어로 마이그레이션합니다.

VMware HA 및 Fault Tolerance 문제
  • vCenter Server의 베타 빌드에서 통계 정보를 기록하도록 설정한 경우 무장애 가상 시스템이 충돌함
    vmx*3 기능을 사용하면 stats vmx를 실행하여 지원 문제를 디버깅하기 위한 성능 통계를 수집할 수 있습니다. vCenter Server의 베타 빌드에서 Fault Tolerance를 사용하도록 설정한 경우에는 stats vmx가 호환되지 않습니다.

    해결 방법: Fault Tolerance를 사용하도록 설정하는 경우 가상 시스템이 vCenter Server의 베타 빌드에 통계를 기록하도록 설정되지 않아야 합니다.

지원되는 하드웨어 문제
  • Apple Mac Pro 서버의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
    vSphere 5.1의 하드웨어 상태 탭에 Apple Mac Pro의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 Apple Mac Pro에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

    해결 방법: 없음.

  • AMD PileDriver의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
    vSphere 5.1의 하드웨어 상태 탭에 AMD PileDriver의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 AMD PileDriver에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

    해결 방법: 없음.

  • DPM은 Apple Mac Pro 서버에서 지원되지 않음
    vSphere 5.1의 DPM(분산 전원 관리) 기능은 Apple Mac Pro에서 지원되지 않습니다. DPM을 사용하도록 설정한 클러스터에 Apple Mac Pro를 추가하지 마십시오. 호스트가 "대기" 상태로 전환되면 전원 켜기 명령이 실행될 때 대기 상태 종료에 실패하고 operation timed out(작업이 시간 초과되었습니다) 오류가 표시됩니다. Apple Mac Pro는 호스트를 대기 상태로 전환할 때 vSphere에서 사용되는 소프트웨어 전원 끄기 명령에서 해제될 수 없습니다.

    해결 방법: Apple Mac Pro 호스트가 "대기" 상태로 전환되면 전원 버튼을 물리적으로 눌러 호스트의 전원을 켜야 합니다.

  • IPMI는 Apple Mac Pro 서버에서 지원되지 않음
    vSphere 5.1의 하드웨어 상태 탭에 올바른 데이터가 표시되지 않거나 Apple Mac Pro의 일부 하드웨어 구성 요소에 대한 데이터가 누락됩니다. 이는 IPMI가 Apple Mac Pro에서 지원되지 않기 때문입니다.

    해결 방법: 없음.

기타 문제
  • 네트워크 또는 스토리지 중단 후 TCP 기반 syslog, SSL 기반 syslog 및 스토리지 로깅이 자동으로 다시 시작되지 않음
    특정 구성에서는 네트워크 또는 스토리지 중단 후 syslog 서비스가 자동으로 다시 시작되지 않습니다. 이러한 구성에는 TCP 기반 syslog, SSL 기반 syslog, 중단 스토리지 로깅 등이 있습니다.

    해결 방법: 다음 명령을 실행하여 명시적으로 syslog를 다시 시작합니다.
    esxcli system syslog reload자동으로 다시 시작되는 UDP 기반 syslog를 구성할 수도 있습니다.

  • Windows Server 2012 페일오버 클러스터링은 지원되지 않음
    Windows Server 2012에서 페일오버 클러스터링용 클러스터를 생성하는 경우 검증 테스트를 실행하도록 선택하면 마법사가 검증 테스트를 완료하고 주의 메시지를 표시한 다음 검증 테스트 실행 단계로 다시 돌아갑니다. Windows Server 2012 게스트 운영 체제의 마법사는 클러스터 생성 단계를 계속하지 않습니다.

    해결 방법: 없음.