VMware ESXi 5.1 Update 1 | 2013년 4월 25일 | 빌드 1065491

마지막 업데이트 날짜: 2013년 4월 25일

이 릴리스 정보의 추가 사항 및 업데이트 사항을 확인하십시오.

릴리스 정보에 포함된 내용

릴리스 정보에는 다음과 같은 항목이 포함됩니다.

새로운 기능

이번 VMware ESXi 릴리스에는 다음과 같이 향상된 기능이 포함되어 있습니다.

  • 추가 게스트 운영 체제 지원 -이 릴리스에서는 여러 게스트 운영 체제에 대한 지원을 업데이트합니다.
    이 릴리스에서 지원되는 게스트 운영 체제의 전체 목록은 VMware 호환성 가이드를 참조하십시오.

  • 해결된 문제 이 릴리스에서는 해결된 문제 섹션에서 설명하는 여러 가지 버그 수정 사항도 제공합니다.

ESXi 5.1의 이전 릴리스

ESXi 5.1의 기능과 알려진 문제는 각 릴리스의 릴리스 정보에 설명되어 있습니다. 이전 ESXi 5.1 릴리스의 릴리스 정보를 보려면 VMware vSphere 5.1 릴리스 정보를 참조하십시오.

국제화

VMware vSphere 5.1 업데이트 1은 다음과 같은 언어로 제공됩니다.

  • 영어
  • 프랑스어
  • 독일어
  • 일본어
  • 한국어
  • 중국어 간체

호환성 및 설치

ESXi, vCenter Server 및 vSphere Web Client 버전 호환성

VMware 제품 상호 운용성 매트릭스에는 ESXi, VMware vCenter Server, vSphere Web Client 및 선택적 VMware 제품을 포함한 VMware vSphere 구성 요소의 현재 버전과 이전 버전 사이의 호환성에 대한 자세한 내용이 나와 있습니다. 이 사이트에서는 ESXi나 vCenter Server를 설치하기 전에 사용할 수 있는 관리 및 백업 에이전트에 대한 정보도 확인할 수 있습니다.

vSphere Client와 vSphere Web Client는 vCenter Server 및 모듈 ZIP 파일에 함께 패키지되어 있으며 VMware vCenter™ 설치 관리자 마법사에서 클라이언트 하나 또는 둘 다를 설치할 수 있습니다.

ESXi, vCenter Server 및 VDDK 호환성

VDDK(Virtual Disk Development Kit) 5.1.1에는 ESXi 5.1 업데이트 1 및 vCenter Server 5.1 업데이트 1 릴리스에 대한 지원이 추가되었습니다. VDDK에 대한 자세한 내용은 http://www.vmware.com/support/developer/vddk/를 참조하십시오.

ESXi의 하드웨어 호환성

vSphere 5.1 업데이트 1과 호환되는 프로세서, 스토리지 디바이스, SAN 어레이 및 I/O 디바이스를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 1 정보를 참조하십시오.

이번 릴리스에 대해 지원되는 프로세서 목록이 확장되었습니다. 이번 릴리스와 호환되는 프로세서를 확인하려면 VMware 호환성 가이드를 참조하십시오.

ESXi의 게스트 운영 체제 호환성

ESXi 5.1 업데이트 1과 호환되는 게스트 운영 체제를 확인하려면 VMware 호환성 가이드에서 ESXi 5.1 업데이트 1 정보를 참조하십시오.

vSphere 5.1부터 이전 게스트 운영 체제에 대한 지원 수준 변경이 도입되었습니다. 각 지원 수준에 대한 설명은 기술 자료 문서 2015161을 참조하십시오. VMware 호환성 가이드에서는 모든 운영 체제 릴리스와 VMware 제품 릴리스에 대한 자세한 지원 정보를 제공합니다.

각 운영 체제 벤더가 더 이상 지원하지 않는 다음 게스트 운영 체제 릴리스는 더 이상 사용되지 않습니다. 이러한 게스트 운영 체제는 vSphere 5.1 업데이트 1에서는 지원되지만 이후 vSphere 릴리스에서는 지원되지 않습니다.

  • Windows NT
  • 모든 16비트 Windows 및 DOS 릴리스(Windows 98, Windows 95, Windows 3.1)
  • Debian 4.0 및 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • SUSE Linux Enterprise 9 SP4 이전
  • SUSE Linux Enterprise 10 SP3 이전
  • SUSE Linux Enterprise 11 SP1 이전
  • Ubuntu 릴리스 8.04, 8.10, 9.04, 9.10 및 10.10
  • 모든 Novell Netware 릴리스
  • 모든 IBM OS/2 릴리스

ESXi의 가상 시스템 호환성

ESX 3.x 이상(하드웨어 버전 4)과 호환되는 가상 시스템은 ESXi 5.1 업데이트 1에서 지원됩니다. ESX 2.x 이상(하드웨어 버전 3)과 호환되는 가상 시스템은 더 이상 지원되지 않습니다. ESXi 5.1 업데이트 1에서 이와 같은 가상 시스템을 사용하려면 가상 시스템 호환성을 업그레이드하십시오. 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오.

이 릴리스에 대한 설치 정보

ESXi 및 vCenter Server를 설치하고 구성하는 방법에 대한 단계별 지침은 vSphere 설치 및 설정 설명서를 참조하십시오.

설치는 간단하지만 여러 후속 구성 단계를 수행해야 합니다. 특히 다음 정보를 읽어 보십시오.

타사 솔루션 마이그레이션

호스트 업그레이드의 일부로 ESX 또는 ESXi 호스트에 설치된 타사 솔루션은 직접 마이그레이션할 수 없습니다. ESXi 5.0과 ESXi 5.1 간의 아키텍처 변경으로 타사 구성 요소가 손실되거나 시스템이 불안정해질 수 있습니다. 이러한 마이그레이션을 성공적으로 수행하려면 Image Builder를 사용하여 사용자 지정 ISO 파일을 생성합니다. 타사 사용자 지정 항목을 사용한 업그레이드에 대한 자세한 내용은 vSphere 업그레이드 설명서를 참조하십시오. Image Builder를 사용하여 사용자 지정 ISO를 만드는 방법에 대한 자세한 내용은 vSphere 설치 및 설정 설명서를 참조하십시오.

지원되지 않는 CPU에 대해 허용되지 않는 업그레이드 및 설치

vSphere 5.1 업데이트 1에서는 LAHF 및 SAHF CPU 명령 집합이 포함된 CPU만 지원합니다. 설치 또는 업그레이드를 진행하는 동안 설치 관리자는 호스트 CPU가 vSphere 5.1 업데이트 1과 호환되는지 여부를 확인합니다. 호스트 하드웨어가 호환되지 않는 경우 퍼플 스크린이 나타나면서 비호환성 정보 메시지가 표시되면 vSphere 5.1 업데이트 1을 설치하거나 vSphere 5.1 업데이트 1로 업그레이드할 수 없습니다.

이 릴리스의 업그레이드

vCenter Server 및 ESX/ESXi 호스트 업그레이드 방법에 대한 지침은 vSphere 업그레이드 설명서를 참조하십시오.

ESXi 5.1 업데이트 1에서는 ESX/ESXi 호스트를 업그레이드하기 위해 다음과 같은 도구를 제공합니다.

  • CD-ROM, DVD 또는 USB 플래시 드라이브의 ESXi 설치 관리자 ISO 이미지를 사용하여 대화형으로 업그레이드. CD-ROM, DVD 또는 USB 플래시 드라이브에서 ESXi 5.1 업데이트 1 설치 관리자를 실행하여 대화형 업그레이드를 수행할 수 있습니다. 이 방법은 호스트 수가 적은 경우에 적절합니다.
  • 스크립트로 작성된 업그레이드 수행. 효율적인 자동 업그레이드를 제공하는 업데이트 스크립트를 호출하여 ESX/ESXi 버전 4.x 호스트, ESXi 5.0.x 및 ESXi 5.1 호스트에서 ESXi 5.1 업데이트 1로 업그레이드하거나 마이그레이션할 수 있습니다. 스크립트로 작성된 업그레이드를 수행할 경우 여러 호스트를 효율적으로 배포할 수 있습니다. 스크립트를 사용하여 CD-ROM이나 DVD 드라이브에서 ESXI를 업그레이드하거나 설치 관리자를 PXE 부팅할 수 있습니다.

  • vSphere Auto Deploy. ESXi 5.x 호스트가 vSphere Auto Deploy를 사용하여 배포된 경우 Auto Deploy를 통해 ESXi 업그레이드가 포함된 새 이미지 프로파일로 재부팅하여 호스트를 재프로비저닝할 수 있습니다.

  • esxcli. esxcli 명령줄 유틸리티를 통해 vmware.com의 다운로드 디포나 VMware 파트너가 제공하는 디포로부터 다운로드된 ZIP 파일에서 ESXi 5.1.x 호스트로 업데이트하거나 패치를 적용할 수 있습니다. esxcli를 사용하여 ESX/ESXI 5.1 이전 버전에서 ESX 또는 ESXI 5.1.x 호스트 버전으로 업그레이드할 수는 없습니다.

ESXi 5.1 업데이트 1로의 업그레이드에 대해 지원되는 업그레이드 경로:

업그레이드 자료

지원되는 업그레이드 도구

ESXi 5.1 업데이트 1로의 업그레이드를 위해 지원되는 경로

ESX 4.0:
포함 버전:
ESX 4.0 업데이트 1
ESX4.0 업데이트 2

ESX4.0 업데이트 3
ESX 4.0 업데이트 4

ESXi 4.0:
포함 버전:
ESXi 4.0 업데이트 1
ESXi 4.0 업데이트 2

ESXi 4.0 업데이트 3
ESXi 4.0 업데이트 4

ESX 4.1:
포함 버전:
ESX 4.1 업데이트 1
ESX 4.1 업데이트 2

ESX 4.1 업데이트 3

 

ESXi 4.1 :
포함 버전:
ESXi 4.1 업데이트 1

ESXi 4.1 업데이트 2
ESXi 4.1 업데이트 3

ESXi 5.0:
포함 버전:
ESXi 5.0 업데이트 1

ESXi 5.0 업데이트 2

ESXi 5.1

VMware-VMvisor-Installer-5.1.0.update01-xxxxxx.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 업그레이드
  • 스크립트로 작성된 업그레이드

update-from-esxi5.1-5.1_update01.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

아니요

아니요

아니요

아니요

아니요

VMware 포털(온라인)에서 다운로드한 패치 정의 사용

VMware vCenter Update Manager(패치 기준선 포함)

아니요

아니요

아니요

아니요

아니요

 

VMware vSphere 5.1 업데이트 1의 오픈 소스 구성 요소

vSphere 5.1 업데이트 1에서 배포되는 오픈 소스 소프트웨어 구성 요소에 적용되는 저작권 정보 및 라이센스는 http://www.vmware.com/download/vsphere/open_source.html 페이지의 Open Source(오픈 소스) 탭에서 확인할 수 있습니다. 이 페이지에서는 최신 vSphere 릴리스에 소스 코드 또는 소스 코드 수정 사항을 사용하는 데 필요한 모든 GPL, LGPL 또는 기타 유사한 라이센스의 소스 파일도 다운로드할 수 있습니다.

제품 지원 고지 사항

  • vSphere Client. vSphere 5.1에서는 vSphere Web Client를 통해서만 새로운 vSphere 기능을 모두 사용할 수 있습니다. 기존 vSphere Client가 계속해서 작동하면서 vSphere 5.0과 동일한 기능 세트를 지원하지만 vSphere 5.1의 새로운 기능은 지원하지 않습니다.

    vSphere 5.1과 해당 후속 업데이트 및 패치 릴리스는 기존 vSphere Client를 포함하는 마지막 릴리스입니다. VMware vSphere의 이후 주요 릴리스에는 vSphere Web Client만 포함됩니다.

    vSphere 5.1의 경우 기존 vSphere Client의 버그 수정은 보안 또는 중요 문제로 제한됩니다. 중요 버그는 지정된 제품 기능에서 벗어나 데이터 손상, 데이터 손실, 시스템 충돌 또는 상당한 고객 애플리케이션 다운타임을 초래하는 것으로, 구현 가능한 해결 방법이 없습니다.

  • VMware Toolbox. vSphere 5.1은 VMware Tools 그래픽 사용자 인터페이스인 VMware Toolbox를 지원하는 최근 릴리스입니다. VMware에서는 모든 VMware Tools 기능을 수행하는 Toolbox CLI(명령줄 인터페이스)를 지속적으로 업데이트하고 지원할 것입니다.

  • VMI 반가상화. vSphere 4.1은 VMI 게스트 운영 체제 반가상화 인터페이스를 지원하는 마지막 릴리스였습니다. 이후 vSphere 릴리스에서도 VMI를 실행할 수 있도록 VMI를 사용하는 가상 시스템을 마이그레이션하는 데 대한 자세한 내용은 기술 자료 문서 1013842를 참조하십시오.

  • Windows 게스트 운영 체제 사용자 지정. vSphere 5.1은 Windows 2000 게스트 운영 체제 사용자 지정 기능을 지원하는 마지막 릴리스입니다. VMware에서는 새로운 버전의 Windows 게스트를 위한 사용자 지정 기능을 지속적으로 지원할 것입니다.

  • VMCI 소켓. 게스트 간 통신(가상 시스템 간 통신)은 vSphere 5.1 릴리스에서 더 이상 사용되지 않습니다. 이 기능은 다음 주요 릴리스에서 제거됩니다. 호스트 및 게스트 간 통신은 계속 지원됩니다.

이 릴리스에 포함된 패치

이 릴리스에는 이 제품 출시 이전에 출시된 모든 ESXi 관련 공지가 포함됩니다. 개별 공지에 대한 자세한 내용은 VMware 패치 다운로드 페이지를 참조하십시오.

패치 릴리스 ESXi510-Update01에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201304201-UG: ESXi 5.1 esx-base vib 업데이트
ESXi510-201304202-UG: ESXi 5.1 tools-light vib 업데이트
ESXi510-201304203-UG: ESXi 5.1 net-ixgbe vib 업데이트
ESXi510-201304204-UG: ESXi 5.1 ipmi-ipmi-si-drv vib 업데이트
ESXi510-201304205-UG: ESXi 5.1 net-tg3 vib 업데이트
ESXi510-201304206-UG: ESXi 5.1 misc-drivers vibs 업데이트
ESXi510-201304207-UG: ESXi 5.1 net-e1000e vib 업데이트
ESXi510-201304208-UG: ESXi 5.1 net-igb vib 업데이트
ESXi510-201304209-UG: ESXi 5.1 scsi-megaraid-sas vib 업데이트
ESXi510-201304210-UG: ESXi 5.1 net-bnx2 vib 업데이트


패치 릴리스 ESXi510-Update01 Security-only에는 다음과 같은 개별 공지가 포함되어 있습니다.

ESXi510-201304101-SG: ESXi 5.1 esx-base vib 업데이트
ESXi510-201304102-SG: ESXi 5.1 tools-light vib 업데이트
ESXi510-201304103-SG - ESXi 5.1 net-bnx2x vib 업데이트
ESXi510-201304104-SG - ESXi 5.1 esx-xserver vib 업데이트


패치 릴리스 ESXi510-Update01에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20130402001-standard
ESXi-5.1.0-20130402001-no-tools

패치 릴리스 ESXi510-Update01 Security-only에는 다음과 같은 이미지 프로파일이 포함되어 있습니다.

ESXi-5.1.0-20130401001s-standard
ESXi-5.1.0-20130401001s-no-tools


패치 및 업데이트 분류에 대한 자세한 내용은 KB 2014447을 참조하십시오.

해결된 문제

이 섹션에서는 이 릴리스에서 다음 분야와 관련하여 해결된 문제에 대해 설명합니다.

CIM 및 API

  • ESXi 5.1 호스트에서 보고된 SMBIOS UUID가 실제 SMBIOS UUID와 다를 수 있음
    ESXi 5.1 시스템의 SMBIOS 버전이 버전 2.6 이상인 경우 ESXi 5.1 호스트에서 보고되는 SMBIOS UUID가 실제 SMBIOS UUID와 다를 수 있습니다. UUID의 처음 세 개 필드의 바이트 순서가 올바르지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.x 호스트가 vCenter Server에 연결이 끊긴 것으로 나타나고 vpxa.log 파일에 ramdisk(루트)가 가득 찼다는 메시지를 기록함
    SNMP(Simple Network Management Protocol)에서 ESXi의 /var/spool/snmp폴더에 있는 SNMP 트랩 파일( .trp) 수를 처리할 수 없는 경우 호스트가 vCenter Server에 연결이 끊긴 것으로 나타날 수 있습니다. 이 경우 호스트에서 아무 작업도 수행하지 못할 수 있습니다.
    vpxa.log에는 다음과 유사한 항목이 여러 개 들어 있습니다.
    주의: VisorFSObj: 1954: ramdisk(루트)의 inode 테이블이 가득 찼으므로
    vpxa 프로세스에 대한 파일 /var/run/vmware/f4a0dbedb2e0fd30b80f90123fbe40f8.lck을(를) 생성할 수 없습니다.
    WARNING: VisorFSObj: 1954: ramdisk(루트)의 inode 테이블이 가득 찼으므로
    sh 프로세스에 대한 파일 /var/run/vmware/watchdog-vpxa.PID을(를) 생성할 수 없습니다.


    이 문제는 이 릴리스에서 해결되었습니다.
  • vCenter Server 또는 vSphere Client가 호스트 하드웨어 RAID 컨트롤러 상태를 모니터링할 수 없음
    LSI CIM 제공자 같은 타사 HHRC(호스트 하드웨어 RAID 컨트롤러) CIM 제공자를 설치한 경우 래핑된 HHRC CIM 제공자에 오류가 있으면 sfcb-hhrc 프로세스가 실패합니다.

    이 문제는 이 릴리스에서 HHRCWrapperProvider의 견고성과 오류 처리 기능을 개선하여 해결되었습니다.

게스트 운영 체제

  • 하드웨어 버전 9를 사용하여 가상 시스템을 생성하는 경우 Mac OS X 10.8 64비트 옵션을 사용할 수 없음
    vSphere 5.1에서 하드웨어 버전 9를 사용하여 가상 시스템을 생성하는 경우 Mac OS X 10.8 64비트 운영 체제 옵션이 게스트 운영 체제 드롭다운 메뉴에 나타나지 않습니다.

    이 문제는 NGC Client를 사용하여 vSphere 5.1 업데이트 1에 연결하는 경우 이 릴리스에서 해결되었습니다.
  • Solaris 10 가상 시스템에 대한 TSC(타임 스탬프 카운터)가 올바르게 보정되지 않음
    이 문제는 이 릴리스에서 해결되었습니다.
    NTP(Network Time Protocol)의 허용 한도 내에서 TSC 보정을 수정하기 위해 Solaris 10 게스트 운영 체제에 대한 게스트 타이머 보정 지원이 추가되었습니다.
  • ESXi 5.1 호스트에서 vCPU의 사용량이 많을 경우 가상 시스템이 응답하지 않을 수 있음
    ESXi 5.1 호스트에서 vCPU의 사용량이 많을 경우 가상 시스템 하드웨어 버전 7에서 실행 중인 가상 시스템이 응답하지 않을 수 있습니다. 이 문제는 게스트 운영 체제가 APIC(Advanced Programmable Interrupt Controller) 논리적 대상 모드를 사용하는 가상 시스템에 영향을 줍니다. 게스트 운영 체제가 물리적 대상 모드를 사용하는 가상 시스템은 영향을 받지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • CreateTemporaryFile InGuest() 함수에서 GuestPermissionDeniedFault 예외가 발생할 수 있음
    전원이 켜진 가상 시스템을 재구성하여 SCSI 컨트롤러를 추가하고 게스트 운영 체제에서 임시 파일을 생성하려고 하면 작업이 실패하고 GuestPermissionDeniedFault예외가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

기타

  • invoke-vmscript 명령을 사용하는 경우 오류가 표시됨
    가상 시스템에서 invoke-vmscriptPowerCLI 명령 스크립트를 사용하면 스크립트가 실패하고 다음과 같은 오류 메시지가 표시됩니다.

    게스트 운영 에이전트에 연결할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • USB 포트에서 키보드나 마우스를 꽂거나 빼면 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타남
    USB 포트에서 키보드나 마우스를 꽂거나 빼면 ESXi 호스트가 실패하고 다음과 같은 오류 메시지가 표시됩니다.
    PCPU##이(가) 잠겼습니다. TLB 무효화 ack를 수행하지 못했습니다.

    자세한 내용은 KB 2000091을 참조하십시오.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere Authentication Proxy 서비스(CAM 서비스)를 사용하여 ESXi 호스트를 도메인에 처음 가입시키려고 할 때 DC 복제 지연으로 인해 실패할 수 있음
    vSphere Authentication Proxy 서비스(CAM 서비스)를 사용하여 ESXi 호스트를 처음 추가하는 자동화된 프로세스가 실패하고 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    사용자 이름이나 암호가 잘못되어 로그인을 완료할 수 없습니다.

    이 문제는 Authentication Proxy 서비스가 한 도메인 컨트롤러에 계정을 생성하고 ESXi 호스트가 다른 도메인 컨트롤러와 통신할 때 그 결과로 도메인 컨트롤러 복제가 지연되는 경우에 발생합니다. 따라서 ESXi 호스트가 새로 생성된 계정을 사용하여 DC(도메인 컨트롤러)에 연결하지 못합니다.
    Authentication Proxy 서비스를 사용하지 않고 ESXi 호스트가 Active Directory 도메인에 직접 추가되는 경우에는 이 문제가 발생하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 구성 요소 기반 로깅과 고급 구성이 hostd 로그 수준에 추가됨
    문제가 발생했을 때 적절한 로그를 손쉽게 가져올 수 있도록 하기 위해 이 릴리스에서는 로거를 여러 그룹으로 나누고 그 앞에 기호를 붙여 구성 요소 기반 로깅을 추가했습니다. 또한 다시 시작하지 않고 새 고급 구성을 통해 hostd 로그의 로그 수준을 변경할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vShield Endpoint가 있는 ESXi 호스트에서 64비트 Windows 2003 R2 게스트 운영 체제를 실행하는 가상 시스템이 실패하고 블루 진단 스크린이 나타날 수 있음
    vShield Endpoint 드라이버 vsepflt.sys의 잘못된 API 호출로 인해 64비트 Windows 2003 R2 게스트 운영 체제를 실행하는 가상 시스템이 실패하고 블루 진단 스크린이 나타날 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware VOMA(Ondisk Metadata Analyser)가 실패하고 세분화 오류가 발생함
  • VMFSCK 모듈 때문에 VMware VOMA(Ondisk Metadata Analyser)가 실패하고 세분화 오류가 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere 네트워크 코어 덤프가 완전한 데이터를 수집하지 못함
    충분하지 않은 덤프 슬롯 크기로 인해 디스크 덤프가 일부 데이터를 수집하지 못하는 경우 vSphere 네트워크 코어 덤프가 완전한 데이터를 수집하지 못합니다.

    이 문제는 이 릴리스에서 해결되었습니다. 디스크 덤프 슬롯 크기로 인한 장애는 더 이상 네트워크 코어 덤프에 영향을 주지 않습니다.

  • hostd-worker 스레드가 CPU 리소스를 100% 소비하는 경우 ESXi 호스트가 실패할 수 있음
    ESXi 호스트의 워크로드가 충분히 높은 경우 vCloud Director UI에 대한 가상 시스템 스크린샷 파일을 가져오는 동안 hostd-worker 스레드가 CPU를 100% 소비하면서 멈출 수 있습니다. 이 문제로 인해 ESXi 호스트 오류가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

네트워킹

  • 장시간 실행되는 vMotion 작업에서 유니캐스트 플러딩이 발생할 수 있음
    vSphere 5에서 다중 NIC vMotion 기능을 사용할 때 vMotion 작업이 장시간 계속되는 경우 물리적 스위치의 모든 인터페이스에서 유니캐스트 플러딩이 발생됩니다. vMotion 작업에 MAC 주소 테이블 만료 시간보다 오랜 시간이 걸리는 경우 소스와 대상 호스트가 많은 양의 네트워크 트래픽을 받기 시작합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 호스트에 호스트 프로파일을 성공적으로 적용한 후 해당 호스트에서 규정 준수 실패 오류 메시지가 표시될 수 있음
    ESXi 호스트에 호스트 프로파일을 성공적으로 적용한 경우에도 해당 호스트에서 규정이 준수되지 않아 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    IPv4 경로가 일치하지 않습니다.

    이 문제는 두 개 이상의 VMkernel 포트 그룹에서 동일한 서브넷을 사용할 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • VMXNET 3 vNIC 네트워크 어댑터가 있는 가상 시스템에서 hostd 로그 파일에 오류 메시지가 표시될 수 있음
    VMXNET 3 vNIC 네트워크 어댑터가 있는 가상 시스템에서 hostd 로그 파일에 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]: convert to UNKNOWN.
    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]: convert to UNKNOWN.
    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]: convert to UNKNOWN.


    이 문제는 포트 유형이 설정되지 않은 경우에 발생합니다. 이는 정상적인 동작이므로 이 메시지는 무시해도 됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • arpresolve가 진행되는 동안 ESXi 호스트가 응답을 중지하고 퍼플 진단 스크린이 나타남
    arpresolve가 진행되는 동안 ESXi 호스트가 응답을 중지하고 퍼플 진단 스크린이 나타나면서 다음과 같은 메시지가 표시될 수 있습니다.

    2012-08-30T14:35:11.247Z cpu50:8242)@BlueScreen: #PF Exception 14 in world 8242:idle50 IP 0x4180280056ad addr 0x1
    2012-08-30T14:35:11.248Z cpu50:8242)Code start: 0x418027800000 VMK uptime: 7:14:19:29.193
    2012-08-30T14:35:11.249Z cpu50:8242)0x412240c87868:[0x4180280056ad]arpresolve@ # +0xd4 stack: 0x412240c878a8
    2012-08-30T14:35:11.249Z cpu50:8242)0x412240c878e8:[0x418027ff69ba]ether_output@ # +0x8d stack: 0x412240c87938
    2012-08-30T14:35:11.250Z cpu50:8242)0x412240c87a28:[0x4180280065ad]arpintr@ # +0xa9c stack: 0x41003eacd000
    2012-08-30T14:35:11.251Z cpu50:8242)0x412240c87a68:[0x418027ff6f76]ether_demux@ # +0x1a1 stack: 0x41003eacd000
    2012-08-30T14:35:11.252Z cpu50:8242)0x412240c87a98:[0x418027ff72c4]ether_input@ # +0x283 stack: 0x412240c87b50
    2012-08-30T14:35:11.253Z cpu50:8242)0x412240c87b18:[0x418027fd338f]TcpipRx@ # +0x1de stack: 0x2
    2012-08-30T14:35:11.254Z cpu50:8242)0x412240c87b98:[0x418027fd2d9b]TcpipDispatch@ # +0x1c6 stack: 0x410008ce6000
    2012-08-30T14:35:11.255Z cpu50:8242)0x412240c87c48:[0x4180278ed76e]WorldletProcessQueue@vmkernel#nover+0x3c5 stack: 0x0
    2012-08-30T14:35:11.255Z cpu50:8242)0x412240c87c88:[0x4180278edc79]WorldletBHHandler@vmkernel#nover+0x60 stack: 0x2
    2012-08-30T14:35:11.256Z cpu50:8242)0x412240c87ce8:[0x41802781847c]BHCallHandlers@vmkernel#nover+0xbb stack: 0x100410000000000
    2012-08-30T14:35:11.257Z cpu50:8242)0x412240c87d28:[0x41802781896b]BH_Check@vmkernel#nover+0xde stack: 0x4a8a29522e753
    2012-08-30T14:35:11.258Z cpu50:8242)0x412240c87e58:[0x4180279efb41]CpuSchedIdleLoopInt@vmkernel#nover+0x84 stack: 0x412240c87e98
    2012-08-30T14:35:11.259Z cpu50:8242)0x412240c87e68:[0x4180279f75f6]CpuSched_IdleLoop@vmkernel#nover+0x15 stack: 0x62
    2012-08-30T14:35:11.260Z cpu50:8242)0x412240c87e98:[0x41802784631e]Init_SlaveIdle@vmkernel#nover+0x13d stack: 0x0
    2012-08-30T14:35:11.261Z cpu50:8242)0x412240c87fe8:[0x418027b06479]SMPSlaveIdle@vmkernel#nover+0x310 stack: 0x0
    2012-08-30T14:35:11.272Z cpu50:8242)base fs=0x0 gs=0x41804c800000 Kgs=0x0

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMXNET3 네트워크 어댑터가 있는 Solaris 11 가상 시스템이 30초 간격으로 /var/adm/messages에 메시지를 기록할 수 있음
    VMXNET3 네트워크 어댑터가 있는 Solaris 11 가상 시스템이 /var/adm/messages에 메시지를 기록할 수 있습니다. 다음과 유사한 오류 메시지가 시스템 로그에 표시될 수 있습니다.
    vmxnet3s: [ID 654879 kern.notice] vmxnet3s:1: getcapab(0x200000) -> no
    이 문제는 30초 간격으로 반복됩니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 전송 링을 정리하는 동안 발생한 오류로 인해 ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타날 수 있음
    ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타나면서 다음과 유사한 메시지가 표시될 수 있습니다.

    @BlueScreen: #PF Exception 14 in world 4891:vmm0:HQINTSQ IP 0x41800655ea98 addr 0xcc
    41:11:55:21.277 cpu15:4891)Code start: 0x418006000000 VMK uptime: 41:11:55:21.277
    41:11:55:21.278 cpu15:4891)0x417f818df948:[0x41800655ea98]e1000_clean_tx_irq@esx:nover+0x9f stack: 0x4100b5610080
    41:11:55:21.278 cpu15:4891)0x417f818df998:[0x418006560b9a]e1000_poll@esx:nover+0x18d stack: 0x417f818dfab4
    41:11:55:21.279 cpu15:4891)0x417f818dfa18:[0x41800645013a]napi_poll@esx:nover+0x10d stack: 0x417fc68857b8
    41:11:55:21.280 cpu15:4891)0x417f818dfae8:[0x4180060d699b]WorldletBHHandler@vmkernel:nover+0x442 stack: 0x417fc67bf7e0
    41:11:55:21.280 cpu15:4891)0x417f818dfb48:[0x4180060062d6]BHCallHandlers@vmkernel:nover+0xc5 stack: 0x100410006c38000
    41:11:55:21.281 cpu15:4891)0x417f818dfb88:[0x4180060065d0]BH_Check@vmkernel:nover+0xcf stack: 0x417f818dfc18
    41:11:55:21.281 cpu15:4891)0x417f818dfc98:[0x4180061cc7c5]CpuSchedIdleLoopInt@vmkernel:nover+0x6c stack: 0x410004822dc0
    41:11:55:21.282 cpu15:4891)0x417f818dfe68:[0x4180061d180e]CpuSchedDispatch@vmkernel:nover+0x16e1 stack: 0x0
    41:11:55:21.282 cpu15:4891)0x417f818dfed8:[0x4180061d225a]CpuSchedWait@vmkernel:nover+0x20d stack: 0x410006108b98
    41:11:55:21.283 cpu15:4891)0x417f818dff28:[0x4180061d247a]CpuSched_VcpuHalt@vmkernel:nover+0x159 stack: 0x4100a24416ac
    41:11:55:21.284 cpu15:4891)0x417f818dff98:[0x4180060b181f]VMMVMKCall_Call@vmkernel:nover+0x2ba stack: 0x417f818dfff0
    41:11:55:21.284 cpu15:4891)0x417f818dffe8:[0x418006098d19]VMKVMMEnterVMKernel@vmkernel:nover+0x10c stack: 0x0
    41:11:55:21.285 cpu15:4891)0xfffffffffc058698:[0xfffffffffc21d008]__vmk_versionInfo_str@esx:nover+0xf59cc9f7 stack: 0x0
    41:11:55:21.297 cpu15:4891)FSbase:0x0 GSbase:0x418043c00000 kernelGSbase:0x0

    이 오류는 전송 링을 정리하는 동안 일부 다른 작업을 수행하기 위해 CPU가 전송되고 그 동안에 다른 CPU가 링을 정리한 다음 첫 번째 CPU가 다시 전송 링을 잘못 정리하여 널 skb가 역참조되는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • IPv6 가상 시스템의 네트워크 연결이 VMXNET3에서 작동하지 않음
    VMXNET3 인터페이스에 구성된 IPv6 주소가 32개를 초과하면 해당 주소 중 일부에 대한 유니캐스트 및 멀티캐스트 연결이 끊어집니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • tg3 드라이버를 버전 3.123b.v50.1로 업데이트
    ESXi 5.1 업데이트 1에 포함된 tg3 인박스 드라이버 버전은 3.123b.v50.1입니다.
  • 호스트 프로파일로 인해 대상 호스트의 vSwtich에 MTU 값을 적용하지 못할 수 있음
    표준 vSwitch의 MTU 값만 수정하는 호스트 프로파일을 적용할 경우 새 MTU 구성이 새 대상 호스트의 vSwitch에 적용되지 않습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • vNetwork Distributed Switch 환경에서 vMotion을 수행한 후 외부 환경으로부터 가상 시스템의 네트워크 연결이 끊어질 수 있음
    vNetwork Distributed Switch가 있는 vMotion 환경 후 외부 환경으로부터 가상 시스템의 네트워크 연결이 끊어질 수 있습니다.
    다음과 같은 상황이 모두 동시에 발생할 때 이 문제가 발생할 수 있습니다.
    • 가상 시스템 네트워크 포트 그룹이 vNetwork Distributed Switch에 구성된 경우
    • 가상 시스템이 VMXNET2(고급) 또는 Flexible(VMXNET) NIC로 구성된 경우
    • 가상 시스템 네트워크 포트 그룹 보안 설정을 포함하는 구성이 MAC 주소 변경 거부로 설정된 경우

    이 문제는 이 릴리스에서 해결되었습니다.

  • Broadcom bnx2x Async 드라이버 버전 1.61.15.v50.1이 있는 ESX/ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    bnx2x Async 드라이버가 VMkernel에 있는 TSO(TCP 세분화 오프로드) MSS(최대 세그먼트 크기)의 값을 0으로 설정하는 경우 Broadcom bnx2x Async 드라이버 버전 1.61.15.v50.1이 있는 ESX/ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 동일한 속도 및 이중(duplex) 설정이 존재하는 경우 자동 협상으로 설정된 물리적 NIC를 호스트 프로파일을 사용하여 고정으로 변경할 수 없음
    물리적 NIC의 속도 및 이중 설정에 대한 호스트 프로파일 규정 준수 여부 검사가 수행됩니다. ESXi 호스트에서 물리적 NIC는 자동 협상으로 설정되어 있고 호스트 프로파일은 고정으로 설정되어 있는 경우에도 물리적 NIC의 속도 및 이중 설정이 호스트 프로파일의 설정과 일치하기만 하면 ESXi 호스트가 규정 준수 상태로 표시됩니다. 또한 ESXi 호스트의 속도 및 이중 설정과 호스트 프로파일의 설정이 동일할 경우 호스트 프로파일을 사용하여 자동 협상으로 설정된 물리적 NIC를 고정으로 변경할 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 재부팅 시 신호 검색이 사용되도록 설정된 ESXi 5.1 호스트가 실패하고 퍼플 스크린이 나타날 수 있음
    재부팅 시 신호 검색이 사용되도록 설정된 ESXi 5.1 호스트가 실패하고 퍼플 스크린이 나타나면서 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    2012-09-12T13:32:10.964Z cpu6:4578)@BlueScreen: #PF Exception 14 in world 4578:helper34-0 IP 0x41803c0dbf43 addr 0x200 2012-09-12T13:32:10.964Z cpu6:4578)Code start: 0x41803ba00000 VMK uptime: 0:00:10:57.178 2012-09-12T13:32:10.965Z cpu6:4578)0x41220789ba70:[0x41803c0dbf43]NCPGetUplinkBeaconState@ # +0x1e stack: 0x410003000000 2012-09-12T13:32:10.966Z cpu6:4578)0x41220789bf40:[0x41803c0dcc5d]NCPHealthChkTicketCB@ # +0x258 stack: 0x0 2012-09-12T13:32:10.967Z cpu6:4578)0x41220789bf60:[0x41803c0a991d]NHCTicketEventCB@com.vmware.net.healthchk#1.0.0.0+0x3c stack: 0x0 2012-09-12T13:32:10.968Z cpu6:4578)0x41220789bff0:[0x41803ba483df]helpFunc@vmkernel#nover+0x52e stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다.

  • Intel I350 기가비트 네트워크 어댑터가 ESXi 호스트에 대해 잘못된 MAC 주소를 생성함
    ESXi 호스트에서 내장된 Intel I350 기가비트 네트워크 어댑터에 잘못되거나 중복된 MAC 주소가 할당되어 패키지 손실이 많이 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • APD 상태에서 복구한 후 iSCSI LUN이 나타나지 않음
    APD(모든 경로 다운) 상태에서 복구한 후 호스트가 재부팅되기 전까지 iSCSI LUN이 나타나지 않습니다. 이 문제는 iSCSI에 대해 Broadcom iSCSI 오프로드 사용 어댑터가 구성된 경우에 발생합니다.
     
    이 문제는 이 릴리스에서 해결되었습니다.

보안

  • libxslt 업데이트로 여러 보안 문제 해결
    여러 보안 문제를 해결하기 위해 ESXi userworld libxslt 패키지가 업데이트되었습니다. 일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제를 CVE-2011-1202, CVE-2011-3970, CVE-2012-2825, CVE-2012-2870CVE-2012-2871이라고 불렀습니다.
  • libxml2 라이브러리 업데이트로 여러 보안 문제 해결
    여러 보안 문제를 해결하기 위해 ESXi userworld libxml2 라이브러리가 업데이트되었습니다. 일반 취약성 및 노출 프로젝트(cve.mitre.org)에서는 이러한 문제에 CVE-2011-3102, CVE-2012-2807CVE-2012-5134라는 이름을 할당했습니다.

서버 구성

  • ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타남
    IPMI 드라이버의 잘못된 잠금 해제 순서로 인해 ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타나면서 ipmi_request_settimei_ipmi_request역추적 로그와 함께 다음과 유사한 오류 메시지가 표시됩니다.

    TLB 무효화 ack를 수행하지 못했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 두 개의 수준 트리거된 인터럽트를 동시에 처리하는 경우 ESXi 호스트가 응답을 멈출 수 있음
    ESXi 호스트의 두 CPU에서 동일한 디바이스나 드라이버에 대해 수준 트리거된 인터럽트가 호출되어 동시에 실행되면 ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타나면서 다음 중 하나와 유사한 메시지가 표시됩니다.
    • mpt2sas_base_get_smid_scsiio
    • Failed at vmkdrivers/src_9/vmklinux_9/vmware/linux_scsi.c:2221 -- NOT REACHED

    이 문제는 이 릴리스에서 수준 트리거된 인터럽트에 대한 인터럽트 처리 메커니즘을 개선하여 해결되었습니다.

  • vCenter Server 및 ESXi 호스트가 Dell H310 시리즈 카드 이름을 잘못 표시함
    Dell H310 시리즈 PCI ID가 megaraid_sas 드라이버에 추가되지 않았습니다. 따라서 vCenter Server 및 ESXi 호스트에 Dell H310 시리즈 카드 이름이 잘못 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 호스트 프로파일 적용이 실패하고 CIM 표시 구독을 삭제할 수 없다는 오류 메시지가 표시될 수 있음
    CIM 표시 구독은 저장소에 저장되고 메모리에 복사본이 있습니다. 저장소와 메모리가 동기화되지 않은 경우 호스트 프로파일을 적용하려고 하면 삭제 작업이 실패할 수 있습니다. 다음과 유사한 오류 메시지가 var/log/syslog.log에 기록됩니다.
    표시 구독을 삭제하는 동안 오류가 발생했습니다. 요청된 개체를 찾을 수 없습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Red Hat Enterprise Linux 4.8 32비트 가상 시스템의 로드 평균이 ESXi 5.x에서 ESX 4.0보다 높게 나타날 수 있음
  • Red Hat Enterprise Linux 4.8 32비트 게스트 운영 체제를 실행하면서 주로 유휴 상태로 있다가 간헐적으로 여러 작업을 동시에 깨우는 워크로드가 있는 가상 시스템의 로드 평균이 ESX 5.x에서 ESX 4.0보다 높게 나타날 수 있습니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 하드웨어 상태 탭에서 호스트 상태 표시가 멈출 수 있음
    ESXi 5.1 호스트에서 Small-Footprint CIM Broker 대몬( sfcbd)이 자주 실패하고 CIM 오류 메시지가 표시될 수 있습니다. 따라서 하드웨어 상태 탭에서 호스트 상태 표시가 멈추고 syslog.log 에 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    Timeout (or other socket error) sending request to provider.

    이 문제는 이 릴리스에서 해결되었습니다.

스토리지

  • 할당이 진행되는 동안 SCSI 명령 데이터 방향이 초기화되지 않은 경우 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    VMKernel API를 사용하지 않고 사용자 지정 SCSI(Small Computer System Interface) 명령 구조를 생성하는 타사 모듈이 이 SCSI 명령 구조를 실행하면 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있습니다.
    이 문제는 SCSI 명령에 DMA(Direct Memory Access) 전송이 필요하고 SCSI 명령 구조의 데이터 방향이 초기화되지 않은 채로 남아 있는 경우에 발생합니다.
    이 문제는 이 릴리스에서 해결되었습니다.
  • 디바이스 검색 중에 ScsiDeviceIO 관련 오류 메시지가 기록될 수 있음
    디바이스 검색 중에 선택 사항인 SCSI 명령이 특정 조건에서 실패할 경우 ESXi 5.1 호스트가 선택 사항인 SCSI 명령 실패를 기록할 수 있습니다. 또한 vmkernel.log에 다음과 유사한 오류 메시지가 기록될 수 있습니다.
    2011-10-03T15:16:21.785Z cpu3:2051)ScsiDeviceIO: 2316: Cmd(0x412400754280) 0x12, CmdSN 0x60b to dev "naa.600508e000000000f795beaae1d28903" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Intel 82599EB 기가비트 이더넷 컨트롤러에서 흐름 제어를 사용하도록 설정할 경우 실패함
    Intel 82599EB 기가비트 이더넷 컨트롤러에서 흐름 제어를 사용하도록 설정할 경우 ixgbe 드라이버가 흐름 제어 모드를 우선 순위 기반 흐름 제어로 잘못 설정하여 흐름 제어를 항상 사용하지 않도록 설정합니다. 그 결과로 흐름 제어를 사용하도록 설정할 때 디바이스 일시 중지 매개 변수를 설정할 수 없음: 잘못된 인수오류 메시지가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 빈 디스크나 GPT 분할 디스크에 진단 파티션을 생성하려고 하면 생성이 실패할 수 있음
    빈 디스크(파티션 테이블이 없는 디스크)나 끝부분에 사용 가능 공간이 있는 GPT 분할 디스크에 진단 파티션을 생성하려는 경우 vSphere Client를 사용하여 진단 파티션을 생성하려고 하면 생성이 실패할 수 있습니다.
    빈 디스크에 진단 파티션을 생성하려고 하면 다음과 유사한 오류 메시지가 표시됩니다.
    알 수 없는 파티션 형식은 지원되지 않습니다.
    끝부분에 사용 가능 공간이 있는 GPT 분할 디스크에 진단 파티션을 생성하려고 하면 다음과 유사한 오류 메시지가 표시됩니다.
    호스트를 구성하는 동안 오류가 발생했습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS 디렉토리로 하나 이상의 파일을 이동한 후 VMFS 디렉토리에서 파일을 삭제할 수 없음
    하나 이상의 파일을 디렉토리로 이동한 후 해당 디렉토리나 디렉토리의 파일을 삭제하려고 하면 삭제가 실패할 수 있습니다. 이 경우 vmkernel.log파일에 다음과 유사한 항목이 기록됩니다.
    2012-06-25T21:03:29.940Z cpu4:373534)주의: Fil3: 13291: newLength 85120, zla 2 제외
    2012-06-25T21:03:29.940Z cpu4:373534)Fil3: 7752: FD <281, 106>에서 손상된 파일 길이 85120, 잘리지 않음


    이 문제는 이 릴리스에서 해결되었습니다.

  • disklib에서 ioctl IOCTLCMD_VMFS_QUERY_RAW_DISK를 실행하는 경우 ESXi 호스트에서 퍼플 진단 스크린이 나타날 수 있음
    가상 시스템의 pRDM(물리적 원시 디바이스 매핑)에 사용되는 것과 동일한 naa.id가 있는 SCSI_CLASS_RAID(0xc)클래스의 유사 LUN이 새 LUN으로 표시되는 경우 다시 검색이 수행되면 ESXi 호스트가 응답을 멈추고 퍼플 진단 스크린이 나타납니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • READ10/WRITE10 주의 메시지를 실행하는 가상 시스템을 식별할 수 없음
    로그에 VSCSCI 핸들 ID만 표시되므로 READ10/WRITE 10 주의를 통해서는 해당 명령을 실행하는 가상 시스템을 확인하기 어렵습니다. VMkernel 로그에 속한 월드 ID가 명령을 실행하는 가상 시스템에 해당하지 않는 경우가 있기 때문입니다.

    이 문제는 이 릴리스에서 가상 시스템 이름도 인쇄하도록 READ10/WRITE10 주의를 개선하여 해결되었습니다.
  • 기본이 아닌 시작 섹터로 VMFS3 데이터스토어를 생성하거나 매우 작은 파티션이 있는 LUN(논리 장치 번호)에 VMFS3 데이터스토어를 생성하는 경우 QueryVmfsDatastoreExpandOptions 및 QueryVmfsDatastoreExtendOptions가 실패할 수 있음
    ESXi 호스트(hostd)가 QueryVmfsDatastoreExpandOptionsQueryVmfsDatastoreExtendOptions에 대한 DatastoreSystem 관리 개체 메서드 호출을 잘못 처리합니다. 이 문제는 다음과 같은 데이터스토어에서 발견되었습니다.
    • 1MB보다 크고 (헤드 수 * 섹터 수 * 섹터 크기)보다는 작은 시작 섹터로 생성된 VMFS3 데이터스토어
    • (헤드 수 * 섹터 수 * 섹터 크기) 공식으로 계산된 값보다 작은 크기의 파티션이 있는 LUN(논리 장치 번호)에 생성된 VMFS3 데이터스토어

    이 문제는 이 릴리스에서 해결되었습니다.
  • 보류 중인 COW(쓰기 시 복사) 비동기 I/O와 스파스 redo 로그 파일 닫기 간의 동기화 문제로 인해 ESXi 호스트가 실패할 수 있음
    ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타나면서 다음과 유사한 역추적 로그와 함께 PF 예외 오류가 보고될 수 있습니다.

    @BlueScreen: #PF Exception 14 in world 137633099:vmm0:TSTSPSR IP 0x41801e20b01f addr 0x0
    cpu4:137633099)Code start: 0x41801dc00000 VMK uptime: 464:10:04:03.850
    cpu4:137633099)0x417f86a5f6b8:[0x41801e20b01f]COWCopyWriteDone@esx:nover+0x122 stack: 0x41027f520dc0
    cpu4:137633099)0x417f86a5f6e8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack: 0x0
    cpu4:137633099)0x417f86a5f968:[0x41801e20b2c2]COWAsyncDataDone@esx:nover+0x125 stack: 0x41027f5aebd8
    cpu4:137633099)0x417f86a5f998:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack: 0x41027f556ec0
    cpu4:137633099)0x417f86a5f9c8:[0x41801dc085e9]AsyncCompleteOneIO@vmkernel:nover+0xac stack: 0x41027fd9c540
    cpu4:137633099)0x417f86a5f9f8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack: 0x41027f5ae440
    cpu4:137633099)0x417f86a5fa18:[0x41801de240b9]FS_IOAccessDone@vmkernel:nover+0x80 stack: 0x41027f556858
    cpu4:137633099)0x417f86a5fa48:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack: 0x41027f59a2c0
    cpu4:137633099)0x417f86a5fa78:[0x41801dc085e9]AsyncCompleteOneIO@vmkernel:nover+0xac stack: 0x41027f480040
    cpu4:137633099)0x417f86a5faa8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack: 0x417f86a5fad8
    cpu4:137633099)0x417f86a5fad8:[0x41801de3fd1d]FDSAsyncTokenIODone@vmkernel:nover+0xdc stack: 0x0
    cpu4:137633099)0x417f86a5fbd8:[0x41801de4faa9]SCSICompleteDeviceCommand@vmkernel:nover+0xdf0 stack: 0x41027f480040

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS3 볼륨의 손상된 메타데이터에 액세스하는 경우 ESXi 호스트가 실패할 수 있음
    VMFS3 볼륨의 파일 메타데이터가 손상된 경우 해당 파일에 액세스하려고 하면 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있습니다. VMFS 파일 손상은 매우 드물지만 외부 스토리지 문제로 인해 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 새 ESXi 호스트를 High Availability 클러스터에 추가한 후 클러스터를 재구성하는 경우 클러스터의 다른 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    새 ESXi 호스트를 HA(High Availability) 클러스터에 추가한 후 HA 클러스터를 재구성하면 기존 HA 클러스터의 다른 호스트가 실패하고 퍼플 진단 스크린이 나타나면서 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    0x4122264c7ce8:[0x41802a07e023]NFSLock_GetLease@<None>#<None>+0x2e stack: 0x410023ce8570.

    이 경우 실패한 ESXi 호스트를 재부팅해도 유사한 호스트 오류가 발생할 수 있습니다.
    이 문제는 HA 환경에서 다음과 같은 시나리오가 모두 해당되는 경우에 발생합니다.
    • 잠금이 오래된 것으로 표시되기 전에 발생해야 하는 잠금 업데이트 실패 횟수를 결정하는 NFS(네트워크 파일 시스템) 옵션인 LockRenewMaxFailureNumber의 값이 1에서 0으로 변경된 경우
    • 잠금 업데이트 요청이 중단되기까지 기다려야 하는 시간을 결정하는 NFS 옵션인 LockUpdateTimeout의 값이 1에서 0으로 변경된 경우
    • 호스트 중 하나가 NFS 볼륨에서 잠금을 획득하려고 하는 경우

    이 문제는 이 릴리스에서 해결되었습니다.

  • VMkernel의 경합 조건으로 인해 null 포인터 예외가 발생하여 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    VMkernel의 경합 조건으로 인해 null 포인터 예외가 발생하면 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타납니다.
    이러한 경합 조건은 ESXi 호스트에서 DevFS(디바이스 파일 시스템)에 대한 특정 파일 시스템 작업을 수행하는 동안에 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMFS에 대한 기본 MaxHeapSizeMB 구성 옵션이 변경된 경우 ESX/ESXi 4.x 이하에서 ESXi 5.0 이상으로 업그레이드하려고 하면 업그레이드가 실패할 수 있음
    ESX 4.x 이하에서 ESX 5.0 이상으로 업그레이드한 후 다음과 같은 오류로 인해 ESX 호스트가 응답하지 못할 수 있습니다.

    hostCtlException: /usr/lib/vmware/vmkmod/vmfs3 모듈을 로드할 수 없음: 실패

    업그레이드 전에 사용자가 ESX/ESXi 호스트에서 VMFS에 대한 MaxHeapSizeMB구성 옵션을 수동으로 설정한 경우 이 문제가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 중지 상태 스냅샷 작업이 실패하는 경우 redo 로그가 통합되지 않음
    가상 시스템의 중지 상태 스냅샷을 만들 때 스냅샷 작업이 완료되기 직전에 실패하면 스냅샷의 일부로 생성되는 redo 로그가 통합되지 않습니다. redo 로그가 많은 데이터스토어 공간을 사용할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다. 이제 중지 상태 스냅샷 작업이 실패하더라도 redo 로그 파일이 통합됩니다.

  • VSA(vSphere Storage Appliance) 5.1의 유지 보수 모드가 종료된 후 ESXi 5.1 호스트에서 NFS 데이터스토어에 상주하는 가상 시스템에 액세스할 수 없음
    Misc.APDTimeout값이 초과되기 때문에 NFS 스토리지의 연결을 끊은 후 hostd 에이전트에서 vCenter 및 ESX 호스트로 가상 시스템 상태가 잘못 보고됩니다. 이 문제는 전원을 끈 가상 시스템에서 발견되었습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • 변경된 블록 추적 기능이 완전히 씬 프로비저닝된 디스크를 반환할 수 있음
    매우 큰 크기의 씬 프로비저닝된 디스크에서는 필요한 IOCTL 수가 하드 코딩된 IOCTL 한도를 초과할 경우 QueryChangedDiskAreas를 호출할 때마다 씬 프로비저닝된 디스크의 사용 중인 영역만 반환되는 것이 아니라 전체 디스크가 반환될 수 있습니다. 이 경우 백업 데이터의 크기가 지나치게 커집니다. 이 문제는 Linux ext2 및 ext3 파일 시스템에서 특히 자주 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ata 드라이버에서 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    ata 드라이버가 경합 조건으로 인해 실패하고 ESXi 호스트가 실패하면서 퍼플 진단 스크린에 다음과 유사한 스택 추적 로그가 표시될 수 있습니다.
    버그: vmkdrivers/src_9/drivers/ata/libata-core.c:5833/ata_hsm_move()에서 오류 발생! (inside vmklinux)
    Panic_vPanic@vmkernel#nover+0x13 stack: 0x3000000010, 0x412209a87e00
    vmk_PanicWithModuleID@vmkernel#nover+0x9d stack: 0x412209a87e20,0x4
    ata_hsm_move@com.vmware.libata#9.2.0.0+0xa0 stack: 0x0, 0x410017c03e
    ata_pio_task@com.vmware.libata#9.2.0.0+0xa5 stack: 0x0, 0x0, 0x53fec
    vmklnx_workqueue_callout@com.vmware.driverAPI#9.2+0x11a stack: 0x0,
    helpFunc@vmkernel#nover+0x568 stack: 0x0, 0x0, 0x0, 0x0, 0x0


    이 문제는 이 릴리스에서 해결되었습니다.

지원되는 하드웨어

  • 인터럽트 기반 모드에서 키보드 컨트롤러 스타일 인터페이스가 있는 OpenIPMI 드라이버의 성능이 낮음
    KCS(키보드 컨트롤러 스타일) 인터페이스가 있는 OpenIPMI 드라이버는 인터럽트 기반 모드에서 더 느리게 작동합니다. 드라이버가 인터럽트 모드로 작동하고 있는 경우 오픈 소스 IPMI 드라이버의 http://git.kernel.org/?p=linux/kernel/git/stable/linux-stable.git;a=commitdiff;h=b88e769368a88cf28e53db158b84eda096144bce 패치를 적용하여 트랜잭션 지연 시간을 줄여야 합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • DCUI에서 vmware-vimdump 명령을 실행할 경우 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있음
    DCUI(Direct Console User Interface)에서 vmware-vimdump명령을 실행하면 ESXi 호스트가 실패하고 퍼플 진단 스크린이 나타날 수 있습니다. 이로 인해 하트비트 메시지가 누락될 수도 있습니다. SSH 콘솔을 통해 연결하여 명령을 실행하는 경우에는 이 문제가 발생하지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

업그레이드 및 설치

  • Update Manager를 사용하여 ESXi 호스트를 업그레이드할 때 Solaris 가상 시스템에 연결된 RDM을 덮어쓸 수 있음
    Update Manager를 사용하여 ESXi 5.x로 업그레이드할 때 디스크 파티션 유형을 확인하는 과정에서 발생한 오류로 인해 Solaris 가상 시스템에 연결된 RDM을 덮어쓸 수 있습니다. 이로 인해 RDM의 데이터가 손실될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.1을 재설치해도 이전 설치의 로컬 VMFS에서 데이터스토어 레이블이 제거되지 않음
    기존 로컬 VMFS 볼륨이 있는 ESXi 5.1을 재설치하면 사용자가 VMFS 볼륨을 덮어쓰는 데이터스토어 덮어쓰기 옵션을 선택한 경우에도 데이터스토어 레이블이 유지됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.x 스크립트 기반 설치에서 kickstart 파일에 --novmfsondisk 매개 변수가 있음에도 USB 또는 SD 미디어가 VMFS를 지원하지 않는다는 잘못된 주의 메시지가 표시될 수 있음
    USB 또는 SD 미디어로 식별되는 디스크에서 스크립트 기반 설치를 수행하여 ESXi 5.1을 설치하는 경우 다음 주의 메시지가 표시될 수 있습니다.

    설치에 지정된 디스크(<disk-id>)가 VMFS를 지원하지 않습니다.

    kickstart 파일에서 install 명령에 대해 --novmfsondisk매개 변수를 포함한 경우에도 이 메시지가 표시됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 자동 배포를 사용할 경우 iPXE 프로세스가 시간 초과될 수 있음
    자동 배포를 사용하여 ESXi 5.1 호스트를 부팅하는 경우 iPXE 프로세스가 DHCP 서버에서 IP 주소를 가져오는 동안 시간 초과되고 자동 배포 부팅 프로세스가 갑자기 중단될 수 있습니다.

    이 문제는 이 릴리스에서 총 시간 초과 기간을 60초로 늘려서 해결되었습니다.
  • HA 클러스터의 ESXi 호스트를 업그레이드하려고 할 경우 vCenter Update Manager에서 오류가 발생할 수 있음
    HA(High Availability) 클러스터의 ESXi 호스트를 업그레이드할 경우 업그레이드가 실패하고 VUM(vCenter Update Manager)에서 다음과 유사한 오류 메시지가 표시될 수 있습니다.
    호스트가 ESX 업데이트 오류 코드 7을 반환했습니다.
    이 문제는 여러 스테이징 작업이 Update Manager에서 서로 다른 기준선을 사용하여 수행되는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 로컬 데이터스토어에 익스텐트가 있는 ESX 4.1에서 ESXi 5.1로의 업그레이드가 실패함
    로컬 데이터스토어에 익스텐트가 있는 ESX 4.1은 ESXi 5.1로 업그레이드되지 않습니다. 하지만 최신 업그레이드 프로세스에서는 이 업그레이드 동작을 허용하며 오류 또는 주의 메시지를 표시하지 않고 로컬 데이터스토어에서 익스텐트를 삭제합니다.

    이 문제는 이 릴리스에서 사전 확인 스크립트에 관련 상황을 감지하는 확인 과정을 추가하여 해결되었습니다. 필요한 경우에는 업그레이드 또는 마이그레이션을 종료할 수 있도록 사용자에게 메시지가 표시됩니다.
  • Microsoft WDS(Windows 배포 서비스)를 통해 VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 PXE 부팅하지 못할 수 있음
    Microsoft WDS(Windows 배포 서비스)를 통해 VMXNET3 네트워크 어댑터를 사용하는 가상 시스템을 PXE 부팅하려고 하면 부팅이 실패하고 다음과 유사한 메시지가 표시될 수 있습니다.

    Windows를 시작하지 못했습니다. 최근의 하드웨어 또는 소프트웨어 변경 때문일 수 있습니다. 문제를 해결하려면 다음을 수행하십시오.
    1. Windows 설치 디스크를 넣고 컴퓨터를 다시 시작합니다.
    2. 언어 설정을 선택하고 "다음"을 클릭합니다.
    3. "컴퓨터 복구"를 클릭합니다.
    이 디스크가 없는 경우 시스템 관리자 또는 컴퓨터 제조업체에 문의하십시오.

    상태: 0xc0000001

    정보: 필요한 디바이스에 액세스할 수 없기 때문에 부팅 선택 영역에서 오류가 발생했습니다
    .

    이 문제는 이 릴리스에서 해결되었습니다.
  • USB 드라이브의 파일 시스템 형식이 하나라도 fat16 또는 fat32가 아닌 경우 연결된 USB 드라이브에서 스크립트로 작성된 ESXi 설치 또는 업그레이드가 실패할 수 있음
    여러 USB 플래시 드라이브가 ESXi 호스트에 연결된 경우 MS-DOS 파티션이 있는 USB 드라이브의 파일 시스템 형식이 하나라도 fat16또는 fat32가 아닌 경우 ks=usb부팅 옵션을 통한 스크립트로 작성된 ESXi 설치 또는 업그레이드가 실패하고 예외 오류가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 업그레이드 후 ESXi 호스트가 이전 버전의 /etc/vmware/service/service.xml 파일을 유지함
    고정 비트가 설정되어 있는 etc/vmware/service/service.xml을 수정한 후 ESX/ESXi를 4.0에서 5.1로 업그레이드하면 이전 service.xml파일로 인해 호환성 문제가 발생합니다. 이 문제는 업그레이드한 후에도 ESXi 호스트가 이전 service.xml파일이 유지하기 때문에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • IPv6 세부 정보가 포함된 스크립트로 ESXi 5.1을 설치하지 못함
    ks.cfg에 언급된 IPv6 세부 정보가 포함된 스크립트로 ESXi 5.1 설치를 수행할 경우 IPv6 세부 정보를 검증하는 동안 설치가 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트 업그레이드 후 Syslog.global.logHost 값이 유지되지 않음
    버전 4.x에서 5.x로 ESXi 호스트를 업그레이드하는 경우 Syslog.global.logDirSyslog.global.logHost의 값이 유지되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 5.0 호스트가 5.1로 업그레이드되는 동안 타사 VIB 테스트가 실행되지 않음
    Power 경로에서 가져온 타사 VIB를 사용하여 ESXi 5.0에서 ESXi 5.1로 업그레이드하는 경우 ESXi 설치 관리자와 vSphere Update Manager에 타사 VIB 주의 메시지가 표시되지 않습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • vSphere 5.0에서 vSphere 5.1로 업그레이드하는 경우 resxtop이 실패함
    vSphere 5.1에서는 SSL 인증 검사가 ON으로 설정되어 있습니다. 이로 인해 호스트에 연결할 때 resxtop이 실패하고 다음과 유사한 예외 메시지가 표시될 수 있습니다.
    HTTPS_CA_FILE 또는 HTTPS_CA_DIR이 설정되지 않았습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vpxuser 계정의 암호가 MD5 암호화를 사용하여 설정되지 않은 경우 ESX/ESXi 4.0 업데이트 4에서 ESXi Server 5.1로 업그레이드하려고 하면 오류 메시지가 표시될 수 있음
    VUM(VMware Update Manager)을 사용하여 ESX/ESXi 4.0 업데이트 4에서 ESXi Server 5.1로 업그레이드할 때 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    vpxuser 사용자의 암호가 MD5 암호화를 사용하여 설정되지 않았습니다. 처음 8자만 사용됩니다. 재부팅 시 암호를 재설정하십시오.

    이 문제는 vpxuser 계정의 암호가 MD5 암호화를 사용하여 설정되지 않은 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

vCenter Server, vSphere Client 및 vSphere Web Client

  • 오류가 발생한 가상 시스템에 연결된 경우 VMRC 및 vSphere Client가 응답을 멈출 수 있음
    ESXi 5.1 호스트에서 오류가 발생한 가상 시스템이나 오류가 발생한 VMware Tools가 있는 가상 시스템에 연결된 경우 VMRC(VMware 원격 콘솔) 및 vSphere Client가 응답을 멈출 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

가상 시스템 관리

  • 템플릿 파일을 사용하여 가상 시스템을 배포할 수 없음
    템플릿 파일을 사용하여 가상 시스템을 배포하지 못할 수 있습니다. 이 문제는 템플릿 파일을 보관하는 데이터스토어에 다시 서명할 때 발생하며 .vmtx파일은 업데이트되지 않습니다.

    이 문제는 이 릴리스에서 템플릿의 .vmtx가상 시스템 파일을 다시 서명된 최신 데이터스토어 경로로 업데이트하여 해결되었습니다.

  • 가상 시스템 전원 켜기 작업이 실패하고 VMFS 힙 메모리 부족 주의 메시지가 표시될 수 있음
    가상 시스템의 가상 디스크가 18개를 초과하고 각 디스크의 크기가 256GB보다 크면 ESXi 호스트가 가상 시스템의 전원을 켜지 못할 수 있습니다. vmkernel.log에 다음과 유사한 주의 메시지가 기록될 수 있습니다.
    주의: 힙: 2525: 힙 vmfs3가 이미 최대 크기입니다. 확장할 수 없습니다. WARNING: 힙: 2900: Heap_Align(vmfs3, 2099200/2099200 bytes, 8 align)이 실패했습니다. 호출자: 0x4180368c0b90

    이 문제는 이 릴리스에서 해결되었습니다.
  • 가상 시스템에서 개별 디스크를 삭제한 후 중지 상태 스냅샷을 생성할 수 없음
    가상 시스템에서 개별 디스크를 삭제한 경우 지정된 SCSI 노드의 디스크 모드 데이터가 오래된 데이터일 수 있기 때문에 가상 시스템의 중지 상태 스냅샷을 생성하려고 하면 생성이 실패할 수 있습니다.
    다음과 유사한 오류 메시지가 표시될 수 있습니다.
    상태: 가상 시스템을 중지하는 동안 오류가 발생했습니다. 자세한 내용은 가상 시스템의 이벤트 로그를 확인하십시오.

    로그 파일에 다음과 유사한 항목이 포함될 수 있습니다.
    HotAdd: scsi-hardDisk를 '독립-영구' 모드로 scsi0:1에 추가하는 중

    ToolsBackup: 중지 상태를 변경하는 중: 시작됨 -> 완료 SnapshotVMXTakeSnapshotComplete가 'back' 스냅샷으로 완료됨: 0
    SnapshotVMXTakeSnapshotComplete: 스냅샷 0 실패: 가상 시스템을 중지하지 못했습니다. (40).

    이 문제는 이 릴리스에서 해결되었습니다.
  • ESXi 호스트가 NTP 서버로 구성된 경우 ESXi 서버와의 시간 동기화로 인해 게스트 운영 체제가 예기치 않게 재부팅될 수 있음
    ESXi 호스트가 NTP(Network Time Protocol) 서버로 구성된 경우 ESXi 서버와의 시간 동기화 중에 게스트 운영 체제가 예기치 않게 재부팅될 수 있습니다. 이 문제는 High Availability 클러스터에서 가상 시스템 모니터링 감도 수준을 높음으로 설정하고 das.iostatsInterval옵션을 False로 설정한 경우에 발생합니다.

    이 문제는 das.iostatsInterval옵션을 True로 설정하면 해결할 수 있습니다.
  • 특정 가상 시스템 작업을 수행하는 동안 ESXi 호스트가 실패할 수 있음
    특정 가상 시스템 작업을 수행하는 동안 LUN의 메타데이터 손상과 관련된 문제로 인해 ESXi 호스트가 실패하고 퍼플 스크린이 나타나면서 다음과 유사한 오류 메시지가 표시되는 경우가 있습니다.
    @BlueScreen: #DE Exception 0 in world 4277:helper23-15 @ 0x41801edccb6e 3:21:13:31.624 cpu7:4277)Code start: 0x41801e600000 VMK uptime: 3:21:13:31.624 3:21:13:31.625 cpu7:4277)0x417f805afed0:[0x41801edccb6e]Fil3_DirIoctl@esx:nover+0x389 stack: 0x410007741f60 3:21:13:31.625 cpu7:4277)0x417f805aff10:[0x41801e820f99]FSS_Ioctl@vmkernel:nover+0x5c stack: 0x2001cf530 3:21:13:31.625 cpu7:4277)0x417f805aff90:[0x41801e6dcf03]HostFileIoctlFn@vmkernel:nover+0xe2 stack: 0x417f805afff0 3:21:13:31.625 cpu7:4277)0x417f805afff0:[0x41801e629a5a]helpFunc@vmkernel:nover+0x501 stack: 0x0 3:21:13:31.626 cpu7:4277)0x417f805afff8:[0x0] stack: 0x0

    이 문제는 이 릴리스에서 해결되었습니다. 이제 LUN의 메타데이터가 손상되면 오류 메시지가 표시됩니다.

vMotion 및 Storage vMotion

  • Windows Server 2008 가상 시스템을 ESX/ESXi 4.0에서 ESXi 5.1로 실시간 마이그레이션한 후 Storage vMotion 작업을 수행하면 중지 상태 스냅샷이 실패함
    ESXi 5.1에서 Storage vMotion 작업은 Windows Server 2008 가상 시스템에 대해 기본적으로 disk.enableUUID를 true로 설정하여 애플리케이션 중지를 사용하도록 설정합니다. 가상 시스템의 전원을 껐다가 다시 켜기 전까지는 후속 중지 상태 스냅샷 작업도 실패합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

VMware Tools

  • 가상 시스템의 중지 상태 스냅샷을 만드는 동안 VMware Tools가 실패할 수 있음
    backupScripts.d폴더에 실행 파일이 아닌 파일이 있으면 가상 시스템의 중지 상태 스냅샷을 만드는 동안 VMware Tools가 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools 설치 후 게스트 운영 체제 이름이 Microsoft Windows Server 2012(64비트)에서 Microsoft Windows 8(64비트)로 변경됨
    Microsoft Windows Server 2012(64비트) 가상 시스템을 생성하고 VMware Tools를 설치한 후 게스트 운영 체제 이름이 Microsoft Windows Server 2012(64비트)에서 Microsoft Windows 8(64비트)로 변경됩니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools OSP 패키지의 파일 이름에 동일한 배포 식별자가 있음
    SUSE Linux Enterprise Server 11, Red Hat Enterprise Linux 5 및 Red Hat Enterprise Linux 6 게스트 운영 체제의 경우 VMware Tools OSP 패키지에 구별 가능한 파일 이름이 없습니다. 따라서 Red Hat Satellite 서버를 사용하여 VMware Tools OSP 패키지를 배포하기 어렵습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools에서 이전 버전의 Microsoft Visual C++ 런타임 라이브러리를 설치함
    9.0.30729.6161버전이 있는데도 VMware Tools에서 9.0.30729.4148버전의 Microsoft Visual C++ 런타임 라이브러리를 설치합니다.

    이 문제는 이 릴리스에서 해결되었습니다. 이제 VMware Tools는 최신 버전의 Microsoft Visual C++ 런타임 라이브러리를 설치합니다. 더 최신 버전의 Microsoft Visual C++ 런타임 라이브러리가 시스템에 있으면 VMware Tools는 Microsoft Visual C++ 런타임 라이브러리를 설치하지 않습니다.
  • Linux 게스트 운영 체제에서 VMware Tools에 메모리 누수가 발생할 수 있음
    Linux 게스트 운영 체제에서 여러 VLAN이 네트워크 인터페이스용으로 구성된 경우 VMware Tools에서 메모리 누수가 발생할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • VMware Tools를 설치한 후 /etc/fstab의 파일 사용 권한이 변경될 수 있음
    SUSE Linux Enterprise Server 11 SP1과 같은 가상 시스템에 VMware Tools를 설치할 경우 /etc/fstab의 파일 사용 권한 특성이 644에서 600으로 변경될 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 가상 시스템의 VMware Tools가 간헐적으로 실패할 수 있음
    VMware Tools에는 libdnet라는 이름의 공유 라이브러리 파일이 포함되어 있습니다. Dell OpenManage 소프트웨어 등의 다른 소프트웨어를 설치할 경우 파일 시스템에 이 공유 라이브러리와 이름이 같은 또 다른 공유 라이브러리가 생성됩니다. 이 경우 VMware Tools 로드 시 VMware Tools의 libdnet.so대신 Dell OpenManage 소프트웨어의 libdnet.so.1라이브러리가 로드됩니다. 따라서 vSphere Client의 요약 탭에 게스트 운영 체제 정보가 표시되지 않을 수 있으며 NIC 정보도 표시되지 않을 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 5.1 이전 버전의 ESX/ESXi 호스트에서 VMware Tools만 버전 5.1로 업그레이드하는 경우 주의 메시지가 표시됨
    5.1 이전 버전의 ESX/ESXi 호스트에서 가상 시스템이 Windows 게스트 운영 체제를 실행하는 경우 VMware Tools만 버전 5.1로 업그레이드하면 Windows 이벤트 뷰어에 다음과 유사한 주의 메시지가 표시될 수 있습니다.
    [ warning] [vmusr:vmusr] vmware::tools::UnityPBRPCServer::Start: Failed to register with the host!

    이 문제는 이 릴리스에서 해결되었습니다.
  • View Agent를 설치하는 경우 재부팅 시 오류 메시지가 표시됨
    View Agent를 설치한 후 재부팅하려고 하면 VMware Tools에서 다음과 같은 오류 메시지가 표시됩니다.

    VMWare Tools 복구할 수 없는 오류: (vthread-3)

    이 문제는 이 릴리스에서 해결되었습니다.
  • Linux 커널 버전 3.7을 사용하는 경우 VMware Tools 설치가 실패할 수 있음
    Linux 커널 버전 3.7을 사용하는 경우 VMware Tools 설치 스크립트가 새 커널 헤더 경로를 식별할 수 없으므로 VMware Tools 드라이버가 컴파일되지 않습니다. 이로 인해 VMware Tools 설치가 실패할 수 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.
  • 일부 영어가 아닌 버전의 Windows 게스트 운영 체제 템플릿에서 배포하는 경우 게스트 운영 체제 사용자 지정이 실패할 수 있음
    프랑스어 버전의 Microsoft Windows 7, 러시아어 버전의 Microsoft Windows 7 및 프랑스어 버전의 Microsoft Windows Server 2008 R2 게스트 운영 체제와 같은 일부 영어가 아닌 버전의 Windows 게스트 운영 체제 템플릿에서 배포하는 경우 게스트 운영 체제 사용자 지정이 실패할 수 있습니다. 이 문제는 VMware Tools 서비스 vmtoolsd.exe가 실패하는 경우에 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • Windows Vista 이상과 같은 게스트 운영 체제에서 VM 프로세서 또는 VM 메모리 성능의 이름과 설명을 표시할 수 없음
    관리 사용자 권한으로 실행되는 Windows Vista 이상과 같은 게스트 운영 체제에서 원격 성능 로그를 구성할 경우 Windows 성능 모니터( perfmon) 콘솔에 VM 프로세서 및 VM 메모리 카운터의 이름과 설명이 표시되지 않을 수 있습니다.
    Windows 게스트 운영 체제가 en_usde외의 로케일로 설치된 경우에 이러한 상황이 발생합니다. 이 문제는 VMware Tools 버전 8.3.1.2에서 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • ESXi 5.1 호스트에서 Ubuntu 12.10 32비트 및 64비트 운영 체제에 PBM(사전 구축 모듈)을 사용할 수 없음
    ESXi 5.1 호스트에서 Ubuntu 12.10 32비트 및 64비트 운영 체제에 대한 PBM(사전 구축 모듈)을 찾을 수 없는 경우가 있습니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  • vShield Endpoint Thin Agent를 사용하는 가상 시스템에서 네트워크 파일을 CIFS 공유로 복사하거나 이 공유에서 복사할 때 성능 관련 문제가 발생할 수 있음
    가상 시스템에서 네트워크 파일을 CIFS(Common Internet File System) 공유로 복사하거나 이 공유에서 복사할 때 성능 관련 문제가 발생할 수 있습니다.
    이 문제는 VMware Tools에서 사용할 수 있는 vShield Endpoint Thin Agent를 실행하는 가상 시스템이 사용되지 않을 때 발생합니다.

    이 문제는 이 릴리스에서 해결되었습니다.

  •   vShield Endpoint 및 VMware Tools를 포함하는 ESXi 5.1 호스트에서 실행되는 Windows 게스트 운영 체제에서 공유 위반 오류가 표시될 수 있음
    VMware Tools에 vShield Endpoint 구성 요소가 번들되어 있는 환경의 ESXi 5.1 호스트에서 실행되는 Windows 게스트 운영 체제에서 네트워크 파일에 액세스할 때 공유 위반 오류가 표시될 수 있습니다. 네트워크 파일을 열 경우 다음과 유사한 오류 메시지가 표시될 수 있습니다.

    문서를 여는 동안 오류가 발생했습니다. 이 파일은 이미 열려 있거나 다른 애플리케이션에서 사용되고 있습니다.


    이 문제는 이 릴리스에서 해결되었습니다.

알려진 문제

이전에 문서화되지 않은 알려진 문제는 * 기호로 표시되어 있습니다. 알려진 문제는 다음과 같이 그룹화되어 있습니다.

설치 및 업그레이드 문제

  • Postgres 데이터베이스로 구성된 vCenter Server Appliance를 업그레이드한 후 인벤토리 개체가 표시되지 않을 수 있음*
    Postgres 데이터베이스로 구성된 vCenter Server Appliance를 5.0 업데이트 2에서 5.1 업데이트 1로 업그레이드할 경우 업그레이드 전에 있었던 데이터 센터, vDS 등의 기존 인벤토리 개체가 표시되지 않을 수 있습니다. 이 문제는 vSphere Web Client를 사용하여 vCenter Server Appliance에 연결할 경우에 발생합니다.

    해결 방법: vCenter Server Appliance를 업그레이드한 후 Inventory Service를 다시 시작합니다.

  • Auto Deploy의 상태 저장 설치의 경우 ESX/ESXi가 USB에 이미 설치되어 있는 시스템에서 ESX의 firstdisk 인수를 사용할 수 없음
    상태 저장 설치용으로 설정하려는 호스트의 호스트 프로파일을 Auto Deploy를 사용하여 구성합니다. 구성 과정에서 디스크로 USB를 선택하고 첫 번째 인수로 esx를 지정합니다. 호스트는 현재 USB에 ESX/ESXi가 설치되어 있습니다. 하지만 Auto Deploy는 USB에 ESXi를 설치하는 대신 로컬 디스크에 ESXi를 설치합니다.

    해결 방법: 없음

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 및 Set-DeployRule에 개체가 입력으로 필요함
    Copy-DeployRule또는 Set-DeployRulecmdlet을 실행하는 경우 이미지 프로파일 또는 호스트 프로파일 이름을 전달하면 오류가 발생합니다.

    해결 방법: 이미지 프로파일 또는 호스트 프로파일 개체를 전달합니다.

  • 선택한 디스크에 ESX를 설치한 경우 상태 비저장 캐시와 함께 Auto Deploy를 사용하도록 설정된 호스트 프로파일 적용이 실패함
    호스트 프로파일을 사용하여 상태 비저장 캐시를 사용하도록 설정되어 있는 Auto Deploy를 설정합니다. 호스트 프로파일에서 ESX(ESXi가 아님) 버전이 설치되어 있는 디스크를 선택합니다. 호스트 프로파일을 적용하면 다음 텍스트가 포함된 오류가 나타납니다.
    Expecting 2 bootbanks, found 0(2개의 부팅 뱅크가 필요함, 0개 발견)

    해결 방법: 디스크에서 ESX 소프트웨어를 제거하거나, 상태 비저장 캐시에 사용할 다른 디스크를 선택합니다.

  • Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경한 후 vSphere Auto Deploy가 더 이상 작동하지 않음
    vCenter Server와는 다른 시스템에 Auto Deploy를 설치하고 Auto Deploy 서버를 호스팅하는 시스템의 IP 주소를 변경합니다. 변경 후 Auto Deploy 명령이 더 이상 작동하지 않습니다.

    해결 방법: 자동 배포 서버 서비스를 다시 시작합니다.
    net start vmware-autodeploy-waiter
    서비스를 다시 시작해도 문제가 해결되지 않으면 자동 배포 서버를 다시 등록해야 할 수 있습니다. 모든 옵션을 지정하여 다음 명령을 실행합니다.
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • HP DL980 G7에서 온보드 NIC를 사용하는 경우 ESXi 호스트가 Auto Deploy를 통해 부팅되지 않음
    시스템에서 온보드(LOM Netxen) NIC를 PXE 부팅에 사용하고 있으면 Auto Deploy를 사용하여 HP DL980 G7 시스템을 부팅할 수 없습니다.

    해결 방법: HP에서 승인된 추가 기능 NIC(예: HP NC3 60T)를 호스트에 설치하고 해당 NIC를 PXE 부팅에 사용합니다.

  • esxcli를 사용한 실시간 업데이트가 실패하고 VibDownloadError가 발생함
    사용자가 다음 두 가지 업데이트를 순차적으로 수행합니다.

    1. esxcli software profile update 또는 esxclivib update 명령을 사용한 실시간 설치 업데이트.
    2. 재부팅이 필요한 업데이트

    두 번째 트랜잭션이 실패합니다. 가장 일반적인 실패 이유는 서명 검증 때문인데, 서명은 VIB를 다운로드한 이후에만 확인할 수 있습니다.

    해결 방법: 이 문제는 두 단계 프로세스로 해결할 수 있습니다.

    1. ESXi 호스트를 재부팅하여 상태를 정리합니다.
    2. 실시간 설치를 반복합니다.

  • 시스템에 연결된 NIC가 없는 경우 ESXi 스크립트로 작성된 설치 시 CD-ROM 드라이브에서 ks(kickstart) 파일을 찾지 못함
    연결된 NIC가 없는 시스템의 CD-ROM 드라이브에 kickstart 파일이 있는 경우 다음 오류 메시지가 표시됩니다. Can't find the kickstart file on cd-rom with path < path_to_ks_file>(cd-rom의 다음 경로에서 kickstart 파일을 찾을 수 없음 < path_to_ks_file>).

    해결 방법: NIC를 재연결하여 네트워크 연결을 설정하고 설치를 다시 시도합니다.

  • SWFCoE LUN에서 스크립트로 작성된 설치에 실패함
    ESXi 설치 관리자가 ks(kickstart) 파일을 사용하여 설치를 호출하는 경우 설치가 시작될 때까지 일부 FCoE LUN이 아직 검색되어 채워지지 않았습니다. 따라서 모든 LUN에서 스크립트로 작성된 설치에 실패합니다. 이 실패는 https, http 또는 ftp 프로토콜이 kickstart 파일에 액세스하는 데 사용될 때 발생합니다.

    해결 방법: kickstart 파일의 %pre섹션에 2분의 유휴 시간을 포함합니다.
    %pre --interpreter=busybox
    sleep 120

  • vCenter Server는 업그레이드하지만 Auto Deploy 서버는 업그레이드하지 않는 경우에 발생할 수 있는 잠재적인 문제
    vCenter Server를 업그레이드하면 각 ESXi 호스트에서 5.0 vSphere HA 에이전트(vmware-fdm)가 새 에이전트로 교체됩니다. 이러한 교체는 ESXi 호스트가 재부팅될 때마다 발생합니다. vCenter Server를 사용할 수 없으면 ESXi 호스트가 클러스터에 가입할 수 없습니다.

    해결 방법: 가능한 경우 Auto Deploy 서버를 업그레이드합니다.
    Auto Deploy 서버를 업그레이드할 수 없는 경우 vSphere PowerCLI와 함께 포함된 Image Builder PowerCLI cmdlet을 사용하여 새 vmware-fdm VIB가 포함된 ESXi 5.0 이미지 프로파일을 만들 수 있습니다. 그리고 호스트에 이 이미지 프로파일을 제공할 수 있습니다.

    1. ESXi 5.0 소프트웨어 디포를 추가하고 새 vmware-fdm VIB가 포함된 소프트웨어 디포를 추가합니다.
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 기존 이미지 프로파일을 복제하고 vmware-fdm VIB를 추가합니다.
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 호스트에 새 이미지 프로파일을 할당하는 규칙을 새로 만들어 규칙 집합에 추가합니다.
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 호스트에 대한 테스트 및 복구 규정 준수 작업을 수행합니다.
      Test-DeployRuleSetCompliance Host_list

  • 상태 비저장 캐시가 켜져 있는 경우 Auto Deploy 서버를 사용할 수 없게 되면 호스트가 저장된 이미지를 사용하여 자동으로 부팅되지 않을 수 있음
    Auto Deploy 서버를 사용할 수 없게 되면 Auto Deploy와 함께 상태 비저장 캐시용으로 설정된 호스트가 저장된 이미지가 있는 디스크에서 자동으로 부팅되지 않는 경우가 있습니다. 이러한 상황은 원하는 부팅 디바이스가 논리적으로 다음 부팅 순서인 경우에도 발생할 수 있습니다. 정확한 발생 사항은 서버 벤더 BIOS 설정에 따라 다릅니다.

    해결 방법: 수동으로 캐시된 이미지가 있는 디스크를 부팅 디바이스로 선택합니다.

  • ESXCLI를 사용하여 ESXi 5.0 호스트를 ESXi 5.1로 업그레이드하는 동안 VMotion 및 FT(Fault Tolerance) 로깅 설정이 손실됨
    ESXi 5.0 호스트에서 포트 그룹에 대해 vMotion과 FT를 사용하도록 설정합니다. esxcli software profile update 명령을 실행하여 호스트를 업그레이드합니다. 성공적인 업그레이드의 일부로 vMotion 설정과 Fault Tolerance 로깅 설정이 기본 설정, 즉 사용 안 함 상태로 돌아갑니다.

    해결 방법: vSphere Upgrade Manager를 사용하여 호스트를 업그레이드하거나, 수동으로 vMotion과 Fault Tolerance를 업그레이드 전 설정으로 되돌립니다.

네트워킹 문제
  • Auto Deploy를 사용하여 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답을 멈춤
    최신 오픈 소스 gPXE를 사용하여 Emulex 10GbE NC553i FlexFabric 2 포트에서 Auto Deploy로 ESXi 5.1 또는 5.0 U1을 프로비저닝하는 경우 TFTP/HTTP 전송 중에 시스템이 응답하지 않습니다.

    Emulex 10GbE PCI-E 컨트롤러는 메모리 매핑된 컨트롤러입니다. 네트워크를 통해 패킷을 보내고 받으려면 이 컨트롤러에서 실행되고 있는 PXE/UNDI 스택이 1MB 이상에 위치한 디바이스별 레지스터를 프로그래밍할 수 있도록 PXE TFTP/HTTP 전송 중에 리얼 모드에서 빅 리얼 모드로 전환되어야 합니다. 이 프로세스 중에 CPU 인터럽트가 의도하지 않게 사용하도록 설정되어 CPU 모드 전환 중에 다른 디바이스 인터럽트가 생성될 때 시스템이 응답을 멈추게 됩니다.

    해결 방법: NIC 펌웨어를 빌드 4.1.450.7 이상으로 업그레이드합니다.

  • 표준 가상 스위치에서 포트 수 변경 사항이 호스트를 재부팅할 때까지 적용되지 않음
    표준 가상 스위치에서 포트 수를 변경할 경우 호스트를 재부팅하기 전에는 변경 사항이 적용되지 않습니다. 이것은 포트 수 변경 사항이 즉시 적용되는 분산 가상 스위치의 동작과 다릅니다.

    표준 가상 스위치에서 포트 수를 변경할 경우 호스트의 총 포트 수가 표준 스위치와 Distributed Switch 모두에서 4096개를 넘지 않는지 확인하십시오.

    해결 방법: 없음

  • 물리적 NIC의 관리 상태가 작동 중지로 제대로 보고되지 않음
    관리 목적으로 물리적 NIC 상태를 작동 중지로 설정하는 것은 IEEE 표준에 부합하지 않습니다. 가상 스위치 명령을 통해 물리적 NIC를 작동 중지로 설정한 경우 다음 두 가지 알려진 문제가 발생합니다.

    • ESXi에서 처리할 수 없는 트래픽 증가로 인해 ESXi에 접해 있는 물리적 스위치의 네트워크 리소스와 ESXi 자체의 리소스가 낭비됩니다.

    • NIC가 예기치 않은 방식으로 동작합니다. 작업자는 NIC 전원이 꺼질 것으로 예상하지만 NIC는 여전히 활성 상태로 표시됩니다.

    ESXCLI network down -n vmnicN 명령을 사용할 때 주의할 사항은 다음과 같습니다.
    • 이 명령은 드라이버만 끄고 NIC의 전원은 끄지 않습니다. ESXi 시스템에 접해 있는 물리적 스위치의 관리 인터페이스에서 ESXi 물리적 네트워크 어댑터를 볼 경우 표준 스위치 업링크는 여전히 활성 상태인 것으로 나타납니다.

    • NIC의 관리 상태는 ESXCLI 또는 UI에 표시되지 않습니다. 디버깅할 때 /etc/vmware/esx.conf를 검사하여 상태를 확인해야 합니다.

    • SNMP 에이전트는 관리 상태를 보고하지만, NIC의 작동 상태가 처음부터 작동 중지 상태였던 경우 NIC가 작동 중지로 설정되면 관리 상태를 잘못 보고합니다. 작동 상태가 활성 상태일 때 NIC가 작동 중지로 설정된 경우에는 관리 상태를 올바르게 보고합니다.

    해결 방법: 가상 스위치 명령을 사용하는 대신 ESXi 시스템에 접해 있는 물리적 스위치에서 관리 상태를 작동 중지로 변경합니다.

  • Linux 드라이버 지원 변경 사항
    Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET2 또는 VMXNET(flexible) 가상 NIC의 디바이스 드라이버를 사용할 수 없습니다.

    해결 방법: Linux 커널 버전 3.3 이상을 실행하는 가상 시스템의 경우 VMXNET3 또는 e1000 가상 NIC를 사용합니다.

  • vSphere 5.0 Network I/O Control 대역폭 할당이 여러 업링크 간에 균등하게 배포되지 않음
    vSphere 5.0에서 Network I/O Control을 사용하는 동안 리소스 풀에 네트워킹 대역폭 제한이 설정된 경우 이 제한은 호스트 수준의 업링크 팀에 적용됩니다. 이 대역폭 제한은 여러 업링크 간에 대역폭을 균등하게 배포하도록 설계되지 않은 토큰 배포 알고리즘을 통해 구현됩니다.

    해결 방법: vSphere 5.1 Network I/O Control 제한은 업링크 단위로 좁혀졌습니다.

  • "미러링된 패킷 길이" 설정으로 인해 원격 미러링 소스 세션이 작동하지 않음
    "미러링된 패킷 길이" 옵션이 설정되어 있는 원격 미러링 소스 세션을 구성하는 경우 대상이 미러링된 패킷 중 일부를 수신하지 않습니다. 하지만 이 옵션을 사용하지 않도록 설정하면 패킷이 다시 수신됩니다.
    "미러링된 패킷 길이" 옵션을 설정한 경우 지정한 길이보다 긴 패킷이 잘리고 패킷이 삭제됩니다. 낮은 계층 코드는 조각화와 삭제된 패킷에 대한 체크섬 재계산을 수행하지 않습니다. 다음 두 가지 사항으로 인해 패킷이 삭제될 수 있습니다.

    • "미러링된 패킷 길이"가 MTU(최대 전송 단위)보다 큼
      사용자 환경에서 TSO를 사용하도록 설정한 경우 원래 패킷이 매우 클 수 있습니다. 이러한 원래 패킷은 미러링된 패킷 길이만큼 잘린 후에도 여전히 MTU보다 크므로 물리적 NIC에 의해 삭제됩니다.

    • 중간 스위치가 L3 검사를 수행함
      일부 잘린 패킷의 패킷 길이와 체크섬이 잘못될 수 있습니다. 일부 고급 물리적 스위치는 L3 정보를 검사하고 올바르지 않은 패킷을 삭제합니다. 따라서 대상이 패킷을 수신하지 않습니다.

    • 해결 방법:

      •  
        • TSO(TCP 세분화 오프로드)를 사용하도록 설정된 경우 "미러링된 패킷 길이" 옵션이 사용되지 않도록 설정합니다.

        • Cisco의 4500 시리즈 스위치와 같은 일부 스위치에서 L3 검사를 사용하거나 사용하지 않도록 설정할 수 있습니다. 이러한 스위치를 사용 중인 경우 L3 검사를 사용하지 않도록 설정합니다. 구성할 수 없는 스위치의 경우 "미러링된 패킷 길이" 옵션을 사용하지 않도록 설정합니다.

       

      • 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 vMotion이 실패함
        vSphere 5.x에서는 호스트당 vMotion에 VMkernel 네트워크 어댑터를 16개까지 사용하도록 설정할 수 있습니다. 특정 호스트에서 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터가 16개를 초과하면 해당 호스트를 대상으로 하는 vMotion 마이그레이션이 실패할 수 있습니다. ESXi의 VMkernel 로그에 있는 오류 메시지는 17 스트림 IP 항목을 초기화하기 위한 요청을 거부합니다입니다. 여기서 숫자는 vMotion에 사용하도록 설정한 VMkernel 네트워크 어댑터 수를 나타냅니다.

        해결 방법: vMotion에 사용하도록 설정한 vMotion VMkernel 네트워크 어댑터 수가 총 16개를 초과하지 않도록 설정하십시오.

      • VLAN 환경에서 nx_nic 드라이버를 사용하는 경우 vSphere 네트워크 코어 덤프가 작동하지 않음
        네트워크 코어 덤프가 VLAN에 속한 호스트에 구성된 경우 NIC가 QLogic Intelligent Ethernet Adapters 드라이버(nx_nic)를 사용하면 네트워크 코어 덤프가 실패합니다. 업링크 어댑터가 nx_nic를 사용하면 수신된 네트워크 코어 덤프 패킷에 올바른 VLAN 태그가 지정되지 않습니다.

        해결 방법: VLAN에서 네트워크 코어 덤프를 구성하는 경우 다른 드라이버가 있는 다른 업링크 어댑터를 사용합니다.

      • 스크립트로 작성된 설치에 대한 kickstart 파일에서 이미 사용 중인 NIC를 호출하는 경우 설치에 실패함
        kickstart 파일을 사용하여 관리 네트워크 사후 설치를 설정하는 경우 kickstart 파일에서 이미 사용 중인 NIC를 호출하면 다음 오류 메시지가 표시됩니다. Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information.(작업에서 반환된 상태에 대한 Sysinfo 오류는 "사용 중"입니다. 오류에 대한 자세한 내용은 VMkernel 로그를 참조하십시오.)

        오류는 두 개의 NIC, 즉 SWFCoE/SWiSCSI용으로 구성된 NIC와 네트워킹용으로 구성된 NIC가 있는 하나의 시스템에서 스크립트로 작성된 설치를 시작할 때 발생합니다. 부팅 옵션에서 netdevice=<nic> 또는 BOOTIF=<MAC of the NIC>를 제공하여 네트워크 NIC를 통해 스크립트로 작성된 설치를 시작하는 경우 kickstart 파일은 네트워크 라인에 있는 다른 NIC( netdevice=<nic configured for SWFCoE / SWiSCSI>)를 사용하여 관리 네트워크를 구성합니다.

        설치(디스크 파티셔닝)에는 성공하지만 구성에는 실패하는데, 이는 설치 관리자가 kickstart 파일에서 네트워크 매개 변수가 제공된 호스트에 대해 관리 네트워크를 구성하려고 할 때 NIC가 SWFCoE/SWiSCSI에서 이미 사용되고 있기 때문입니다.

        해결 방법: 설치 후 관리 네트워크를 설정하기 위한 kickstart 파일에서 사용 가능한 NIC를 사용합니다.

      • ESX를 실행 중이며 VMXNET3을 pNIC로 사용하는 가상 시스템이 충돌할 수 있음
        VMXNET3 지원은 실험 버전이므로 게스트로 ESX를 실행하고 pNIC로 vmxnet3을 사용하는 가상 시스템에서 충돌이 발생할 수 있습니다. ESX 가상 시스템의 기본 NIC는 e1000이므로 이 문제는 기본값을 재정의하고 대신 VMXNET3을 선택한 경우에만 발생합니다.

        해결 방법: ESX 가상 시스템의 pNIC로 e1000 또는 e1000e를 사용합니다.

      • 많은 수의 dvPort가 사용되고 있는 경우 오류 메시지가 표시됨
        이미 많은 수의 dvPort가 사용되고 있는 호스트에서 dvPort가 있는 가상 시스템의 전원을 켜면 메모리 부족또는 리소스 부족오류가 표시됩니다. esxcli 명령을 사용하여 호스트에 있는 스위치를 나열할 때에도 이 문제가 발생할 수 있습니다.

        해결 방법: dvsLargeHeap 크기를 늘립니다.

        1. 다음과 같이 호스트의 고급 구성 옵션을 변경합니다.
          • esxcli 명령: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
          • 가상 센터: 호스트 구성 -> 소프트웨어 패널 -> 고급 설정 -> "네트"에서 DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
          • vSphere 5.1 Web Client: 호스트 관리 -> 설정 -> 고급 시스템 설정 -> 필터로 이동합니다. DVSLargeHeapMaxSize 값을 80에서 100으로 변경합니다.
        2. 호스트에서 호스트 프로파일을 캡처합니다. 프로파일을 호스트와 연결하고 응답 파일을 업데이트합니다.
        3. 값이 적용되도록 호스트를 재부팅합니다.

        참고: /Net/DVSLargeHeapMaxSize의 최대값은 128입니다.

        대규모 배포 중에 /Net/DVSLargeHeapMaxSize를 128로 변경한 후 문제가 발생하고 로그에 다음 오류 메시지 중 하나가 표시되는 경우 VMware 지원에 문의하십시오.

        Unable to Add Port; Status(bad0006)= Limit exceeded(포트를 추가할 수 없습니다. 상태(bad0006)= 제한 초과)

        Failed to get DVS state from vmkernel Status (bad0014)= Out of memory(vmkernel에서 DVS 상태를 가져오지 못했습니다. 상태(bad0014)= 메모리 부족)

      • ESXi가 Emulex BladeEngine-3 10G NIC(be2net 드라이버)에서 실패함
        VMware vCloud Director를 사용하여 vCDNI가 지원하는 네트워크 풀을 구성한 경우 ESXi가 Emulex BladeEngine-3 10G NIC가 있는 시스템에서 실패할 수 있습니다. 이 디바이스가 있는 네트워크 풀을 구성할 경우 Emulex에서 업데이트된 디바이스 드라이버를 얻어야 합니다.

        해결 방법: 없음

      스토리지 문제

      • VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션된 가상 시스템에서 RDM LUN이 분리됨
        vSphere Web Client를 사용하여 RDM LUN이 있는 가상 시스템을 VMFS 데이터스토어에서 NFS 데이터스토어로 마이그레이션할 경우 오류 또는 주의 메시지 없이 마이그레이션 작업이 완료되지만 RDM LUN은 마이그레이션 후 가상 시스템에서 분리됩니다. 하지만 마이그레이션 작업 중 NFS 데이터스토어에는 RDM LUN을 대체하기 위해 RDM LUN과 같은 크기의 vmdk 파일이 생성됩니다.
        vSphere Client를 사용하는 경우 마이그레이션 마법사의 호환성 섹션에 해당 오류 메시지가 표시됩니다.

        해결 방법: 없음
      • EMC Symmetrix VMAX/VMAXe 스토리지 어레이를 사용하는 경우 VMFS5 데이터스토어 생성에 실패할 수 있음
        ESXi 호스트가 VMAX/VMAXe 어레이에 연결된 경우 어레이에서 나타나는 LUN에 VMFS5 데이터스토어를 생성하지 못할 수 있습니다. 이 경우 다음 오류가 표시됩니다. An error occurred during host configuration(호스트를 구성하는 동안 오류가 발생했습니다.) 이 오류는 이전에 기록되지 않은 LUN에서 새 데이터스토어를 방지하는 Symmetrix Enginuity Microcode(VMAX 5875.x)의 ATS(VAAI) 부분에 따른 결과입니다.

        해결 방법:

        1. ESXi 호스트에서 하드웨어 가속 잠금을 사용하지 않도록 설정합니다.
        2. VMFS5 데이터스토어를 생성합니다.
        3. 호스트에서 하드웨어 가속 잠금을 다시 사용하도록 설정합니다.

        하드웨어 가속 잠금 매개 변수를 사용하지 않도록 설정했다가 다시 사용하도록 설정하려면 다음 작업을 수행합니다.

        vSphere Web Client의 경우

        1. vSphere Web Client 탐색기에서 호스트를 찾습니다.
        2. 관리 탭을 클릭하고 설정을 클릭합니다.
        3. 시스템 아래에서 고급 시스템 설정을 클릭합니다.
        4. VMFS3.HardwareAcceleratedLocking을 선택하고 "편집" 아이콘을 클릭합니다.
        5. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
          • 0 사용 안 함
          • 1 사용

        vSphere Client의 경우

        1. vSphere Client 인벤토리 패널에서 호스트를 선택합니다.
        2. 구성 탭을 클릭하고 소프트웨어 아래에서 고급 설정을 클릭합니다.
        3. VMFS3.HardwareAcceleratedLocking 매개 변수의 값을 변경합니다.
          • 0 사용 안 함
          • 1 사용

      • Storagesystem::updateDiskPartitions()를 사용하는 경우 빈 디스크에 GPT 파티션을 생성하려는 시도가 실패할 수 있음
        Storagesystem::computeDiskPartitionInfoAPI를 사용하여 디스크 규격을 검색한 다음 디스크 규격을 사용하여 Storagesystem::updateDiskPartitions()를 통해 디스크에 대한 레이블 지정과 파티션 생성을 수행할 수 있습니다. 하지만 디스크가 초기에 비어 있는 경우 대상 디스크 형식이 GPT이면 파티션을 생성하려는 시도가 실패할 수 있습니다.

        해결 방법: 대신 DatastoreSystem::createVmfsDatastore를 사용하여 빈 디스크에 대한 레이블 지정과 파티션 생성을 수행하고 VMFS5 데이터스토어를 생성합니다.

      • GPT 디스크에 진단 파티션을 생성하려는 시도가 실패할 수 있음
        GPT 디스크에 파티션이 없거나 디스크의 끝 부분이 비어 있는 경우 디스크에 진단 파티션을 생성하지 못할 수 있습니다.

        해결 방법: GPT 형식의 디스크를 진단 파티션에 사용하지 마십시오. 기존의 빈 GPT 디스크를 진단 파티션에 사용해야 하는 경우에는 디스크를 MBR 형식으로 변환합니다.

        1. 디스크에 VMFS3 데이터스토어를 생성합니다.
        2. 데이터스토어를 제거합니다.

        디스크 형식이 GPT에서 MBR로 변경됩니다.

      • 2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE LUN에서 ESXi를 부팅할 수 없음
        2TB보다 크고 Intel FCoE NIC를 통해 액세스되는 FCoE 부팅 LUN에 ESXi를 설치하는 경우 설치에 성공할 수 있습니다. 하지만 ESXi 호스트를 부팅하려고 하면 부팅이 실패합니다. BIOS 실행 시 오류: No suitable geometry for this disk capacity!ERROR: Failed to connect to any configured disk!오류 메시지가 표시됩니다.

        해결 방법: 2TB보다 크고 FCoE 부팅용으로 구성한 Intel FCoE NIC에 연결된 FCoE LUN에 ESXi를 설치하지 마십시오. 2TB보다 작은 FCoE LUN에 ESXi를 설치하십시오.

      서버 구성 문제
      • 콘솔을 통해 VMFS 폴더에 액세스하는 경우 호스트 프로파일 적용에 실패할 수 있음
        호스트 프로파일이 호스트에 적용됨과 동시에 사용자가 콘솔을 통해 VMFS 데이터스토어 폴더에 액세스하는 경우 업데이트 적용 또는 적용 작업이 실패할 수 있습니다. 이러한 실패는 호스트 프로파일에서 상태 비저장 캐시를 사용하도록 설정된 경우나 Auto Deploy 설치가 발생한 경우에 발생합니다.

        해결 방법: 호스트 프로파일 업데이트를 적용하는 동안 콘솔을 통해 VMFS 데이터스토어에 액세스하지 마십시오.

      • 로그인 배너의 선행 공백으로 인해 호스트 프로파일 규정 준수 실패가 발생함
        호스트 프로파일을 편집하고 "로그인 배너(요일 메시지)" 옵션의 텍스트를 변경하지만 배너 텍스트에 선행 공백을 추가하면 프로파일이 적용될 때 규정 준수 오류가 발생합니다. Login banner has been modified(로그인 배너가 수정됨)라는 규정 준수 오류가 나타납니다.

        해결 방법: 호스트 프로파일을 편집하고 로그인 배너 정책 옵션에서 선행 공백을 제거합니다.

      • Active Directory를 사용하도록 설정한 경우 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하지 못함
        Active Directory를 사용하도록 설정한 경우 원래 ESXi 5.0 호스트에서 추출된 호스트 프로파일을 ESX 5.1 호스트에 적용하면 적용 작업이 실패합니다. likewise 시스템 리소스 풀의 최대 메모리 크기를 설정하면 오류가 발생할 수 있습니다. Active Directory를 사용하도록 설정한 경우 likewise 시스템 리소스 풀에 있는 서비스는 ESXi 5.0 호스트 프로파일에서 캡처된 ESXi 5.0의 기본 최대 메모리 제한보다 더 많이 소비합니다. 따라서 최대 메모리 제한을 ESXi 5.0 수준으로 설정하려고 시도하는 동안 ESXi 5.0 호스트 프로파일 적용이 실패합니다.

        해결 방법: 다음 작업 중 하나를 수행합니다.

        • 호스트 프로파일을 수동으로 편집하여 likewise 그룹의 최대 메모리 제한을 늘립니다.
          1. 호스트 프로파일 편집기에서 리소스 풀 폴더로 이동하고 host/vim/vmvisor/plugins/likewise를 봅니다.
          2. 20(ESXi 5.0 기본값)에서 25(ESXi 5.1 기본값)로 최대 메모리(MB) 설정을 수정합니다.
        • likewise 그룹의 하위 프로파일을 사용하지 않도록 설정합니다. 다음 중 하나를 수행합니다.
          • vSphere Web Client에서 호스트 프로파일을 편집하고 리소스 풀 폴더의 확인란을 선택 취소합니다. 이 작업을 수행하면 모든 리소스 풀 관리가 사용되지 않도록 설정됩니다. 리소스 풀 폴더의 host/vim/vmvisor/plugins/likewise 항목에 대해서만 이 기능을 사용하지 않도록 설정할 수 있습니다.
          • vSphere Client에서 호스트 프로파일을 마우스 오른쪽 버튼으로 클릭하고 메뉴에서 프로파일 구성 사용/사용 안 함...을 선택합니다.

      • ESXi 5.0.x 호스트 프로파일이 상태 저장 ESXi 5.1 호스트에 다시 적용될 때 호스트 게이트웨이가 삭제되고 규정 준수 실패가 발생함
        ESXi 5.0.x 호스트 프로파일이 새로 설치한 ESXi 5.1 호스트에 적용될 때 프로파일 규정 준수 상태가 규정 비준수입니다. 동일한 프로파일을 다시 적용한 후 호스트의 게이트웨이 IP가 삭제되고 규정 준수 상태가 계속해서 IP 경로 구성이 규격과 일치하지 않음상태 메시지와 함께 규정 비준수로 표시됩니다.

        해결 방법: 다음 해결 방법 중 하나를 수행합니다.

        • DCUI를 통해 호스트에 로그인하고 다음과 같은 esxcli명령을 사용하여 수동으로 기본 게이트웨이를 추가합니다.
          esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
        • ESX 5.0 호스트 프로파일을 한 번 적용한 후 ESX 5.1 호스트에서 새 호스트 프로파일을 추출합니다. ESX 5.1 호스트를 새 ESX 5.1 기반 호스트 프로파일로 마이그레이션합니다.

      • USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 후 규정 준수 오류가 발생할 수 있음
        호스트 프로파일에서 USB 디스크에 대한 상태 비저장 캐시를 사용하도록 설정한 경우 업데이트 적용 후 규정 준수 오류가 발생할 수 있습니다. 업데이트가 적용된 변경 사항을 적용하도록 호스트를 재부팅한 후 상태 비저장 캐시에 성공하지만 규정 준수 실패가 계속됩니다.

        해결 방법: 해결 방법이 없습니다.

      • 상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 동안 많은 데이터스토어가 있는 호스트가 시간 초과됨
        상태 비저장 캐시를 사용하도록 설정한 호스트 프로파일을 적용하는 경우 많은 데이터스토어가 있는 호스트가 시간 초과됩니다.

        해결 방법: vSphere Client를 사용하여 시간 초과를 늘립니다.

        1. 관리자 > vCenter Server 설정을 선택합니다.
        2. 시간 초과 설정을 선택합니다.
        3. 일반 작업과 긴 작업에 대한 값을 3600초로 변경합니다.

        1. vmknic에서 IPv4를 사용하지 않도록 설정한 경우 호스트에서 호스트 프로파일을 추출할 수 없음
          모든 vmknic에서 모든 IPv4 주소를 제거하는 경우 해당 호스트에서 호스트 프로파일을 추출할 수 없습니다. 이 환경에서 호스트 구성을 저장하는 유일한 방법이 호스트 프로파일이므로 이 작업은 Auto Deploy로 프로비저닝된 호스트에 가장 큰 영향을 주게 됩니다.

          해결 방법: 하나 이상의 vmknic를 하나의 IPv4 주소에 할당합니다.

        2. ESXi 4.1 호스트에서 추출된 호스트 프로파일을 ESXi 5.1 호스트에 적용하는 경우 호스트 프로파일 적용에 실패함
          ESXi 4.1을 사용하여 호스트를 설정하고 이 호스트(vCenter Server 포함)에서 호스트 프로파일을 추출한 다음 프로파일을 ESXi 5.1 호스트에 연결하는 경우 프로파일을 적용하려고 하면 작업이 실패합니다. 이 경우 다음 오류가 수신될 수 있습니다. NTP service turned off(NTP 서비스가 해제됨)

          ESXi 4.1의 /etc/ntp.conf에서 NTP 서버를 제공하지 않더라도 NTPD 서비스가 활성화된 상태로 실행되고 있을 수 있습니다. ESXi 5.1에 명시적 NTP 서버가 있어야 서비스를 실행할 수 있습니다.

          해결 방법: /etc/ntp.conf에서 올바른 NTP 서버를 추가하여 NTP 서비스를 켜고 5.1 호스트에서 NTP 대몬을 다시 시작합니다. 재부팅 후에도 서비스가 그대로 유지되는지 확인합니다. 이 작업을 수행하면 NTP 서비스가 호스트와 해당 호스트에 적용되는 프로파일에 대해 동기화됩니다.

        3. 프로파일이 성공적으로 적용된 후 호스트 프로파일이 규정 비준수로 표시됨
          이 문제는 ESXi 5.0 호스트에서 호스트 프로파일을 추출하여 로컬 SAS 디바이스가 포함된 ESXi 5.1 호스트에 적용할 때 발생합니다. 호스트 프로파일 업데이트 적용에 성공해도 호스트 프로파일이 규정 비준수로 표시됩니다.

          다음과 같은 오류가 수신될 수 있습니다.

          • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 경로 선택 정책을 VMW_PSP_FIXED(으)로 설정해야 함
          • 호스트에 규격 상태가 없음: 디바이스 naa.500000e014ab4f70 매개 변수를 State = "on" Queue Full Sample Size = "0" Queue Full Threshold = "0"(으)로 설정해야 함

          ESXi 5.1 호스트 프로파일 스토리지 플러그인이 PSA 및 NMP 디바이스 구성에 맞는 로컬 SAS 디바이스를 필터링하지만 ESXi 5.0에는 이와 같은 디바이스 구성이 포함되어 있습니다. 따라서 오래된 호스트 프로파일을 새 호스트에 적용하는 경우 누락된 디바이스가 발생합니다.

          해결 방법: 수동으로 호스트 프로파일을 편집하고 모든 로컬 SAS 디바이스의 PSA 및 NMP 디바이스 구성 항목을 제거합니다. 다음과 같은 esxcli 명령을 입력하여 디바이스가 로컬 SAS 디바이스인지 확인할 수 있습니다.
          esxcli storage core device list

          다음과 같은 줄이 반환되는 경우 디바이스는 로컬 SAS 디바이스입니다.
          Is Local SAS Device

        4. 기본 시스템 서비스가 항상 Auto Deploy로 프로비저닝된 ESXi 호스트에서 시작됨
          Auto Deploy로 프로비저닝된 ESXi 호스트의 경우 관련 호스트 프로파일의 "서비스 구성" 섹션에 있는 서비스 시작 정책이 완전히 적용되지 않습니다. 특히, ESXi에서 기본적으로 켜져 있는 서비스 중 하나의 "시작 정책" 값이 off인 경우 해당 서비스는 Auto Deploy로 프로비저닝된 ESXi 호스트에서 여전히 부팅 시간에 시작됩니다.

          해결 방법: ESXi 호스트를 부팅한 후 서비스를 수동으로 중지합니다.

        5. snmpd 다시 시작 후 VMWARE-VMINFO-MIB에서 정보 검색이 올바르게 이루어지지 않음
          ESXi Shell에서 /etc/init.d/snmpd restart를 사용하여 snmpd 대몬을 다시 시작한 후 SNMPWalk를 실행하는 동안 VMWARE-VMINFO-MIB의 일부 정보가 누락될 수 있습니다.

          해결 방법: /etc/init.d/snmpd restart를 사용하지 마십시오. esxcli system snmp set --enable명령을 사용하여 SNMP 대몬을 시작하거나 중지해야 합니다. /etc/init.d/snmpd restart를 사용하여 ESXi Shell에서 snmpd를 다시 시작한 경우 DCUI에서 Hostd를 다시 시작하거나 ESXi Shell에서 /etc/init.d/hostd restart를 사용하여 Hostd를 다시 시작합니다.

        vCenter Server 및 vSphere Client 문제
        • View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server에 대한 ESXi 호스트 연결이 손실될 수 있음
          VMware View가 vSphere 5.1과 함께 배포된 경우 View 관리자가 데스크톱 풀에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하면 vCenter Server 5.1에 대한 ESXi 5.1 호스트 연결이 손실될 수 있습니다.

          View Storage Accelerator 기능을 컨텐츠 기반 읽기 캐시라고도 합니다. View 5.1 View Administrator 콘솔에서는 이 기능을 호스트 캐시라고 합니다.

          해결 방법: vSphere 5.1과 함께 배포된 View 환경에서 View Storage Accelerator를 사용하거나 사용하지 않도록 설정하지 마십시오.

        가상 시스템 관리 문제
        • ESX 3.x 이상(VM 버전 4)에서의 가상 시스템 호환성 업그레이드가 Windows 가상 시스템 Flexible 어댑터를 Windows 시스템 기본 드라이버로 잘못 구성함
          Flexible 네트워크 어댑터가 VMware Accelerated AMD PCnet Adapter 드라이버로 구성된 Windows 게스트 운영 체제가 있는 경우 가상 시스템 호환성을 ESX 3.x 이상(VM 버전 4)에서 다른 모든 이후의 호환성 설정으로 업그레이드하면(예: ESXi 4.x 이상(VM 버전 7) Windows가 Flexible 어댑터를 Windows AMD PCNET Family PCI Ethernet Adapter 기본 드라이버로 구성합니다.
          구성이 잘못되는 이유는 VMware Tools 드라이버가 서명되지 않아 Windows가 서명된 기본 Windows 드라이버를 선택하기 때문입니다. 호환성 업그레이드 이전에 설정되었던 Flexible 어댑터 네트워크 설정이 손실되고 NIC의 네트워크 속도가 1Gbps에서 10Mbps로 변경됩니다.

          해결 방법: 가상 시스템의 호환성을 업그레이드한 후 Windows 게스트 운영 체제에서 VMXNET 드라이버를 사용하도록 Flexible 네트워크 어댑터를 구성합니다. ESXi 5.1 VMware Tools로 게스트를 업데이트한 경우 VMXNET 드라이버는 다음 위치에 설치됩니다. C:\Program Files\Common Files\VMware\Drivers\vmxnet\.

        • 가상 시스템에 VMware Tools를 설치하고 재부팅하는 경우 네트워크를 사용할 수 없게 됨
          CentOS 6.3 및 Oracle Linux 6.3 운영 체제가 설치된 가상 시스템에서 VMware Tools를 성공적으로 설치하고 가상 시스템을 재부팅한 후에 네트워크를 사용할 수 없게 됩니다. 수동으로 DHCP 서버에서 IP 주소를 가져오거나 명령줄에서 정적 IP 주소를 설정하려고 하면 Cannot allocate memory(메모리를 할당하지 못했습니다) 오류가 나타납니다.
          이 문제는 기본적으로 사용되는 Flexible 네트워크 어댑터가 해당 운영 체제에 적합한 선택 항목이 아니기 때문에 발생합니다.

          해결 방법: 다음과 같이 네트워크 어댑터를 Flexible에서 E1000 또는 VMXNET 3으로 변경합니다.

          1. vmware-uninstall-tools.pl명령을 실행하여 VMware Tools를 제거합니다.
          2. 가상 시스템의 전원을 끕니다.
          3. vSphere Web Client에서 가상 시스템을 마우스 오른쪽 버튼으로 클릭하고 설정 편집을 선택합니다.
          4. "가상 하드웨어"를 클릭하고 "제거" 아이콘을 클릭하여 현재 네트워크 어댑터를 제거합니다.
          5. 새 네트워크 어댑터를 추가하고 어댑터 유형으로 E1000 또는 VMXNET 3을 선택합니다.
          6. 가상 시스템 전원 켜기.
          7. VMware Tools를 다시 설치합니다.

        • ESXi에서 VMFS가 아닌 가상 디스크가 포함된 복제 또는 마이그레이션 작업이 실패하고 오류가 발생함
          호스팅된 형식의 가상 디스크에서 vmkfstools 명령을 사용하여 복제, 복사 또는 마이그레이션 작업을 수행하든 클라이언트를 통해 복제, 복사 또는 마이그레이션 작업을 수행하든 해당 작업이 실패하고 다음 오류 메시지가 표시됩니다. The system cannot find the file specified(시스템에서 지정한 파일을 찾을 수 없습니다).

          해결 방법: 호스팅된 형식의 가상 디스크에서 복제, 복사 또는 마이그레이션 작업을 수행하려면 VMkernel 다중 익스텐트 모듈을 ESXi로 로드해야 합니다.

          1. ESXi Shell에 로그인하고 다중 익스텐트 모듈을 로드합니다.
            # vmkload_mod multiextent
          2. 가상 시스템 디스크가 호스팅된 유형인지 확인합니다. 호스팅된 디스크는 -s00x.vmdk라는 확장명으로 끝납니다.
          3. 호스팅된 형식의 가상 디스크를 VMFS 형식 중 하나로 변환합니다.
            1. 소스 호스팅된 디스크 test1.vmdk를 test2.vmdk에 복제합니다.
              # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
            2. 복제에 성공한 후 호스팅된 디스크 test1.vmdk를 삭제합니다.
              # vmkfstools -U test1.vmdk
            3. 복제된 vmfs 유형 디스크 test2.vmdk의 이름을 test1.vmdk로 바꿉니다.
              # vmkfstools -E test2.vmdk test1.vmdk
          4. 다중 익스텐트 모듈을 언로드합니다.
            #vmkload_mod -u multiextent

        • 가상 시스템에 할당된 IP 주소가 없으며 작동하는 것으로 나타나지 않음
          게스트 운영 체제에서 시작된 LUN 재설정 요청으로 인해 이 문제가 발생합니다. 이 문제는 ESXi 호스트에 소프트웨어 FCoE가 구성되어 있는 IBM XIV Fibre Channel 어레이와 관련이 있습니다. LUN에 상주하는 가상 시스템에서 다음과 같은 문제가 발생합니다.

          • 가상 시스템에 할당된 IP 주소가 없습니다.
          • 가상 시스템의 전원을 켜거나 끌 수 없습니다.
          • 콘솔 내부에 마우스 커서가 나타나지 않습니다. 결과적으로 게스트 운영 체제 내에서 영향을 받는 가상 시스템을 제어하거나 가상 시스템과 상호 작용할 방법이 없습니다.

          해결 방법: ESXi 호스트에서 문제가 발생하는 가상 시스템이 상주하는 LUN을 재설정합니다.

          1. 다음 명령을 실행하여 LUN 정보를 가져옵니다.
            # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
          2. 출력에서 다음 줄을 검색하여 LUN의 UID를 얻습니다.
            Partitions spanned (on 'lvm'): eui.001738004XXXXXX:1
            eui.001738004XXXXXX가 디바이스 UID입니다.
          3. 다음 명령을 실행하여 LUN을 재설정합니다.
            # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
          4. 응답하지 않는 가상 시스템이 연결된 LUN이 여러 개인 데이터스토어(예: 추가된 익스텐트)에 상주하는 경우 모든 데이터스토어 익스텐트에 대해 LUN을 재설정하십시오.

        마이그레이션 문제
        • Storage vMotion을 사용하여 연결된 복제 가상 시스템 여러 개를 마이그레이션하려고 하면 실패함
          이 오류는 일반적으로 연결된 복제 가상 시스템에 영향을 미칩니다. 이 오류는 델타 디스크 크기가 1MB이고 ESXi 호스트에서 CBRC(컨텐츠 기반 읽기 캐시) 기능을 사용하도록 설정한 경우에 발생합니다. 다음 오류 메시지가 표시됩니다. 소스가 대상이 재개되지 못했음을 감지했습니다.

          해결 방법: 다음 방법 중 하나를 사용하여 Storage vMotion 오류를 방지합니다.

          • 4KB를 델타 디스크 크기로 사용합니다.

          • Storage vMotion을 사용하는 대신 전원이 꺼진 가상 시스템을 새 데이터스토어로 마이그레이션합니다.

        VMware HA 및 Fault Tolerance 문제
        • vCenter Server의 베타 빌드에서 통계 정보를 기록하도록 설정한 경우 무장애 가상 시스템이 충돌함
          vmx*3 기능을 사용하면 stats vmx를 실행하여 지원 문제를 디버깅하기 위한 성능 통계를 수집할 수 있습니다. vCenter Server의 베타 빌드에서 Fault Tolerance를 사용하도록 설정한 경우에는 stats vmx가 호환되지 않습니다.

          해결 방법: Fault Tolerance를 사용하도록 설정하는 경우 가상 시스템이 vCenter Server의 베타 빌드에 통계를 기록하도록 설정되지 않아야 합니다.

        지원되는 하드웨어 문제
        • Apple Mac Pro 서버의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
          vSphere 5.1의 하드웨어 상태 탭에 Apple Mac Pro의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 Apple Mac Pro에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

          해결 방법: 없음

        • AMD PileDriver의 vCenter Server에 PCI 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됨
          vSphere 5.1의 하드웨어 상태 탭에 AMD PileDriver의 일부 PCI 디바이스 상태가 Unknown Unknown(알 수 없음 알 수 없음)으로 표시됩니다. 이는 AMD PileDriver에 해당 PCI 디바이스의 하드웨어 설명이 누락되었기 때문입니다. 하드웨어 상태 탭에 오류가 표시되더라도 해당 PCI 디바이스는 제대로 작동합니다.

          해결 방법: 없음

        • DPM은 Apple Mac Pro 서버에서 지원되지 않음
          vSphere 5.1의 DPM(분산 전원 관리) 기능은 Apple Mac Pro에서 지원되지 않습니다. DPM을 사용하도록 설정한 클러스터에 Apple Mac Pro를 추가하지 마십시오. 호스트가 "대기" 상태로 전환되면 전원 켜기 명령이 실행될 때 대기 상태 종료에 실패하고 operation timed out(작업이 시간 초과되었습니다) 오류가 표시됩니다. Apple Mac Pro는 호스트를 대기 상태로 전환할 때 vSphere에서 사용되는 소프트웨어 전원 끄기 명령에서 해제될 수 없습니다.

          해결 방법: Apple Mac Pro 호스트가 "대기" 상태로 전환되면 전원 버튼을 물리적으로 눌러 호스트의 전원을 켜야 합니다.

        • IPMI는 Apple Mac Pro 서버에서 지원되지 않음
          vSphere 5.1의 하드웨어 상태 탭에 올바른 데이터가 표시되지 않거나 Apple Mac Pro의 일부 하드웨어 구성 요소에 대한 데이터가 누락됩니다. 이는 IPMI가 Apple Mac Pro에서 지원되지 않기 때문입니다.

          해결 방법: 없음

        기타 문제
        • 네트워크 또는 스토리지 중단 후 TCP 기반 syslog, SSL 기반 syslog 및 스토리지 로깅이 자동으로 다시 시작되지 않음
          특정 구성에서는 네트워크 또는 스토리지 중단 후 syslog 서비스가 자동으로 다시 시작되지 않습니다. 이러한 구성에는 TCP 기반 syslog, SSL 기반 syslog, 중단 스토리지 로깅 등이 있습니다.

          해결 방법: 다음 명령을 실행하여 명시적으로 syslog를 다시 시작합니다.
          esxcli system syslog reload자동으로 다시 시작되는 UDP 기반 syslog를 구성할 수도 있습니다.

        • Windows Server 2012 페일오버 클러스터링은 지원되지 않음
          Windows Server 2012에서 페일오버 클러스터링용 클러스터를 생성하는 경우 검증 테스트를 실행하도록 선택하면 마법사가 검증 테스트를 완료하고 주의 메시지를 표시한 다음 검증 테스트 실행 단계로 다시 돌아갑니다. Windows Server 2012 게스트 운영 체제의 마법사는 클러스터 생성 단계를 계속하지 않습니다.

          해결 방법: 없음