VMware ESXi 5.1 Update 2 | 2014 年 1 月 16 日 | 内部版本 1483097

上次更新时间:2014 年 7 月 24 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • 支持其他客户机操作系统 本版本更新了对许多客户机操作系统的支持。
    有关本版本所支持的客户机操作系统的完整列表,请参见 《VMware 兼容性指南》

  • 已解决的问题 本版本还提供了许多已在 已解决的问题部分记录的缺陷修复。

ESXi 5.1 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.1 的功能和已知问题。要查看 ESXi 5.1 早期版本的发行说明,请参阅

国际化

VMware vSphere 5.1 Update 2 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与先前版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看本站点以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 与 vCenter Server 和模块 ZIP 文件打包在一起。您可以通过 VMware vCenter™ 安装程序向导来安装一个客户端,或者安装所有这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.1.2 增加了对 ESXi 5.1 Update 2 和 vCenter Server 5.1 Update 2 版本的支持。有关 VDDK 的更多详细信息,请访问 http://www.vmware.com/support/developer/vddk/

ESXi 的硬件兼容性

要确定哪些处理器、存储设备、SAN 阵列和 I/O 设备与 vSphere 5.1 Update 2 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 2 的信息。

此版本所支持的处理器的列表有所扩展。要确定哪些处理器与此版本兼容,请参见 《VMware 兼容性指南》

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 ESXi 5.1 Update 2 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 2 的信息。

自 vSphere 5.1 起,对较旧的客户机操作系统的支持级别有所变化。有关每个支持级别的描述,请参见 知识库文章 2015161《VMware 兼容性指南》提供了所有操作系统版本和 VMware 产品版本的详细支持信息。

以下客户机操作系统版本不再受其各自操作系统供应商支持,已弃用。虽然 vSphere 5.1 Update 2 仍然支持这些客户机操作系统,但未来的 vSphere 版本将不会对其提供支持。

  • Windows NT
  • 所有 16 位 Windows 和 DOS 版本(Windows 98、Windows 95、Windows 3.1)
  • Debian 4.0 和 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • 低于 SP4 的 SUSE Linux Enterprise 9
  • 低于 SP3 的 SUSE Linux Enterprise 10
  • 低于 SP1 的 SUSE Linux Enterprise 11
  • Ubuntu 版本 8.04、8.10、9.04、9.10 和 10.10
  • 所有版本的 Novell Netware
  • 所有版本的 IBM OS/2

 

ESXi 的虚拟机兼容性

ESXi 5.1 Update 2 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不再受支持。要在 ESXi 5.1 Update 2 上使用此类虚拟机,请升级虚拟机兼容性。请参见 《vSphere 升级》文档。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的分步指导,请阅读 《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。有关具体信息,请阅读以下内容:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.0 与 ESXi 5.1 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义进行升级的信息,请参见 《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.1 Update 2 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.1 Update 2 的兼容性。如果您的主机硬件不兼容,将有紫色屏幕显示关于不兼容信息的消息,并且您将无法安装或升级到 vSphere 5.1 Update 1。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

ESXi 5.1 Update 2 提供以下用于升级 ESX/ESXi 主机的工具:

  • 使用 CD-ROM、DVD 或 USB 闪存驱动器上的 ESXi 安装程序 ISO 映像以交互方式升级。您可以从 CD-ROM、DVD 或 USB 闪存驱动器中运行 ESXi 5.1 Update 2 安装程序来执行交互式升级。此方法适用于少数主机。
  • 执行脚本式升级。通过调用更新脚本(可提供无需人工干预的高效升级),可以将 4.x 版 ESX/ESXi 主机、ESXi 5.0.x 和 ESXi 5.1.x 主机升级或迁移到 ESXi 5.1 Update 2。脚本式升级还提供了高效的多主机部署方式。您可以从 CD-ROM 或 DVD 驱动器或通过 PXE 引导安装程序使用脚本来升级 ESXi。

  • vSphere Auto Deploy。如果您的 ESXi 5.x 主机是使用 vSphere Auto Deploy 部署的,则可以使用 Auto Deploy 重新置备该主机,方法是通过包含 ESXi 升级的新映像配置文件重新引导该主机。

  • esxcli。您可以使用 esxcli 命令行实用程序升级 ESXi 5.1.x 主机并对其应用修补程序,方法是使用 vmware.com 上的下载库或者 VMware 合作伙伴准备的库的 ZIP 下载文件。您不能使用 esxcli 将 ESX 或 ESXI 主机从低于 5.1 版的 ESX/ESXI 版本升级到 5.1.x 版。

支持升级到 ESXi 5.1 Update 2 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.1 Update 2 的升级途径

ESX 4.0
包括
ESX 4.0 Update 1
ESX4.0 Update 2

ESX4.0 Update 3
ESX 4.0 Update 4

ESXi 4.0
包括
ESXi 4.0 Update 1
ESXi 4.0 Update 2

ESXi 4.0 Update 3
ESXi 4.0 Update 4

ESX 4.1:
包括
ESX 4.1 Update 1
ESX 4.1 Update 2

ESX 4.1 Update 3

 

ESXi 4.1
包括
ESXi 4.1 Update 1

ESXi 4.1 Update 2
ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
包括
ESXi 5.1 Update 1

VMware-VMvisor-Installer-5.1.0.update02-xxxxxxx.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

update-from-esxi5.1-5.1_update02.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

使用从 VMware 门户(联机)下载的修补程序定义

带有修补程序基准的 VMware vCenter Update Manager

VMware vSphere 5.1 Update 2 的开源组件

可从 http://www.vmware.com/download/open_source.html 获取适用于在 vSphere 5.1 Update 2 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新通用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Client。在 vSphere 5.1 中,所有新 vSphere 功能只能通过 vSphere Web Client 使用。传统的 vSphere Client 将继续运行,支持与 vSphere 5.0 相同的功能集,但不显示 vSphere 5.1 中的任何新功能。

    vSphere 5.1 及其后续更新和修补程序版本是包含传统 vSphere Client 的最后版本。未来的 VMware vSphere 主要版本中将只包括 vSphere Web Client。

    对于 vSphere 5.1,传统 vSphere Client 的缺陷修复限于安全问题或重大问题。重大缺陷是指定产品功能中的偏差,如果没有可实施的解决办法,则会导致数据损坏、数据丢失、系统崩溃或重大客户应用程序停机。

  • VMware Toolbox。vSphere 5.1 是支持 VMware Tools 图形用户界面(即 VMware Toolbox)的最新版本。VMware 将继续更新和支持 Toolbox 命令行界面 (CLI) 来执行所有 VMware Tools 功能。

  • VMI 准虚拟化。vSphere 4.1 是支持 VMI 客户机操作系统准虚拟化接口的最新版本。有关迁移启用了 VMI 的虚拟机以使虚拟机能够在以后发布的 vSphere 版本上运行的信息,请参见 知识库文章 1013842

  • Windows 客户机操作系统自定义。vSphere 5.1 是支持 Windows 2000 客户机操作系统自定义的最新版本。VMware 将继续支持 Windows 客户机更新版本的自定义。

  • VMCI 套接字。在 vSphere 5.1 版本中,客户机到客户机通信(虚拟机到虚拟机)已弃用。下一个主要版本中将移除此功能。VMware 将继续支持主机到客户机通信。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi510-Update02 包含以下各公告:

ESXi510-201401201-UG:更新 ESXi 5.1 esx-base vib
ESXi510-201401202-UG:更新 ESXi 5.1 tools-light vib
ESXi510-201401203-UG:更新 ESXi 5.1 net-tg3 vib
ESXi510-201401204-UG:更新 ESXi 5.1 net-e1000e vib
ESXi510-201401205-UG:更新 ESXi 5.1 scsi-rste vib
ESXi510-201401206-UG:更新 ESXi 5.1 scsi-mpt2sas vib
ESXi510-201401207-UG:更新 ESXi 5.1 sata-ata-piix vib
ESXi510-201401208-UG:更新 ESXi 5.1 sata-ahci vib


修补程序版本 ESXi510-Update01 Security-only 包含以下各公告:

ESXi510-201401101-SG:更新 ESXi 5.1 esx-base vib
ESXi510-201401102-SG:更新 ESXi 5.1 tools-light vib
ESXi510-201401103-SG:更新 ESXi 5.1 esx-xlibs vib

修补程序版本 ESXi510-Update02 包含下列映像配置文件:

ESXi-5.1.0-20140102001-standard
ESXi-5.1.0-20140102001-no-tools

修补程序版本 ESXi510-Update02 Security-only 包含以下映像配置文件:

ESXi-5.1.0-20140101001s-standard
ESXi-5.1.0-20140101001s-no-tools


有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

CIM 和 API

  • 由于 sfcbd 耗尽 inode,因此 ESXi 主机与 vCenter Server 之间的连接断开
    ESXi 主机与 vCenter Server 之间的连接断开,并且无法重新连接到 vCenter Server。此问题是由于硬件监控服务 (sfcdb) 在 /var/run/sfcb目录中填入的文件数量超出 5000 个所致。

    hostd.log文件(位于 /var/log/)指示主机存储空间不足:
    VmkCtl Locking (/etc/vmware/esx.conf) :Unable to create or open a LOCK file.Failed with reason:No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) :Unable to create or open a LOCK file.Failed with reason:No space left on device

    vmkernel.log文件(位于 /var/log)指示主机 inode 不足:
    cpu4:1969403)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    本版本已解决该问题。
  • CIM 提供程序显示的错误消息可能不正确
    CIM 提供程序可能显示不正确的错误消息,其类似下列内容:
    “在进程 5 中请求提供程序 429 时请求标头 Id (886262) 不等于响应标头 reqId (0)。删除响应 (Request Header Id (886262) != Response Header reqId (0) in request to provider 429 in process 5. Drop response)”。

    本版本已通过更新错误日志并重新启动 sfcbd 管理代理解决了该问题,从而显示类似下列内容的正确的错误消息:
    进程 0 中标头 Id (373) 请求提供程序 1 失败。错误: 超时 (或其他套接字错误) 等待提供程序的响应 (Header Id (373) Request to provider 1 in process 0 failed. Error:Timeout (or other socket error) waiting for response from provider)。
  • 硬件监控服务停止,[硬件状态] 选项卡仅显示一条错误消息
    [硬件状态] 选项卡无法显示健康状况,显示一条类似下列内容的错误消息:
    此主机上的硬件监控服务没有响应或不可用 (Hardware monitoring service on this host is not responding or not available)。

    硬件监控服务 (sfcdb) 停止, syslog文件包含类似下列内容的条目:

    sfcb-smx[xxxxxx]:spRcvMsg Receive message from 12 (return socket:6750210)
    sfcb-smx[xxxxxx]:--- spRcvMsg drop bogus request chunking 6 payLoadSize 19 chunkSize 0 from 12 resp 6750210
    sfcb-smx[xxxxxx]:spRecvReq returned error -1. Skipping message.
    sfcb-smx[xxxxxx]:spRcvMsg Receive message from 12 (return socket:4)
    sfcb-smx[xxxxxx]:--- spRcvMsg drop bogus request chunking 220 payLoadSize 116 chunkSize 104 from 12 resp 4
    ...
    ...
    sfcb-vmware_int[xxxxxx]:spGetMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]:rcvMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]:Timeout or other socket error


    本版本已解决该问题。
  • 在 ESXi 服务器上,WS-Management GetInstance () 操作可能会引发 wsa:DestinationUnreachable 故障
    在某些 ESXi 服务器上,针对 http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000的 WS-Management GetInstance ()操作可能会引发 wsa:DestinationUnreachable故障。对于在安装有智能平台管理界面 (IPMI) 底板管理控制器 (BMC) 传感器的系统上执行的 CIM gi/ei/ein操作, OMC_MCFirmwareIdentity对象路径不一致。因此,在 ESXi 服务器上, WS-Management GetInstance ()操作会引发 wsa:DestinationUnreachable故障。

    本版本已解决该问题。
  • vmkapimod 的 vmklinux_9:ipmi_thread 将 CPU 使用量显示为百分之百约一个小时
    在 ESXi 主机中,使用智能平台管理界面 (IPMI) 工具读取现场可更换单元 (FRU) 清单数据时, vmkapimod的 vmklinux_9:ipmi_thread会错误地将 CPU 使用量显示为百分之百。这是因为 IPMI 工具多次使用 Read FRU Data命令读取清单数据。

    本版本已解决该问题。
  • 无法监控 ESXi 主机的硬件状态
    如果在跟踪模式下启用 SFCBD 服务,并且该服务停止运行,则 ESXi 主机的 [硬件状态] 选项卡可能会报告错误。任何第三方工具都可能无法监控 ESXi 主机的硬件状态。

    本版本已解决该问题。
  • 在 ESXi 主机上,无法清除智能平台管理界面 (IPMI) 系统事件日志 (SEL)
    在群集环境中未清除主机 IPMI 系统事件日志。通过添加一个新的 CLI 支持以清除 IPMI SEL,解决了此问题。

    本版本已解决该问题。
  • LSI CIM 提供程序泄露文件描述符
    LSI CIM 提供程序(sfcb 进程之一)泄露文件描述符。这可能会导致 sfcb-hhrc 停止,以及 sfcbd 重新启动。syslog 文件可能会记录类似下列内容的消息:
    sfcb-LSIESG_SMIS13_HHR[ ]:Error opening socket pair for getProviderContext:Too many open files
    sfcb-LSIESG_SMIS13_HHR[ ]:Failed to set recv timeout (30) for socket -1. Errno = 9
    ...
    ...
    sfcb-hhrc[ ]:Timeout or other socket error
    sfcb-hhrc[ ]:TIMEOUT DOING SHARED SOCKET RECV RESULT ( )

    本版本已解决该问题。
  • 无法在 CIM 端口 5989 上禁用弱密码套件
    要为支付卡行业 (PCI) 设备禁用密码块链接 (CBC) 算法,您可能需要在 CIM 端口 5989上禁用弱密码套件。不允许执行此操作。 

    本版本已解决该问题。您可以通过使用以下命令更新 sfcb.cfg 中的配置来禁用弱密码套件:
    # vi /etc/sfcb/sfcb.cfg
    sslCipherList:HIGH:!DES-CBC3-SHA
    # /etc/init.d/sfcbd-watchdog restart
  • ESXi 主机出现故障,并显示 sfcb-CIMXML-Pro-zdump 错误
    如果在派生命令后 http处理的 sfcb 子进程错误地调用 atexit 和 exit 函数,则 ESXi 主机将会出现故障,并显示 sfcb-CIMXML-Pro-zdump错误。

    本版本已解决该问题。

其他

  • 在 Windows 7 或 Windows 8 虚拟机上启用 3D 支持时,一些 3D 应用程序会显示错位的几何体
    在 Windows 7 或 Windows 8 虚拟机上,如果选择 [启用 3D 支持] 选项,则一些 3D 应用程序将显示错位的几何体。

    本版本已解决该问题。
  • Netlogond 可能停止响应,ESXi 主机可能失去了 Active Directory 功能
    Netlogond 可能在含有多个无法访问的域控制器的 Active Directory 环境中消耗了大量内存。因此,Netlogond 可能会失败,而且 ESXi 主机可能会丢失 Active Directory 功能。

    本版本已解决该问题。
  • 特定 snmp OID 的 snmpwalk 命令失败
    运行 ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10的 snmpwalk命令时,将会显示类似下列内容的错误消息:

    ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10 的此 OID 处当前不存在此类实例 (No Such Instance currently exists at this OID for ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10)

    本版本已解决该问题。
  • 具有 vShield Endpoint 的 ESXi 主机上运行的 vSocket 驱动程序可能会锁死
    在具有 vShield Endpoint 的 ESXi 主机上运行的 Windows 虚拟机中,vSocket 驱动程序可能会锁死。将显示包含以下日志的蓝色诊断屏幕:
    esx-<host_name>-2013-07-01--09.54/vmfs/volumes/50477c5b-d5ad9a53-8e9c-047d7ba55d90/B15E030S/vmware.log:
    2013-06-27T20:44:05.812Z| vcpu-0| TOOLS installed legacy version 8384, available legacy version 8389
    2013-06-27T20:44:05.813Z| vcpu-0| Guest:toolbox:Version:build-515842
    ...
    2013-06-28T20:38:16.923Z| vcpu-1| Ethernet1 MAC Address:00:50:56:bf:73:52
    2013-06-28T20:38:16.923Z| vcpu-0| Ethernet0 MAC Address:00:50:56:bf:73:51
    2013-06-28T20:38:16.927Z| vcpu-1| Ethernet2 MAC Address:00:50:56:bf:73:53
    2013-06-28T20:39:16.930Z| vcpu-0| Guest:vfile:vf-AUDIT:VFileAuditSvmConnectivity :Lost connectivity to SVM, irpStatus:0xc0000001 ## disconnect SecureVM
    2013-06-28T20:41:06.185Z| vmx| GuestRpcSendTimedOut:message to toolbox timed out.
    2013-06-28T20:41:06.186Z| vmx| Vix:[4304191 guestCommands.c:2194]:Error VIX_E_TOOLS_NOT_RUNNING in VMAutomationTranslateGuestRpcError():VMware Tools are not running in the guest
    2013-06-28T20:48:28.341Z| mks| MKS disabling SVGA
    2013-06-28T20:48:34.346Z| mks| WinBSOD:(30) `Dumping physical memory to disk:30 '
    2013-06-28T20:48:43.349Z| mks| WinBSOD:(30) `Dumping physical memory to disk:35 '
    2013-06-28T20:48:52.353Z| mks| WinBSOD:(30) `Dumping physical memory to disk:40 '
    2013-06-28T20:49:01.357Z| mks| WinBSOD:(30) `Dumping physical memory to disk:45 '
    2013-06-28T20:49:09.360Z| mks| WinBSOD:(30) `Dumping physical memory to disk:50 '
    2013-06-28T20:49:19.366Z| mks| WinBSOD:(30) `Dumping physical memory to disk:70 '
    2013-06-28T20:49:28.368Z| mks| WinBSOD:(30) `Dumping physical memory to disk:80

    本版本已解决该问题。
  • 无法回滚 vShield 和其他组件
    取消安装时,vShield 和其他组件可能不会回滚。

    本版本已解决该问题。
  • 执行 SVGA 代码过程中,虚拟机由于信号 11 错误而无法响应
    在 svga2_map_surface 中执行 SVGA 代码过程中,虚拟机由于信号 11 错误而无法响应。

    本版本已解决该问题。
  • ESXi 主机出现故障,因为 /tmp 文件夹中存在数千个 0 字节的 .png 文件未清除
    ESXi 主机出现故障,因为 /tmp文件夹中存在数千个 0 字节的 .png文件未清除。出现此情况是由于映像实用程序功能无法清除 vCloud Director 中的 tempFileName 文件。从 temp文件夹中删除当前 .png文件可解决此问题。

    本版本已解决该问题。
  • Hostd 可能会停止响应并生成 hostd-worker 转储
    如果在移除硬盘驱动器后尝试检索主机上的最新信息,则 ESXi 5.1 主机可能会停止响应并生成 hostd-worker转储。

    本版本已解决该问题。
  • 无法在远程挂载的 vSphere Storage Appliance 数据存储上创建虚拟机
    如果 ESXi 主机在远程挂载的 VSA 数据存储上创建虚拟机,则可能会停止响应。这是由于 VSA NAS 插件未正确处理网络错误所致。

    由于通信错误且基础功能返回空指针至 VSA NSA 插件,因此会出现该问题。

    本版本已解决该问题。
  • 在目标重置期间,虚拟机的 lsilogic 将等待所有目标中的命令
    lsilogic 虚拟适配器执行目标重置时,将等待适配器上所有目标中正在进行的命令。这会导致目标重置阻止虚拟机,以便获得比所需更长的时间。

    本版本已解决该问题。

网络连接

  • 在分布式端口组上启用 NetFlow 监控后,多个 ESXi 5.1 主机可能会间歇性地停止响应
    如果在分布式端口组上启用 NetFlow 监控,则 Internet 协议流信息导出 (IPFIX) 功能用于监控交换机流量。哈希表中有带有相同密钥的记录共存时,IPFIX 筛选函数中可能出现争用情况,这会导致 ESXi 主机停止响应,回溯追踪信息类似以下内容:

    cpu8:42450)Panic:766: Panic from another CPU (cpu 8, world 42450):ip=0x41801d47b266:
    #GP Exception 13 in world 42450:vmm0:Datacen @ 0x41801d4b7aaf
    cpu8:42450)Backtrace for current CPU #8, worldID=42450, ebp=0x41221749b390
    cpu8:42450)0x41221749b390:[0x41801d4b7aaf]vmk_SPLock@vmkernel#nover+0x12 stack:0x41221749b3f0, 0xe00000000000
    cpu8:42450)0x41221749b4a0:[0x41801db01409]IpfixFilterPacket@ # +0x7e8 stack:0x4100102205c0, 0x1, 0x
    cpu8:42450)0x41221749b4e0:[0x41801db01f36]IpfixFilter@ # +0x41 stack:0x41801db01458, 0x4100101a2e58

    本版本已解决该问题。
  • ESXi 主机重新启动后,USB 控制器作为 DirectPath I/O 直通设备的配置丢失
    如果添加 USB 控制器作为通过 DirectPath 配置的虚拟机的直通设备,并且如果运行虚拟机的主机重新启动,则 USB 控制器的直通状态会丢失,而且不可再用于直接访问虚拟机。

    本版本已解决该问题。
  • 在带有 64 路虚拟 CPU (VCPU) 的 Windows Server 2012 中,VMXNET 3 适配器可能无法加载
    在带有 64 路虚拟 CPU (VCPU) 的 Windows Server 2012 中,VMXNET 3 适配器在重新引导后可能无法加载。

    本版本已解决该问题。

  • tcpdump-uw 实用程序只能捕获小于 8138 个字节的数据包
    与 ESXi 捆绑在一起的 tcpdump-uw 帧捕获实用程序只能捕获小于 8138 个字节的数据包。 出现此问题是由于在 VMware 的 tcpdump-uw 实施中,套接字缓冲区大小设置为 8 KB。套接字缓冲区设置为 8192 个字节,控制数据需要约 54 个字节,因此最多可以捕获 8138 个字节。

    为解决该问题,默认缓冲区大小已增加到 64 KB。
  • 将 ESXi 从 5.0 升级到 5.1 后,非 Vmk0 管理网络接口卡默认为 Vmk0
    如果在 ESXi 5.0 上使用非 vmk0 vmknic 作为管理接口,然后从 ESXi 5.0 升级到 ESXi 5.1,则管理接口默认为重新引导后创建的第一个 vmknic,即 vmk0。这是错误的。

    本版本已解决该问题。
  • 在同一 ESXi 主机和 vSwitch 上两个虚拟机之间,在 esxtop 中错报网络数据包丢失
    如果通过主机上同一 vSwitch 上的 e1000 驱动程序配置两个虚拟机,在 esxtop 中可能会报告这两个虚拟机之间的网络流量出现重大数据包丢失。这是因为在报告过程中,您从客户机启用 TSO 时未解释拆分数据包。

    本版本已解决该问题。
  • Linux 命令 ip link 或 ip addr 可能将 VMXNET3 适配器的链路状态显示为 Unknown 而非 Up
    在客户机操作系统上创建 VMXNET3 适配器时,Linux 命令 ip link 或 ip addr 可能将链路状态显示为 Unknown 而非 Up。当适配器的默认链路状态设置为 carrier ok 模式,从而不更新操作状态时,会出现此问题。

    本版本已通过将适配器的默认链路状态设置为 no carrier 模式解决了该问题。
  • 使用 Solaris 10 客户机操作系统和 VMXNET3 驱动程序的虚拟机在控制台上显示的日志消息过于零碎
    在 Solaris 10 虚拟机上安装 VMware Tools 并在客户机操作系统上创建 VMXNET3 设备后,虚拟机控制台上会显示类似以下内容的日志消息:
    Apr 3 22:44:54 daxa020z last message repeated 274 times Apr 3 22:45:00 daxa020z vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    Apr 3 22:51:35 daxa020z last message repeated 399 times
    Apr 3 22:51:40 daxa020z vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    Apr 3 22:58:12 daxa020z last message repeated 398 times
    Apr 3 22:58:20 daxa020z vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    Apr 3 23:04:53 daxa020z last message repeated 393 times
    Apr 3 23:05:00 daxa020z vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)

    本版本已解决该问题。
  • 获取 VMXNET3 网卡的永久 MAC 地址可能失败
    当使用 ETHTOOL_GPERMADDR ioctl 获取 VMXNET3 网卡的永久 MAC 地址时,如果 Linux 内核版本在 2.6.13 与 2.6.23 之间,则获取不到任何结果。如果 Linux 内核版本高于 2.6.23,则返回的 MAC 地址包含的都是零。

    本版本已解决该问题。
  • 包含使用 E1000 或 E1000e 虚拟适配器的虚拟机的 ESXi 5.x 主机会出现故障,并显示紫色诊断屏幕
    如果 rx 环缓冲区已填满并且最大 Rx 环设置为大于 2,ESXi 主机会遇到紫色诊断屏幕,并显示 E1000PollRxRing 和 E1000DevRx 错误。第二个环处理的收到的下一个 Rx 数据包为空,导致出现处理错误。

    紫色诊断屏幕或回溯追踪包含类似以下内容的条目:

    @BlueScreen:#PF Exception 14 in world 63406:vmast.63405 IP 0x41801cd9c266 addr 0x0
    PTEs:0x8442d5027;0x383f35027;0x0;
    Code start:0x41801cc00000 VMK uptime:1:08:27:56.829
    0x41229eb9b590:[0x41801cd9c266]E1000PollRxRing@vmkernel#nover+0xdb9 stack:0x410015264580
    0x41229eb9b600:[0x41801cd9fc73]E1000DevRx@vmkernel#nover+0x18a stack:0x41229eb9b630
    0x41229eb9b6a0:[0x41801cd3ced0]IOChain_Resume@vmkernel#nover+0x247 stack:0x41229eb9b6e0
    0x41229eb9b6f0:[0x41801cd2c0e4]PortOutput@vmkernel#nover+0xe3 stack:0x410012375940
    0x41229eb9b750:[0x41801d1e476f]EtherswitchForwardLeafPortsQuick@ # +0xd6 stack:0x31200f9
    0x41229eb9b950:[0x41801d1e5fd8]EtherswitchPortDispatch@ # +0x13bb stack:0x412200000015
    0x41229eb9b9c0:[0x41801cd2b2c7]Port_InputResume@vmkernel#nover+0x146 stack:0x412445c34cc0
    0x41229eb9ba10:[0x41801cd2ca42]Port_Input_Committed@vmkernel#nover+0x29 stack:0x41001203aa01
    0x41229eb9ba70:[0x41801cd99a05]E1000DevAsyncTx@vmkernel#nover+0x190 stack:0x41229eb9bab0
    0x41229eb9bae0:[0x41801cd51813]NetWorldletPerVMCB@vmkernel#nover+0xae stack:0x2
    0x41229eb9bc60:[0x41801cd0b21b]WorldletProcessQueue@vmkernel#nover+0x486 stack:0x41229eb9bd10
    0x41229eb9bca0:[0x41801cd0b895]WorldletBHHandler@vmkernel#nover+0x60 stack:0x10041229eb9bd20
    0x41229eb9bd20:[0x41801cc2083a]BH_Check@vmkernel#nover+0x185 stack:0x41229eb9be20
    0x41229eb9be20:[0x41801cdbc9bc]CpuSchedIdleLoopInt@vmkernel#nover+0x13b stack:0x29eb9bfa0
    0x41229eb9bf10:[0x41801cdc4c1f]CpuSchedDispatch@vmkernel#nover+0xabe stack:0x0
    0x41229eb9bf80:[0x41801cdc5f4f]CpuSchedWait@vmkernel#nover+0x242 stack:0x412200000000
    0x41229eb9bfa0:[0x41801cdc659e]CpuSched_Wait@vmkernel#nover+0x1d stack:0x41229eb9bff0
    0x41229eb9bff0:[0x41801ccb1a3a]VmAssistantProcessTask@vmkernel#nover+0x445 stack:0x0
    0x41229eb9bff8:[0x0] stack:0x0

    本版本已解决该问题。
  • 使用 e1000 网卡的虚拟机在处于挂起模式时可能会出现故障
    当使用 e1000 网卡驱动程序的客户机操作系统处于挂起模式时,虚拟机可能会出现故障,并在 vmware.log文件中显示类似以下内容的错误消息:

    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120:Msg_Post:Error
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1)
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120+ Unexpected signal:11

    使用 IP 别名并且 IP 地址数超出 10 个的虚拟机会出现此问题。

    本版本已解决该问题。
  • 在多个 vmkernel 端口上启用管理流量时,DCUI 上显示的 IP 地址在重置后会更改
    如果在管理网络中的多个 vmkernel 端口上启用管理流量,则每次重置该管理网络后,直接控制台用户界面 (DCUI) 上显示的 IP 地址都会更改。

    本版本已解决该问题。
  • ESXi 主机显示紫色诊断屏幕和以下错误:#PF Exception 14 in world 10669:vmm1:TREND_M IP
    包含 DvFilter模块的 ESXi 主机可能显示紫色诊断屏幕。将显示类似以下内容的回溯追踪:

    2013-07-18T06:41:39.699Z cpu12:10669)0x412266b5bbe8:[0x41800d50b532]DVFilterDispatchMessage@com.vmware.vmkapi#v2_1_0_0+0x92d stack:0x10
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bc68:[0x41800d505521]DVFilterCommBHDispatch@com.vmware.vmkapi#v2_1_0_0+0x394 stack:0x100
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bce8:[0x41800cc2083a]BH_Check@vmkernel#nover+0x185 stack:0x412266b5bde8, 0x412266b5bd88,

    本版本已解决该问题。
  • 未从数据存储上的 .dvsData 目录中清除未用的 vSphere Distributed Switch (VDS) 端口
    在对通过虚拟网卡连接到 VDS 的虚拟机进行 vMotion 的过程中,即使在一段时间后也未在 .dvsData目录中清除 vMotion 源主机中的端口文件。

    本版本已解决该问题。
  • Intel e1000e 网络接口启动程序可能停止响应收到的 (RX) 流量。
    Intel e1000e 网络接口启动程序可能停止响应收到的 (RX) 流量。

    本版本已解决该问题。

  • 由于两个 DVFilter 进程之间存在冲突,ESXi 主机可能出现故障并显示紫色诊断屏幕
    如果两个 DVF 筛选进程尝试同时管理一个配置变量,当一个进程释放筛选配置,而另一个进程尝试将其锁定时,将导致 ESXi 主机出现故障。

    本版本已解决该问题。
  • vCenter 性能图表中 net.throughput.usage 的返回值与 vmkernel 矛盾
    在 vCenter 性能图表中, net.throughput.usage的相关值以千字节为单位,而 vmkernel 中返回的相同值以字节为单位。这导致 vCenter 性能图表中值的表示不正确。

    本版本已解决该问题。
  • L2Echo 功能无法处理网络流量时,ESXi 主机可能会停止响应
    网络健康检查功能处于启用状态时,L2Echo 功能可能无法处理高网络流量,并且 ESXi 主机可能会停止响应,并显示紫色诊断屏幕以及类似以下内容的回溯追踪:

    cpu4:8196)@BlueScreen:PCPU 1:no heartbeat (2/2 IPIs received)
    cpu4:8196)Code start:0x418024600000 VMK uptime:44:20:54:02.516
    cpu4:8196)Saved backtrace from:pcpu 1 Heartbeat NMI
    cpu4:8196)0x41220781b480:[0x41802468ded2]SP_WaitLockIRQ@vmkernel#nover+0x199 stack:0x3b
    cpu4:8196)0x41220781b4a0:[0x4180247f0253]Sched_TreeLockMemAdmit@vmkernel#nover+0x5e stack:0x20
    cpu4:8196)0x41220781b4c0:[0x4180247d0100]MemSched_ConsumeManagedKernelMemory@vmkernel#nover+0x1b stack:0x0
    cpu4:8196)0x41220781b500:[0x418024806ac5]SchedKmem_Alloc@vmkernel#nover+0x40 stack:0x41220781b690
    ...
    cpu4:8196)0x41220781bbb0:[0x4180247a0b13]vmk_PortOutput@vmkernel#nover+0x4a stack:0x100
    cpu4:8196)0x41220781bc20:[0x418024c65fb2]L2EchoSendPkt@com.vmware.net.healthchk#1.0.0.0+0x85 stack:0x4100000
    cpu4:8196)0x41220781bcf0:[0x418024c6648e]L2EchoSendPort@com.vmware.net.healthchk#1.0.0.0+0x4b1 stack:0x0
    cpu4:8196)0x41220781bfa0:[0x418024c685d9]L2EchoRxWorldFn@com.vmware.net.healthchk#1.0.0.0+0x7f8 stack:0x4122
    cpu4:8196)0x41220781bff0:[0x4180246b6c8f]vmkWorldFunc@vmkernel#nover+0x52 stack:0x0

    本版本已解决该问题。
  • 虚拟机中启用了接收方调整 (RSS) 时,VMXNET3 将频繁重置
    在虚拟机中启用了接收方调整 (RSS) 时,VMXNET3 网络驱动程序将频繁重置,导致虚拟机在短时间内丢失网络连接。

    本版本已解决该问题。本版本中已更新 VMXNET3 网络驱动程序。

安全

  • 更新 OpenSSL 库解决了多个安全问题
    ESXi userworld OpenSSL 库已更新到版本 openssl-0.9.8y,可解决多个安全问题。

    常见漏洞与暴露方案 (cve.mitre.org) 分配的名称为 CVE-2013-0169CVE-2013-0166
  • 更新 libxml2 库解决了多个安全问题
    ESXi userworld libxml2 库已更新,可解决一个安全问题。

    常见漏洞与暴露方案 (cve.mitre.org) 分配给此问题的名称为 CVE-2013-0338
  • 更新到 X.Org 组件
    ESXi X Window 系统客户端库已更新。

服务器配置

  • NetApp 请求更新 SATP 声明规则,此规则可防止 iSCSI 进入无响应状态NetApp 请求更新 SATP 声明规则,此规则可防止逻辑单元号 (LUN) 发生预留冲突。更新后的 SATP 声明规则可使用重置选项清除 LUN 中的预留,并允许其他用户设置预留选项。

    本版本已解决该问题。
  • 从存储区域网络引导时,可能需要较长时间才能发现引导设备,具体视网络带宽而定当您从 SAN 引导时,可能需要更长时间才能完成引导设备发现进程。如果在引导进程之前向 ESX 命令行传递一个重新扫描超时参数,则用户可以配置超时值,从而使该问题得到解决。

    本版本已解决该问题。
  • 在移除多个 NFS 数据存储时尝试应用主机配置文件可能会失败
    尝试移除多个使用 [主机配置文件] 选项的 NFS 数据存储时,会出现错误,原因是可能有数据存储已被删除。

    本版本已解决该问题。
  • 应用主机时,vSwitch 故障切换和故障恢复顺序设置未复制到主机
    将主机配置文件附加到主机后,故障切换和故障恢复顺序等从引用主机中提取的 vSwitch 属性未应用到主机。

    本版本已解决该问题。
  • 对于 hostd.log 文件中的 ha-eventmgr,ESXi 主机报告的登录时间错误
    ESXi 主机可能会将 root 的最后登录时间错误地显示为 1970 年,此信息是针对 ESXi 主机的 Web 客户端上的 ha-eventmgr显示的。在本版本中,使用系统时间计算登录时间,从而解决了该问题。

    本版本已解决该问题。
  • 尝试升级 ESXi 主机时,在引导设备上找不到 state.tgz 备份文件
    尝试使用 ISO 映像升级 ESXi 主机时,您可能在引导设备上找不到 state.tgz 备份文件。

    如果由于升级前未正常关闭计算机而导致 state.tgz 备份文件未更新,则会出现此问题。因此,重置 ESX 许可证时将显示 无此类文件 (No such a file) 异常错误。

    本版本已解决该问题。

  • 将网络故障切换设置更改为信标探测时,ESXi 主机会出现故障,并显示主机配置文件错误
    将主机配置文件应用到 ESX 主机时,如果您尝试将网络故障切换检测更改为信标探测,则 ESXi 主机会出现故障,并显示类似以下内容的错误消息:
    关联的主机配置文件包含无法应用到主机的网卡故障标准设置 (Associated host profile contains NIC failure criteria settings that cannot be applied to the host)

    本版本已解决该问题。
  • 无状态缓存未在本地更新缓存的主机配置文件
    如果已在 ESXi 5.1 主机上启用无状态缓存,并在执行任何配置更改后在缓存映像上重新应用主机配置文件,则不会应用新设置的主机配置文件配置。

    本版本已解决该问题。

  • 将 ESXi 5.0.x 升级到 ESXi 5.1.x 后,主机会丢失 NAS 数据存储及其他配置
    使用 vCenter Update Manager 将 ESX 5.0.x 升级到 ESX 5.1.x 后,ESX 主机会丢失包含字符串 Symantec 的 NAS 数据存储条目。在本版本中,脚本已修改以在升级过程中移除配置文件中的不必要条目,从而解决了此问题。

    本版本已解决该问题。
  • ESXi 主机的 bandwidthCap 选项在客户机操作系统上可能不起作用
    在 ESXi 主机上,如果同时设置 bandwidthCap 和 throughputcap,则 I/O 限制选项在虚拟机上可能不起作用。出现这种情况是因为设置 SCSI 调度程序中的限制选项时逻辑比较出错。

    本版本已解决该问题。
  • 通过 SNMP 查询 ESXi 主机时,主机会报告 CPU 负载平均值错误
    对 ESXi 主机执行 SNMP 查询以获得 CPU 负载平均值时,会计算整个生命期 CPU 负载的 hrProcessorLoad,而不是计算前一分钟的 hrProcessorLoad。这会导致主机报告错误的 CPU 负载平均值。
    本版本已解决该问题。
  • ESXi 主机显示的 resourceCpuAllocMax 系统计数器的值错误
    当您尝试检索主机系统的 resourceCpuAllocMax 和 resourceMemAllocMax 系统计数器的值时,ESXi 主机返回的值错误。在连接到 vCenter Server 的 vSphere Client 上会出现此问题。

    本版本已解决该问题
  • ESXi 主机配置文件会报告合规性故障,并指出选项 Annotaitons.WelcomeMessage 不匹配 x 标准错误消息
    每次在 Annotations.WelcomeMessage 中添加文本,创建 ESXi 主机配置文件并将同一主机配置文件应用到其他主机时,其他主机都会报告类似以下内容的错误消息:
    选项 Annotaitons.WelcomeMessage 不匹配指定的标准 (Option Annotaitons.WelcomeMessage does not match the specified Criteria)
    本版本已解决该问题。
  • ESXi 主机的 bandwidthCap 选项在客户机操作系统上可能不起作用
    在 ESXi 主机上,如果同时设置 bandwidthCap 和 throughputcap,则 I/O 限制选项在虚拟机上可能不起作用。出现这种情况是因为设置 SCSI 调度程序中的限制选项时逻辑比较出错。

    本版本已解决该问题。
  • 在 vCenter Server 中添加 ESXi 服务器时,可能有多个 ESXi 主机停止响应
    尝试将 ESXi 服务器添加到 vCenter Server 中时,可能有多个 ESXi 服务器停止响应,并显示类似以下内容的错误消息:

    无法访问指定主机,该主机不存在,服务器软件无响应,或者存在网络问题 (Unable to access the specified host, either it doesn't exist, the server software is not responding, or there is a network problem)。

    当向 hostd 发送大量 HTTP URL 请求而 hostd 服务失败时,会出现此问题。

    本版本已解决该问题。

  • 解码 MC5 状态的 ESX 主机可能错误
    如果 ESXi 主机出现故障并显示紫色屏幕,则内存控制器错误消息可能被错报为 TLB 错误
    如果 ESXi 主机出现故障并显示紫色屏幕,则内存控制器错误消息可能被错报为转换旁视缓冲区 (TLB) 错误消息:2 级 TLB 错误 (Level 2 TLB Error)。

    本版本已解决该问题
  • 在已加入 Active Directory 域的 ESXi 主机上,无法从 VI Client 向 Active Directory 用户或组添加权限
    您可能无法向 AD 用户或组添加权限,因为在 [域] 下拉菜单中没有可供选择的域名。


    本版本已解决该问题。
  • 如果已在服务器上启用 SNMP 并安装第三方 CIM 提供程序,则在主机上无法接收 SNMP 陷阱
    在已在服务器上启用 SNMP 并安装第三方 CIM 提供程序的 ESXi 主机中,如果监控的硬件状态发生更改,您可能无法接收 SNMP 陷阱。syslog 中将记录类似以下内容的消息:

    2013-07-11T05:24:39Z snmpd:to_sr_type:unable to convert varbind type '71'
    2013-07-11T05:24:39Z snmpd:convert_value:unknown SR type value 0
    2013-07-11T05:24:39Z snmpd:parse_varbind:invalid varbind with type 0 and value:'2'
    2013-07-11T05:24:39Z snmpd:forward_notifications:parse file '/var/spool/snmp/1373520279_6_1_3582.trp' failed, ignored

    本版本已解决该问题。
  • 从 vCenter Server 进行的群集范围的存储重新扫描导致 ESXi 主机和虚拟机无响应
    通常在共享多个 VMFS 数据存储的 ESXi 群集环境中,您执行某些直接或间接涉及虚拟机文件系统 (VMFS) 的操作时,可能会遇到以下问题:
    • ESXi 主机间歇性地停止响应
    • ESXi 主机与 vCenter Server 断开连接
    • 虚拟机间歇性地停止响应
    • 属于 Microsoft 群集服务 (MSCS) 的虚拟机停止响应,导致故障切换
    • 在 Site Recovery Manager (SRM) 数据恢复和故障切换测试期间出现主机通信错误

  • 无法获取 IPMI 传感器数据
    定期运行 run exscli hardware ipmi sdr list 命令时,IPMI 数据存储库可能会停止运行。

     

    本版本已解决该问题。

  • TCP、SSL 远程日志记录在网络中断后不会自动重新启动
    与远程日志服务器的网络连接中断然后恢复后,配置采用 TCP/SSL 远程 syslog 的 VMware ESXi 5.x 主机停止向远程日志服务器发送 syslog。

    此问题已通过添加 默认网络重试超时得到解决,主机在 默认网络重试超时后会重新尝试发送 syslog。 默认网络重试超时的默认值为 180 秒。可以使用 esxcli system syslog config set --default-timeout=命令更改默认值。

    本版本已解决该问题。
  • 无法访问 VMFS 数据存储或某些文件
    您可能会发现 vCenter Server 的 [数据存储] 选项卡中缺少虚拟机文件系统 (VMFS) 数据存储,或在 [事件] 选项卡中显示类似以下内容的事件:
    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 或在卷 [[Image:prio1.png]] ({2}) 上至少检测到一处损坏的磁盘锁定。该卷的其他区域可能也被损坏 (XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX or At least one corrupt on-disk lock was detected on volume [[Image:prio1.png]] ({2}). Other regions of the volume might be damaged too)。

    在 vmkernel.log中记录以下消息:

    [lockAddr 36149248] Invalid state:Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING:DLX:908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk.Corrupt lock detected at offset 2279800:[type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$
    You might also see the following message logged in the vmkernel.log:
    2013-07-24T05:00:43.171Z cpu13:11547)WARNING:Vol3:ValidateFS:2267:XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7:Non-zero generation of VMFS3 volume:1

    本版本已解决该问题。
  • ESXi 主机停止响应,并显示紫色诊断屏幕和“PCPU XX 没有检测信号 (PCPU XX didn't have a heartbeat)”错误
    ESXi 主机可能会在进行 vMotion 期间无响应,并显示跟踪,如下所示:
     
    2013-07-18T17:55:06.693Z cpu24:694725)0x4122e7147330:[0x418039b5d12e]Migrate_NiceAllocPage@esx#nover+0x75 stack:0x4122e7147350
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e71473d0:[0x418039b5f673]Migrate_HeapCreate@esx#nover+0x1ba stack:0x4122e714742c
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e7147460:[0x418039b5a7ef]MigrateInfo_Alloc@esx#nover+0x156 stack:0x4122e71474f0
    2013-07-18T17:55:06.695Z cpu24:694725)0x4122e7147560:[0x418039b5df17]Migrate_InitMigration@esx#nover+0x1c2 stack:0xe845962100000001
    ...
    2013-07-18T17:55:07.714Z cpu25:694288)WARNING:Heartbeat:646: PCPU 27 didn't have a heartbeat for 7 seconds; *may* be locked up.
    2013-07-18T17:55:07.714Z cpu27:694729)ALERT:NMI:1944: 已收到 NMI IPI。Was eip(base):ebp:cs

    在内存过载的主机上运行 vMotion 时会出现此问题。

    本版本已解决该问题。
  • DevFSFileClose 函数中的 fdshandle 设置为空后,ESXi 主机会出现故障,并显示紫色诊断屏幕
    如果 fdshandle 设置为空并且两个函数 DevFSFileClose和 DevFSFileResetCommand同时尝试更改 fdshandle 值,则 ESXi 主机可能会出现故障,并显示紫色诊断屏幕。

    本版本已解决该问题。
  • 在 BIOS 模式下启用 TXT 功能后,ESXi Server 无法引导
    如果您在 ESXi 主机的系统 BIOS(版本 1.41)中启用 TPM/TXT,则 Tboot 和 ESXi 主机可能都无法引导。在 IBM 3650 M4 服务器上会出现此问题。

    本版本已解决该问题。
  • 在 SCSIPathTimeoutHandlerFn 处理 ScsiMidlayerFrame 时,ESXi 主机出现故障并显示紫色诊断屏幕
    如果您将定时器设置为在通过 SCSI 功能中的 vmkCmd选项初始化 ScsiMidlayerFrame之前,则 ESXi 主机可能会出现故障,并显示紫色诊断屏幕,而且可能显示类似以下内容的错误消息:
    PF14 in world 3045899:PathTaskmgmt IP 0x418003489e86 addr 0x48

    本版本已解决该问题。
  • 如果未配置核心转储分区和核心转储收集器服务,则 ESXi 主机无法报告配置问题
    如果未配置核心转储分区和核心转储收集器服务,则 ESXi 主机无法报告配置问题。将高级配置选项 UserVars.SuppressCoredumpWarningfollowing设置为 1 时,可以阻止在 VI Client 中出现此配置问题。

    本版本已解决该问题。
  • 在目标主机上通过首选路径设置应用主机配置文件失败,并显示“路径值无效 (Invalid Path Value)”错误
    通过 PSP 配置 Host1,将其设置为固定并配置首选路径,然后从 Host1 提取配置文件并将配置文件应用到 Host2。在对 Host2 配置文件进行初始检查的过程中,主机配置文件插件模块可能会遇到路径值无效 (Invalid Path Value) 错误,并且报告的路径值无效。

    本版本已解决该问题。

存储器

  • 从客户机操作系统发送的 Request Sense 命令未返回任何数据
    在物理模式下从客户机操作系统向裸设备映射 (RDM) 发送 SCSI Request Sense命令时,返回的感知数据有时为空(被置零)。从 ESXi 主机发送该命令时不会出现该问题。

    本版本已解决该问题。
  • 克隆并冷迁移含有大型 VMDK 文件和快照文件的虚拟机可能会失败
    您可能无法克隆含有大型虚拟机磁盘 (VMDK) 文件和快照文件的虚拟机并将其冷迁移到其他数据存储。当 vpxa 进程在冷迁移过程中超出内存分配限值时会出现该问题。因此,ESXi 主机会断开与 vCenter Server 的连接,并且迁移失败。

    本版本已解决该问题。
  • 如果 VMKlinux 错误地设置了设备状态,则 VMkernel 日志文件中可能会显示错误的“Device Busy (D:0x8)”状态消息
    如果 VMKlinux 错误地设置了设备状态,则 VMkernel 日志文件中将显示类似以下内容的错误的“Device Busy (D:0x8)”状态消息:

    2013-04-04T17:56:47.668Z cpu0:4012)ScsiDeviceIO:SCSICompleteDeviceCommand:2311:Cmd(0x412441541f80) 0x16, CmdSN 0x1c9f from world 0 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x0 D:0x8 P:0x0 Possible sense data:0x0 0x0 0x0

    这将生成无效警报,因为存储阵列不会针对 SCSI 命令发送任何“Device Busy”状态消息。
    本版本已针对设备驱动程序的问题正确地指出“主机总线忙 (H:0x2)”状态消息,解决了该问题,所显示的状态消息类似以下内容:

    2013-04-04T13:16:27.300Z cpu12:4008)ScsiDeviceIO:SCSICompleteDeviceCommand:2311:Cmd(0x4124819c2f00) 0x2a, CmdSN 0xfffffa80043a2350 from world 4697 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x2 D:0x0 P:0x0 Possible sense data:0x0 0x0 0x0

    本版本已解决该问题。
  • 在 VMFS 数据存储创建过程中,vCenter Server 或 vSphere Client 可能会与 ESXi 主机断开连接
    在 VMFS 数据存储创建过程中,vCenter Server 或 vSphere Client 可能会与 ESXi 主机断开连接。

    当 hostd 失败时会出现该问题,并会在 hostd 日志中显示类似下列内容的错误消息:
    Panic:断言失败:"matchingPart != __null".

    在特定分区配置要求分区对齐的磁盘上创建 VMFS 数据存储的过程中,hostd 失败。
  • 当 NFS 数据存储的已置备空间值计算错误时,可能会生成无效警报
    在某些情况下,NFS 数据存储的已置备空间值可能会计算错误,这可能会生成无效警报。

    本版本已解决该问题。
  • 永久设备丢失后无法使数据存储恢复联机
    永久设备丢失 (PDL) 后,由于卷上一些打开的文件正在进行处理,数据存储无法恢复联机。

    本版本已解决该问题。
  • 在 ESXi 引导过程中加载 nfsclient 模块会导致其他模块加载失败
    在 ESXi 引导过程中,如果网络文件系统 (NFS) 挂载点的主机名解析中出现延迟,则加载 nfsclient 模块可能会长时间锁定 esx.conf 文件。这可能导致其他模块加载失败,如迁移、ipmi 或其他。

    本版本已解决该问题。
  • 无法访问 VMFS 数据存储或某些文件
    您可能会发现 vCenter Server 的 [数据存储] 选项卡中缺少虚拟机文件系统 (VMFS) 数据存储,或在 [事件] 选项卡中显示类似以下内容的事件:

    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 或在卷 {1} ({2}) 上至少检测到一处损坏的磁盘锁定。该卷的其他区域可能也被损坏 (XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX or At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too)。

    以下日志消息将显示在 vmkernel 日志中:

    [lockAddr 36149248] Invalid state:Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING:DLX:908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk.Corrupt lock detected at offset 2279800:[type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$

    可能还会出现在 vmkernel.log 中记录的以下消息:

    2013-07-24T05:00:43.171Z cpu13:11547)WARNING:Vol3:ValidateFS:2267:XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7:Non-zero generation of VMFS3 volume:1

    本版本已解决该问题。
  • ESXi 5.1 主机可能会出现故障,并显示紫色诊断屏幕以及与 DevFSFileClose 功能相关的错误消息
    多个线程尝试同时关闭同一个设备时,ESXi 5.1 主机可能会出现故障,并显示紫色诊断屏幕和类似下列内容的回溯追踪:
    cpu1:16423)@BlueScreen:#PF Exception 14 in world 16423:helper1-0 IP 0x41801ac50e3e addr 0x18PTEs:0x0;
    cpu1:16423)Code start:0x41801aa00000 VMK uptime:0:09:28:51.434
    cpu1:16423)0x4122009dbd70:[0x41801ac50e3e]FDS_CloseDevice@vmkernel#nover+0x9 stack:0x4122009dbdd0
    cpu1:16423)0x4122009dbdd0:[0x41801ac497b4]DevFSFileClose@vmkernel#nover+0xf7 stack:0x41000ff3ca98
    cpu1:16423)0x4122009dbe20:[0x41801ac2f701]FSS2CloseFile@vmkernel#nover+0x130 stack:0x4122009dbe80
    cpu1:16423)0x4122009dbe50:[0x41801ac2f829]FSS2_CloseFile@vmkernel#nover+0xe0 stack:0x41000fe9a5f0
    cpu1:16423)0x4122009dbe80:[0x41801ac2f89e]FSS_CloseFile@vmkernel#nover+0x31 stack:0x1
    cpu1:16423)0x4122009dbec0:[0x41801b22d148]CBT_RemoveDev@ # +0x83 stack:0x41000ff3ca60
    cpu1:16423)0x4122009dbef0:[0x41801ac51a24]FDS_RemoveDev@vmkernel#nover+0xdb stack:0x4122009dbf60
    cpu1:16423)0x4122009dbf40:[0x41801ac4a188]DevFSUnlinkObj@vmkernel#nover+0xdf stack:0x0
    cpu1:16423)0x4122009dbf60:[0x41801ac4a2ee]DevFSHelperUnlink@vmkernel#nover+0x51 stack:0xfffffffffffffff1
    cpu1:16423)0x4122009dbff0:[0x41801aa48418]helpFunc@vmkernel#nover+0x517 stack:0x0
    cpu1:16423)0x4122009dbff8:[0x0] stack:0x0
    cpu1:16423)base fs=0x0 gs=0x418040400000 Kgs=0x0
    cpu1:16423)vmkernel 0x0 .data 0x0 .bss 0x0
    cpu1:16423)chardevs 0x41801ae70000 .data 0x417fc0000000 .bss 0x417fc00008a0

    本版本已解决该问题。
  • 处理 FCP_RSP_INFO 时,fc_fcp_resp 功能中的逻辑单元号重置失败
    在对 NetApp 目标的 LUN RESET 测试中,LUN RESET 失败。fc_fcp_resp() 未完成 LUN RESET 任务,因为 fc_fcp_resp 假设 FCP_RSP_INFO 是一个包含 8 个字节且其中有 4 个字节预留的字段,而在 NetApp 目标的情况下,针对 LUN RESET 的 FCP_RSP 仅包含 4 个字节的 FCP_RSP_INFO。这导致 fc_fcp_resp 出错,从而无法完成任务,最终导致 LUN RESET 失败。

    本版本已解决该问题
  • ESXi 用户无法禁用没有引导设备的以太网光纤通道
    在 ESX 主机中,从以太网光纤通道引导存储区域网络时,用户可能无法禁用任何端口上的 FCoE。

    本版本已解决该问题。
  • 软件 iSCSI 参数更改未记录在 syslog.log 文件中
    从本版本开始,对软件 iSCSI 会话和连接参数所做的更改现在将记录在 syslog.log 文件中,其中包含之前的和新的参数值。
  • 使用 Oracle Clustureware 时,尝试生成具有共享虚拟磁盘的虚拟机的快照可能会失败
    在共享虚拟机上使用多写入器选项以及 Oracle Clusterware 软件的 Oracle 真正应用群集 (RAC) 选项时,尝试生成虚拟机的快照可能会失败,并且虚拟机可能会停止运行。日志文件可能包含类似于以下内容的条目:

    Resuming virtual disk scsi1:5 failed.The disk has been modified since a snapshot was taken or the virtual machine was suspended.

    其他群集管理软件也可能会出现此问题。

    本版本已解决该问题。

升级和安装

  • 根据仅具有重新引导影响的公告进行的主机修复将失败
    在根据修补程序基准修复 ESXi 主机的过程中,当基准中包含仅具有 重新引导影响的公告时,Update Manager 无法关闭该主机上的虚拟机的电源或挂起虚拟机。这将导致主机无法进入维护模式,并且无法完成修复操作。

    此问题已在本版本及更高版本创建的公告中得到解决。

vCenter Server、vSphere Client 和 vSphere Web Client

  • 自定义性能图表不会提供用于显示虚拟机对象的总虚拟磁盘统计信息的选项
    使用虚拟磁盘衡量指标查看性能图表时,仅可查看可用虚拟磁盘对象的虚拟磁盘性能图表。

    此发行版也允许您查看虚拟机对象的虚拟磁盘性能图表。在需要基于虚拟机使用虚拟磁盘的情况触发警报时,这将非常有用。
  • 对于具有 VAAI NAS 的主机,[摘要] 选项卡可能会显示不正确的已置备空间值*
    在具有 VAAI NAS 的 ESXi 主机上创建格式为厚置备延迟置零的虚拟磁盘后,在 [数据存储] 和 [数据存储群集] 视图中,显示在 [摘要] 选项卡上的已置备空间可能是为该虚拟磁盘设置的已置备存储的两倍。
    例如,如果已置备的存储为 75 GB,则显示的已置备空间可能约为 150 GB。

    本版本已解决该问题。
  • 对于具有 VAAI NAS 的主机,[摘要] 选项卡可能会显示不正确的已置备空间值*
    在具有 VAAI NAS 的 ESXi 主机上创建格式为厚置备延迟置零的虚拟磁盘后,在 [数据存储] 和 [数据存储群集] 视图中,显示在 [摘要] 选项卡上的已置备空间可能是为该虚拟磁盘设置的已置备存储的两倍。
    例如,如果已置备的存储为 75 GB,则显示的已置备空间可能约为 150 GB。

    本版本已解决该问题。

虚拟机管理

  • 在虚拟机中,启用 3D 软件渲染选项时,WPF 应用程序将错误地显示项目
    在虚拟机上安装 Windows Presentation Foundation (WPF) 应用程序并启用 3D 软件渲染选项后,WPF 应用程序在显示某些映像时可能会不一致。

    本版本已解决该问题。
  • 安装具有 8 个或更多虚拟 CPU 的 win2000 Server 过程中,客户机操作系统会出现故障并显示错误检查代码 PAGE_FAULT_IN_NONPAGED_AREA
    在虚拟机上安装 Windows 2000 Server 时,客户机操作系统将出现故障,并显示蓝色诊断屏幕和 PAGE_FAULT_IN_NONPAGED_AREA错误消息。此问题在具有八个或更多虚拟 CPU 的 Windows 2000 虚拟机中会出现。

    本版本已解决该问题。
  • 由于共享磁盘上存在写入锁定的锁争用,因此,热移除共享非持久磁盘任务需要很长时间
    向使用 Unidesk API 的虚拟机中添加共享非持久只读磁盘时,虚拟机可能会停止响应。出现此情况是因为虚拟机以独占模式打开只读磁盘。
    本版本已解决该问题。

vMotion 和 Storage vMotion

  • 在启用了 CBT 的虚拟机上,使用 vMotion 将 VMDK 移至另一个卷后,QueryChangedDiskAreas 的增量备份可能会失败,并显示 FileFault 错误
    在启用了更改块跟踪 (CBT) 的虚拟机上,当您在使用 Storage vMotion 将虚拟机磁盘
    (VMDK) 移至另一个卷后执行 QueryChangedDiskAreas 时,由于 CBT 信息在不放弃所有 ChangeID 引用的情况下重新初始化,因此,可能会导致显示类似以下内容的 FileFault 错误:

    2012-09-04T11:56:17.846+02:00 [03616 info 'Default' opID=52dc4afb] [VpxLRO] -- ERROR task-internal-4118 -- vm-26512 --
    vim.VirtualMachine.queryChangedDiskAreas:vim.fault.FileFault:
    --> Result:
    --> (vim.fault.FileFault) {
    --> dynamicType = <unset>,
    --> faultCause = (vmodl.MethodFault) null, file =
    --> "/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> msg = "Error caused by file
    /vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> }

    要解决此问题,请在使用 Storage vMotion 将虚拟机磁盘 (VMDK) 移至其他数据存储后取消激活然后再重新激活 CBT 跟踪,并且必须放弃所有 ChangeID 引用,并执行完整备份以利用 CBT 进行后续增量备份。

    当库功能错误地重新初始化磁盘更改跟踪设施时将出现此问题。

    本版本已解决该问题。

VMware HA 和 Fault Tolerance

  • 将单个主机置于维护模式后,无法启用 High Availability 群集
    将相同 HA 群集的单个主机置于维护模式后,可能无法成功启用 High Availability (HA) 群集。如果在 ESX 根文件系统 (VisorFS) 中设置的 inode 描述符数量值不正确, 从而导致这些 inode 的 stat 调用失败,则会出现此问题。

    本版本已解决该问题。

VMware Tools

  • 启用 vmhgfs 安装后,如果 vmci 和 vsock 位于上游,则 VMware Tools 安装程序将不会安装 vmhgfs 模块
    如果在 vmci 和 vsock 位于上游时尝试安装 VMware Tools,并且您已启用安装 vmhgfs 模块,则安装程序可能不会安装此模块,此问题在内核版本为 3.9 或更高版本的 Linux 操作系统上会出现。

    本版本已解决该问题。
  • 当 VMCI 和 VSOCK 位于上游时,虚拟机控制接口无法加载 Linux Kernel 3.9
    当 vmci 和 vsock 位于上游且已安装 VMware Tools 时,如果运行 /etc/vmware-tools/service.sh restart命令检查服务,则虚拟机通信接口的状态可能会显示为失败。此问题在内核版本为 3.9 或更高版本的 Linux 操作系统上会出现。

    本版本已解决该问题。
  • 在升级 VMware Tools 时,安装有 Windows 操作系统的虚拟机可能会显示警告消息
    在 ESXi 5.1 主机上,将 VMware Tools 升级到 9.0 版本时,安装有 Windows 操作系统的虚拟机可能会显示类似下列内容的警告消息:

    从插件实用程序注册应用程序类型 2 (信号) 失败 (Failed registration of app type 2 (Signals) from plugin unity)

    本版本已解决该问题。
  • Linux Tools 安装程序已卸载 open-vm-tools
    用户在包含 open-vm-tools 的操作系统中的 vSphere 上运行 VMware Tools 安装程序时,系统将自动卸载 open-vm-tools 并安装 VMware Tools。

    本版本已解决该问题。

  • 从 ESXi 5.1 安装 VMware Tools 时,安装有 Solaris 10 客户机操作系统的虚拟机会变得无响应
    如果从 ESXi 5.1 将 VMware Tools 安装至客户机操作系统为 Solaris 10 的虚拟机,虚拟机可能会变得无响应,并显示类似下列内容的错误消息:
    等待 CDE 桌面启动 (Wait for the CDE desktop to start)

    本版本已解决该问题。
  • 如果尝试建立一个筛选规则,其中包含某个含有不受支持的文件系统的卷的驱动器盘符,则会导致 Windows Server 2003 或 Windows XP 虚拟机出现故障并显示蓝屏
    如果尝试建立一个筛选规则,其中包含某个含有不受支持的文件系统的卷的驱动器盘符,则会导致 Windows Server 2003 或 Windows XP 虚拟机出现故障并显示蓝屏,并可能显示类似下列内容的错误消息:
    Error code 1000007e, parameter1 c0000005, parameter2 baee5d3b, parameter3 baa69a64, parameter4 baa69760.

    有关详细信息,请访问 http://go.microsoft.com/fwlink/events.asp.Data,参阅帮助与支持中心:

    0000: 53 79 73 74 65 6d 20 45 System E
    0008:72 72 6f 72 20 20 45 72 rror Er
    0010:72 6f 72 20 63 6f 64 65 ror code
    0018:20 31 30 30 30 30 30 37 10000070020: 65 20 20 50 61 72 61 6d e Param
    0028:65 74 65 72 73 20 63 30 eters c
    00030:30 30 30 30 30 35 2c 20 000005,
    0038:62 61 65 65 35 64 33 62 baee5d3b
    0040:2c 20 62 61 61 36 39 61 , baa69a
    0048:36 34 2c 20 62 61 61 36 64, baa6
    0050:39 37 36 30 9760

    当在筛选规则中加入了由 Microsoft App-V 解决方案所创建的 Q:\驱动器盘符时,经常出现此问题。本版本已解决该问题。
  • VMware Tools 已更新,可为 SUSE Linux Enterprise 11 SP3、配有 2.6.39-200/300/400 内核的 Oracle Linux 5.x
    和配有 2.6.39-200/300/400 内核的 Oracle Linux 6.x 提供预建模块
  • 在 VMware Tools 更新过程中,vCenter 保护代理显示一条与未签名的可执行文件有关的“正在取消 VSS 驱动程序的注册 (Unregistering VSS driver)”警告消息
    尝试在 VMware Workstation 上执行 VMware Tools 更新时,vCenter 保护代理会显示 正在取消 VSS 驱动程序的注册 (Unregistering VSS driver)警告消息,指出使用了未签名的可执行文件。为复制到安装文件夹的文件列表加入可执行文件可解决此问题。

    本版本已解决该问题。
  • 将 vnetflt.sys 内核驱动器和关联的文件加入用于工具的 vShield MSM
    将 vnetflt.sys 内核驱动器和关联的文件加入用于工具的 vShield MSM。加入操作有助于通过添加额外默认参数修改多个虚拟机安装程序 API,使用这些参数可创建用于在组中命令服务启动的标记。

    本版本已解决该问题。
  • 如果使用 clobber 选项安装 vmci 和 vsock 驱动程序,VMware Tools 将无法启动
    如果您使用 --clobber-kernel-modules=vmci,vsock选项安装 VMware Tools,VMware Tools 服务将无法启动,并显示类似以下内容的错误消息:

    正在为内核创建新 initrd 引导映像。
    update-initramfs:正在生成 /boot/initrd.img-3.9.0-rc2-custom
    vmware-tools-thinprint 启动/正在运行
    initctl:作业无法启动
    无法为 VMware Tools 启动服务

    执行已中止 (Creating a new initrd boot image for the kernel. update-initramfs: Generating /boot/initrd.img-3.9.0-rc2-custom vmware-tools-thinprint start/running initctl: Job failed to start Unable to start services for VMware Tools Execution aborted)。

    本版本已解决该问题。通过高于 3.9 的 Linux 内核版本将 vmci 和 vsock 驱动程序置于上游后,您无法再安装这两个驱动程序。
  • 卸载 Window Server 2003 上的 VMwareTools
    尝试卸载 Windows Server 2003 上的 VMTools 时,虚拟机无法卸载 VMTools,并显示错误消息。

    本版本已解决该问题。

已知问题

之前未记录的已知问题以 * 符号标记。已知问题分为如下类别。

安装和升级问题

  • 升级使用 Postgres 数据库配置的 vCenter Server Appliance 之后,清单对象可能会不可见
    将使用 Postgres 数据库配置的 vCenter Server Appliance 从 5.0 Update 2 升级到 5.1 Update 1 后,升级之前存在的数据中心、vDS 等清单对象可能会不可见。使用 vSphere Web Client 连接到 vCenter Server Appliance 时将出现该问题。

    解决办法:升级 vCenter Server Appliance 后重新启动 Inventory Service。

  • 对于 Auto Deploy 有状态安装,如果系统已在 USB 上安装了 ESX/ESXi,将无法在这类系统上使用 ESX 的 firstdisk 参数
    您可以为要设置使用 Auto Deploy 进行有状态安装的主机配置主机配置文件。在配置过程中,选择 USB 作为磁盘,然后指定 esx 作为第一个参数。主机当前已在 USB 上安装 ESX/ESXi。Auto Deploy 在本地磁盘上安装 ESXi,而不是在 USB 上安装 ESXi。

    解决办法:无。

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 和 Set-DeployRule 需要对象作为输入内容
    您运行 Copy-DeployRule或 Set-DeployRulecmdlet 并传入映像配置文件或主机配置文件名称后,会出现错误。

    解决办法:传入映像配置文件或主机配置文件对象。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:从该磁盘中移除 ESX 软件,或选择其他磁盘用于无状态缓存。

  • 托管 Auto Deploy 服务器的计算机的 IP 地址更改后,vSphere Auto Deploy 不再运行
    您在 vCenter Server 之外的其他计算机上安装 Auto Deploy,并更改托管 Auto Deploy 服务器的计算机的 IP 地址。更改后,Auto Deploy 命令不再运行。

    解决办法:重新启动 Auto Deploy 服务器服务。
    net start vmware-autodeploy-waiter
    如果重新启动该服务未解决问题,您可能需要重新注册 Auto Deploy 服务器。运行以下命令,指定所有选项。
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • 在 HP DL980 G7 上,使用板载网卡时,ESXi 主机不通过 Auto Deploy 引导
    如果 HP DL980 G7 系统使用板载 (LOM Netxen) 网卡进行 PXE 引导,则您无法使用 Auto Deploy 引导该系统。

    解决办法:在该主机上安装经 HP 批准的附加网卡(例如 HP NC3 60T),然后使用该网卡进行 PXE 引导。

  • 使用 esxcli 的实时更新失败,并显示 Vib 下载失败 (VibDownloadError)
    用户依次执行以下两次更新。

    1. 使用 esxcli software profile update 或 esxclivib update 命令进行的实时安装更新。
    2. 需要重新引导的更新。

    第二个事务会失败。一个常见的故障是签名验证,只有在下载 VIB 后才能对其进行检查。

    解决办法:分两步解决问题。

    1. 重新引导 ESXi 主机以清理其状态。
    2. 再次执行实时安装。

     

  • 当计算机未连接任何网卡时,ESXi 脚本式安装在 CD-ROM 驱动器上找不到 kickstart (ks) 文件
    当 kickstart 文件位于未连接到任何网卡的系统中的 CD-ROM 驱动器上时,安装程序会显示错误消息: 在路径为 < path_to_ks_file> 的 CD-ROM 上找不到 kickstart 文件 (Can't find the kickstart file on cd-rom with path < path_to_ks_file>)。

    解决办法:重新连接网卡以建立网络连接,然后重新尝试安装。

  • SWFCoE LUN 上的脚本式安装失败
    ESXi 安装程序使用 kickstart (ks) 文件调用安装后,直到安装开始,所有 FCoE LUN 仍未经扫描和填充。这会导致任意 LUN 上的脚本式安装失败。使用 https、 http或 ftp协议访问 kickstart 文件时会出现该故障。

    解决办法:在 kickstart 文件的 %pre部分中,包含两分钟的休眠:
    %pre --interpreter=busybox
    sleep 120

  • 如果您升级 vCenter Server 但不升级 Auto Deploy 服务器,会存在潜在问题
    升级 vCenter Server 后,vCenter Server 会在每台 ESXi 主机上用新代理替换 5.0 vSphere HA 代理 (vmware-fdm)。ESXi 主机每次重新引导时都会进行该替换。如果 vCenter Server 不可用,ESXi 主机则无法加入群集。

    解决办法:如果可能,请升级 Auto Deploy 服务器。
    如果无法升级 Auto Deploy 服务器,则可以使用 vSphere PowerCLI 中包含的 Image Builder PowerCLI cmdlet 来创建包含新 vmware-fdm VIB 的 ESXi 5.0 映像配置文件。可以将该映像配置文件提供给您的主机。

    1. 添加 ESXi 5.0 软件库,并添加包含新 vmware-fdm VIB 的软件库。
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 克隆现有映像配置文件,并添加 vmware-fdm VIB。
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 创建可将新映像配置文件分配给主机的新规则,并将该规则添加到规则集。
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 为主机执行测试并修复合规性操作。
      Test-DeployRuleSetCompliance Host_list

     

  • 如果已打开无状态缓存,并且 Auto Deploy 服务器不可用,则主机可能无法使用存储的映像进行自动引导
    在某些情况下,如果 Auto Deploy 服务器不可用,为配合使用无状态缓存与 Auto Deploy 而设置的主机不会从包含存储的映像的磁盘自动引导。即使在逻辑引导顺序中,您需要的引导设备位于下一个,仍可能发生这种情况。发生的准确情况取决于服务器供应商 BIOS 设置。

    解决办法:手动选择包含缓存映像的磁盘作为引导设备。

  • 通过 ESXCLI 从 ESXi 5.0 主机升级到 ESXi 5.1 的过程中,vMotion 和 Fault Tolerance (FT) 日志记录设置会丢失
    在 ESXi 5.0 主机上,要为端口组启用 vMotion 和 FT。通过运行 esxcli software profile update 命令升级主机。作为成功升级的一部分,vMotion 设置和 Fault Tolerance 的日志记录设置将返回到默认设置,即返回到已禁用。

    解决办法:使用 vSphere Upgrade Manager 升级主机,或手动将 vMotion 和 Fault Tolerance 返回到升级前的设置。

网络连接问题
  • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
    在具有 Intel ixgbe 网卡的 ESXi 5.1 主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,某些虚拟机可能无法启动。
    vmware.log 文件中将显示类似以下内容的消息:
    2013-02-28T07:06:31.863Z| vcpu-1| I120:Msg_Post:Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings:0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.response] We will respond on the basis of your support entitlement.

    解决办法:减少与受影响的计算机关联的虚拟功能的数量并重新启动该虚拟机。

  • 当通过 Auto Deploy 置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应
    当通过 Auto Deploy 在使用最新开源 gPXE 的 Emulex 10GbE NC553i FlexFabric 双端口上置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应。

    Emulex 10GbE PCI-E 控制器属于内存映射的控制器。在 PXE TFTP/HTTP 传输期间,在此控制器上运行的 PXE/UNDI 堆栈必须从真实模式切换为大真实模式,为超过 1 MB 的特定于设备的寄存器设定程序,以通过网络发送和接收数据包。在此过程中,无意中启用了 CPU 中断,当在 CPU 模式切换期间生成其他设备中断时,导致系统停止响应。

    解决办法:将网卡固件升级到版本 4.1.450.7 或更高版本。

  • 在重新引导主机之前,对标准虚拟交换机上的端口数所做的更改不会生效
    对标准虚拟交换机上的端口数进行更改后,在重新引导主机之前更改不会生效。这一点与分布式虚拟交换机的行为不同,在分布式虚拟交换机中对端口数的更改会立即生效。

    对标准虚拟交换机上的端口数进行更改时,请确保主机上的总端口数(包括标准交换机和分布式交换机)不超过 4096。

    解决办法:无。

  •  

  • 物理网卡的管理状态未正确地报告为关闭
    以管理方式将物理网卡状态设置为关闭不符合 IEEE 标准。如果通过虚拟交换机命令将物理网卡设置为关闭,会造成两个已知问题:

    • ESXi 会经历无法应对的流量增加,这将浪费位于 ESXi 前面的物理交换机中的网络资源和 ESXi 自身的资源。

    • 网卡的行为方式异常。操作员预期看到网卡电源已关闭,但网卡显示仍处于活动状态。

    VMware 建议使用 ESXCLI 网络关闭 -n vmnicN 命令,具有以下局限:
    • 此命令仅关闭驱动程序,而不关闭网卡电源。从位于 ESXi 系统前面的物理交换机的管理界面查看 ESXi 物理网络适配器时,标准交换机上行链路仍显示处于活动状态。

    • 网卡的管理状态在 ESXCLI 或 UI 中不可见。您必须记住在调试时通过检查 /etc/vmware/esx.conf 来核对状态。

    • SNMP 代理将报告管理状态,但如果在操作状态本来为关闭时将网卡设置为关闭,则该代理将错误地报告管理状态。如果在操作状态为活动时将网卡设置为关闭,则该代理会正确地报告管理状态。

     

    解决办法:将位于 ESXi 系统前面的物理交换机的管理状态更改为关闭,而不要使用虚拟交换机命令。

  • Linux 驱动程序支持变更
    VMXNET2 或 VMXNET(可变)虚拟网卡的设备驱动程序不适用于运行 Linux 内核 3.3 版及更高版本的虚拟机。

    解决办法:为运行 Linux 内核 3.3 版及更高版本的虚拟机使用 VMXNET3 或 e1000 虚拟网卡。

  • vSphere 5.0 Network I/O Control 带宽分配在多个上行链路之间分配不公平
    在 vSphere 5.0 中,如果在使用 Network I/O Control 的情况下为资源池设置网络带宽限制,则此限制会在主机级别的一组上行链路中实施。此带宽上限由令牌分布算法实施,该算法并未设计为在多个上行链路之间公平分配带宽。

    解决办法:vSphere 5.1 Network I/O Control 限制已缩小至基于每个上行链路。

  • [镜像数据包长度] 设置可能导致远程镜像源会话无法运行
    在配置已设置 [镜像数据包长度] 选项的远程镜像源会话时,目标无法收到部分镜像数据包。但如果您禁用该选项,即可再次收到这些数据包。
    如果已设置 [镜像数据包长度] 选项,超过指定长度的数据包会被截断,并且数据包会被丢弃。较低的层代码将不会为丢弃的数据包执行碎片和重新计算校验和。两种情况可能导致数据包被丢弃:

    • [镜像数据包长度] 大于最大传输单元 (MTU)
      如果您的环境中已启用 TSO,原始数据包可能很大。被 [镜像数据包长度] 截断后,它们仍大于 MTU,因此会被物理网卡丢弃。

    • 中间交换机执行 L3 检查
      部分截断的数据包的数据包长度和校验和可能是错误的。部分高级物理交换机会检查 L3 信息并丢弃无效数据包。目标不会收到这些数据包。

    解决办法

    • 如果已启用 TCP 分段卸载 (TSO),请禁用 [镜像数据包长度] 选项。

    • 您可以在部分交换机(例如 Cisco 的 4500 系列交换机)上启用或禁用 L3 检查。如果这些交换机正在使用中,请禁用 L3 检查。对于无法配置的交换机,请禁用 [镜像数据包长度] 选项。
  • 启用的 VMkernel 网络适配器超过 16 个会导致 vMotion 失败
    vSphere 5.x 具有一项限制,即为每个主机的 vMotion 启用的 VMkernel 网络适配器不得超过 16 个。如果为给定主机上的 vMotion 启用的 VMkernel 网络适配器超过 16 个,则该主机上的 vMotion 迁入或迁出可能会失败。ESXi 上 VMkernel 日志中的错误消息显示为 Refusing request to initialize 17 stream ip entries,其中的数字指示为 vMotion 启用的 VMkernel 网络适配器的数目。

    解决办法:禁用 vMotion VMkernel 网络适配器,直到总共只为 vMotion 启用 16 个。

  • 在 VLAN 环境中使用 nx_nic 驱动程序时,vSphere 网络核心转储不起作用
    在属于 VLAN 的主机上配置网络核心转储时,如果网卡使用 QLogic 智能以太网适配器驱动程序 (nx_nic),则网络核心转储会失败。如果上行链路适配器使用 nx_nic,收到的网络核心转储数据包无法使用正确的 VLAN 标记进行标记。

    解决办法:在 VLAN 中配置网络核心转储时,请使用采用其他驱动程序的另一个上行链路适配器。

  • 如果脚本式安装的 kickstart 文件调用已在使用的网卡,安装会失败
    如果您在安装后使用 kickstart 文件设置管理网络,并且您从 kickstart 文件调用已在使用的网卡,您会看到以下错误消息: 操作返回的状态的 Sysinfo 错误: 忙碌。有关详细错误信息,请参见 VMkernel 日志 (Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information)。

    当您在一个包含以下两个网卡的系统上启动脚本式安装时,会遇到该错误:一个配置用于 SWFCoE/SWiSCSI 的网卡,和一个配置用于网络连接的网卡。如果您通过在引导选项中提供 netdevice=<nic>BOOTIF=<MAC of the NIC> 来使用网络网卡启动脚本式安装,kickstart 文件会使用网络线路中的其他网卡 netdevice=<nic configured for SWFCoE / SWiSCSI> 来配置管理网络。

    安装(对磁盘进行分区)成功,但安装程序在尝试使用 kickstart 文件提供的网络参数为主机配置管理网络时会失败,因为 SWFCoE/SWiSCSI 已在使用该网卡。

    解决办法:在安装后使用 kickstart 文件中的可用网卡设置管理网络。

  • 当运行 ESX 的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃
    当运行 ESX 作为客户机的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃,因为对于 VMXNET3 的支持处于实验阶段。ESX 虚拟机的默认网卡是 e1000,因此仅当您替代默认值并选择 VMXNET3 时,才会遇到该问题。

    解决办法:使用 e1000 或 e1000e 作为 ESX 虚拟机的 pNIC。

  • 当大量 dvPort 处于使用中时,显示错误消息
    当您在大量 dvPort 处于使用中的主机上打开具有 dvPort 的虚拟机电源时,将显示 内存不足 (Out of memory)或 资源不足 (Out of resources)错误消息。当您使用 esxcli 命令列出主机上的交换机时,也会显示此错误消息。

    解决办法:增加 dvsLargeHeap 大小。

    1. 更改主机的高级配置选项:
      • esxcli 命令: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
      • vCenter:浏览到 [主机配置] -> [软件] 面板 -> [高级设置] -> 在 [净值] 下,将 DVSLargeHeapMaxSize 值从 80 更改为 100。
      • vSphere 5.1 Web Client:浏览到 [管理主机] -> [设置] -> [高级系统设置] -> [过滤器]。将 DVSLargeHeapMaxSize 值从 80 更改为 100。
    2. 从主机捕获主机配置文件。将配置文件与主机相关联并更新应答文件。
    3. 重新引导主机,确认已应用该值。

    注意:/Net/DVSLargeHeapMaxSize 的最大值为 128。

    在大型部署期间,如果在将 /Net/DVSLargeHeapMaxSize 更改为 128 后,您遇到问题并且日志显示以下任一错误消息,请联系 VMware 支持:

    Unable to Add Port; Status(bad0006)= Limit exceeded

    Failed to get DVS state from vmkernel Status (bad0014)= Out of memory

  • 使用 Emulex BladeEngine-3 10G 网卡(be2net 驱动程序)时,ESXi 发生故障
    当使用 VMware vCloud Director 配置 vCDNI 支持的网络池时,ESXi 在具有 Emulex BladeEngine-3 10G 网卡的系统上可能会发生故障。当使用该设备配置网络池时,您必须从 Emulex 获得经过更新的设备驱动程序。

    解决办法:无。

存储问题

  • RDM LUN 与从 VMFS 数据存储迁移到 NFS 数据存储的虚拟机分离
    如果您使用 vSphere Web Client 将具有 RDM LUN 的虚拟机从 VMFS 数据存储迁移到 NFS 数据存储,迁移操作完成且不提示任何错误或警告消息,但 RDM LUN 在迁移后与虚拟机分离。但是,迁移操作将创建一个与 NFS 数据存储上的 RDM LUN 具有相同大小的 vmdk 文件,以替换 RDM LUN。
    如果您使用 vSphere Client,迁移向导的兼容性部分中将显示一条相应的错误消息。

    解决办法:无
  • 您使用 EMC Symmetrix VMAX/VMAXe 存储阵列时,VMFS5 数据存储创建可能失败
    如果您的 ESXi 主机连接到 VMAX/VMAXe 阵列,则可能无法在从该阵列提供的 LUN 上创建 VMFS5 数据存储。如果是这种情况,则将显示以下错误: 主机配置过程中出错 (An error occurred during host configuration)。造成该错误的原因是 Symmetrix Enginuity Microcode (VMAX 5875.x) 的 ATS (VAAI) 部分阻止之前未写入的 LUN 上的新数据存储。

    解决办法

    1. 在 ESXi 主机上禁用硬件加速锁定。
    2. 创建 VMFS5 数据存储。
    3. 在主机上重新启用硬件加速锁定。

    使用以下任务禁用和重新启用硬件加速锁定参数。

    在 vSphere Web Client 中

    1. 在 vSphere Web Client 导航器中,浏览到主机。
    2. 依次单击 管理选项卡和 设置
    3. 在“系统”下,单击 高级系统设置
    4. 选择 [VMFS3.HardwareAcceleratedLocking],然后单击 [编辑] 图标。
    5. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
      • 0 已禁用
      • 1 已启用

    在 vSphere Client 中

    1. 在 vSphere Client 清单面板中,选择主机。
    2. 单击 [配置] 选项卡,然后单击 [软件] 下的 [高级设置]
    3. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
      • 0 已禁用
      • 1 已启用

     

  • 使用 Storagesystem::updateDiskPartitions()时,尝试在空磁盘上创建 GPT 分区
    您可以使用 Storagesystem::computeDiskPartitionInfoAPI 检索磁盘规范,然后使用该磁盘规范标记磁盘并通过 Storagesystem::updateDiskPartitions()创建分区。但是,如果磁盘最初为空,并且目标磁盘格式为 GPT,您尝试创建分区时可能失败。

    解决办法:改为使用 DatastoreSystem::createVmfsDatastore标记空磁盘并对其进行分区,并创建 VMFS5 数据存储。

  •  

  • 尝试在 GPT 磁盘上创建诊断分区可能失败
    如果 GPT 磁盘没有任何分区或磁盘的尾随分区为空,您可能无法在该磁盘上创建诊断分区。

    解决办法:避免将 GPT 格式化的磁盘用于诊断分区。如果您必须将现有空 GPT 磁盘用于诊断分区,请将该磁盘转换为 MBR 格式。

    1. 在该磁盘上创建 VMFS3 数据存储。
    2. 移除数据存储。

    磁盘格式将从 GPT 更改为 MBR。

     

  • ESXi 无法从大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE LUN 中引导
    您在大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE 引导 LUN 上安装 ESXi 时,安装可能成功。但当您尝试引导 ESXi 主机时,引导将失败。您会看到以下错误消息: 错误:没有适合此磁盘容量的几何形状 (ERROR: No suitable geometry for this disk capacity)和 错误: 无法连接到配置的任何磁盘 (ERROR: Failed to connect to any configured disk)(在 BIOS 时)。

    解决办法:如果大于 2 TB 的 FCoE LUN 连接到配置用于 FCoE 引导的 Intel FCoE 网卡,请勿在该 FCoE LUN 上安装 ESXi。在小于 2 TB 的 FCoE LUN 上安装 ESXi。

服务器配置问题

 

  • 通过控制台访问 VMFS 文件夹时,应用主机配置文件可能失败
    如果用户通过控制台访问 VMFS 数据存储文件夹,同时为主机应用主机配置文件,则修复或应用任务可能失败。在主机配置文件上启用无状态缓存时,或进行 Auto Deploy 安装时,会出现此故障。

    解决办法:修复主机配置文件时,请勿通过控制台访问 VMFS 数据存储。

  • 登录横幅中开头的空格会导致主机配置文件合规性故障
    如果您编辑主机配置文件并更改 [登录横幅 (今日消息)] 选项的文本,但在横幅文本的开头添加了空格,则应用该配置文件时会出现合规性错误。此时会显示合规性错误 登录横幅已修改 (Login banner has been modified)。

    解决办法:编辑主机配置文件并从 [登录横幅] 策略选项中移除开头的空格。

  • 从 ESXi 5.0 主机中提取的主机配置文件无法应用到启用了 Active Directory 的 ESX 5.1 主机
    将最初从 ESXi 5.0 主机提取并启用了 Active Directory 的主机配置文件应用到 ESX 5.1 主机时,应用任务将失败。为 likewise 系统资源池设置内存最大值可能导致出现错误。启用 Active Directory 后,likewise 系统资源池中的服务占用的内存量会超过在 ESXi 5.0 主机配置文件中捕获的 ESXi 5.0 的默认内存大小上限。因此,在尝试将内存大小上限设置为 ESXi 5.0 级别的过程中,应用 ESXi 5.0 主机配置文件会失败。

    解决办法:执行以下操作之一:

    • 手动编辑该主机配置文件,以提高 likewise 组的内存大小上限。
      1. 从主机配置文件编辑器导航到 [资源池] 文件夹,然后查看 host/vim/vmvisor/plugins/likewise
      2. [内存最大值 (MB)] 设置从 20(ESXi 5.0 默认值)修改为 25(ESXi 5.1 默认值)。
    • 为 likewise 组禁用子配置文件。执行以下操作之一:
      • 在 vSphere Web Client 中,编辑主机配置文件并取消选中 [资源池] 文件夹的复选框。此操作会禁用所有资源池管理。您可以专为 [资源池] 文件夹下的 host/vim/vmvisor/plugins/likewise 项目禁用此项。
      • 在 vSphere Client 中,右键单击主机配置文件并从菜单中选择 [启用/禁用配置文件配置...]

     

  • ESXi 5.0.x 主机配置文件重新应用到有状态 ESXi 5.1 主机后,主机网关会被删除并出现合规性故障
    ESXi 5.0.x 主机配置文件应用于全新安装的 ESXi 5.1 主机后,主机合规性状态为不合规。再次应用同一配置文件后,它会删除主机的网关 IP,并且合规性状态会继续显示为不合规,并显示 IP 路由配置不符合规范 (IP route configuration doesn't match the specification)状态消息。

    解决办法:执行以下解决办法之一:

    • 通过 DCUI 登录主机,并使用以下 esxcli命令手动添加默认网关:
      esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
    • 应用一次 ESX 5.0 主机配置文件后,从 ESX 5.1 主机提取一个新主机配置文件。将 ESX 5.1 主机迁移到基于 ESX 5.1 的新主机配置文件。

     

  • 在 USB 磁盘上启用无状态缓存后,可能出现合规性错误
    在主机配置文件上启用到 USB 磁盘的无状态缓存时,在修复后可能出现合规性错误。重新引导主机以便应用修复的更改后,无状态缓存会成功,但合规性故障仍存在。

    解决办法:没有解决办法。

  • 在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时
    在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时。

    解决办法:使用 vSphere Client 增加超时值:

    1. 选择 [系统管理] > [vCenter Server 设置]
    2. 选择 [超时设置]
    3. 将 [正常操作] 和 [长时间操作] 的值更改为 3600 秒。

       

  • 在 vmknic 上禁用 IPv4 后,无法从主机提取主机配置文件
    如果您移除所有 vmknic 中的所有 IPv4 地址,则无法从该主机提取主机配置文件。此操作对使用 Auto Deploy 置备的主机影响最大,因为主机配置文件是在此环境中保存主机配置的唯一方法。

    解决办法:为一个 IPv4 地址至少分配一个 vmknic。

  • 在 ESXi 5.1 主机上应用从 ESXi 4.1 主机提取的主机配置文件时,应用主机配置文件会失败
    如果您通过 ESXi 4.1 设置主机,从此主机提取主机配置文件(通过 vCenter Server)并尝试将配置文件附加到 ESXi 5.1 主机,则当您尝试应用该配置文件时,操作会失败。您可能收到以下错误消息: NTP 服务已关闭 (NTP service turned off)。

    即使在 ESXi 4.1 的 /etc/ntp.conf中未提供 NTP 服务器,NTPD 服务仍可能正在运行(打开状态)。ESXi 5.1 需要明确的 NTP 服务器,该服务才能运行。

    解决办法:通过在 /etc/ntp.conf中添加有效的 NTP 服务器来打开 NTP 服务,在 5.1 主机上重新启动 NTP 守护进程。确认该服务在重新引导后仍保留。此操作可确保为主机和将应用于该主机的配置文件同步 NTP 服务。

  • 成功应用配置文件后,主机配置文件显示不合规
    从 ESXi 5.0 主机提取主机配置文件并将其应用于包含本地 SAS 设备的 ESXi 5.1 主机时,会出现此问题。即使主机配置文件修复成功,主机配置文件合规性仍显示为不合规。

    您可能收到类似以下内容的错误消息:

    • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 路径选择策略设置为 VMW_PSP_FIXED (Specification state absent from host: device naa.500000e014ab4f70 Path Selection Policy needs to be set to VMW_PSP_FIXED)
    • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 参数设置为: 状态 =“打开”,队列完整示例大小 =“0”,队列完整阈值 =“0”(Specification state absent from host: device naa.500000e014ab4f70 parameters needs to be set to State = on" Queue Full Sample Size = "0" Queue Full Threshold = "0")

     

    ESXi 5.1 主机配置文件存储插件会为 PSA 和 NMP 设备配置筛选出本地 SAS 设备,而 ESXi 5.0 包含此类设备配置。这会造成在将旧版本主机配置文件应用于新版本主机时缺少设备。

    解决办法:手动编辑主机配置文件,并为所有本地 SAS 设备移除 PSA 和 NMP 设备配置条目。您可以通过输入以下 esxcli 命令来确定设备是否为本地 SAS:
    esxcli storage core device list

    如果返回以下行,则该设备为本地 SAS:
    Is Local SAS Device

  • 默认系统服务始终在使用 Auto Deploy 置备的 ESXi 主机上启动
    对于使用 Auto Deploy 置备的 ESXi 主机,关联的主机配置文件的 [服务配置] 部分中的服务启动策略不会被完全接受。特别是,如果 ESXi 上默认打开的某一项服务的启动策略值为 off,则在引导时,该服务仍会在使用 Auto Deploy 置备的 ESXi 主机上启动。

    解决办法:引导 ESXi 主机后,手动停止该服务。

  • snmpd 重新启动后,无法从 VMWARE-VMINFO-MIB 正确地检索信息
    您从 ESXi Shell 使用 /etc/init.d/snmpd restart重新启动 snmpd 守护进程后,VMWARE-VMINFO-MIB 中的部分信息可能在 SNMPWalk 期间丢失。

    解决办法:请勿使用 /etc/init.d/snmpd restart。必须使用 esxcli system snmp set --enable命令启动或停止 SNMP 守护进程。如果使用了 /etc/init.d/snmpd restart从 ESXi Shell 重新启动 snmpd,从 DCUI 或从 ESXi Shell 使用 /etc/init.d/hostd restart重新启动 Hostd。

vCenter Server 和 vSphere Client 问题
  • 启用或禁用 View Storage Accelerator 可能使 ESXi 主机丢失与 vCenter Server 的连接
    如果使用 vSphere 5.1 部署 VMware View,且 View 管理员启用或禁用桌面池中的 View Storage Accelerator,则 ESXi 5.1 主机可能会丢失与 vCenter Server 5.1 的连接。

    View Storage Accelerator 功能也称为基于内容的读缓存。在 View 5.1 View Administrator 控制台中,此功能被称为主机缓存。

    解决办法:请勿在部署 vSphere 5.1 的 View 环境中启用或禁用 View Storage Accelerator。

虚拟机管理问题
  • 从 ESX 3.x 和更高版本(VM 版本 4)升级虚拟机兼容性错误地将 Windows 虚拟机可变适配器配置为 Windows 系统默认驱动程序
    如果您的 Windows 客户机操作系统具有配置为 VMware Accelerated AMD PCnet 适配器驱动程序的可变网络适配器,则当您将虚拟机兼容性从 ESX 3.x 和更高版本(VM 版本 4)升级到诸如 ESXi 4.x 和更高版本(VM 版本 7)等任何更高兼容性设置时,Windows 会将该可变适配器配置为 Windows AMD PCNET Family PCI 以太网适配器默认驱动程序。
    发生此错误配置的原因在于 VMware Tools 驱动程序未签名,而 Windows 获取了已签名的默认 Windows 驱动程序。在兼容性升级之前存在的可变适配器网络设置会丢失,并且网卡的网络速度将从 1Gbps 变为 10Mbps。

    解决办法:升级虚拟机的兼容性后,将可变网络适配器配置为使用来自 Windows 客户机操作系统的 VMXNET 驱动程序。如果您的客户机是使用 ESXi5.1 VMware Tools 更新的,VMXNET 驱动程序将安装在以下位置:C:\Program Files\Common Files\VMware\Drivers\vmxnet\。

  • 您在虚拟机上安装 VMware Tools 并重新引导后,网络将不可用
    在使用 CentOS 6.3 操作系统或 Oracle Linux 6.3 操作系统的虚拟机上,成功安装 VMware Tools 并重新引导虚拟机后,网络将不可用。您尝试从 DHCP 服务器手动获取 IP 地址或从命令行设置静态 IP 地址时,会显示错误 无法分配内存 (Cannot allocate memory)。
    问题在于默认使用的可变网络适配器不是适用于这些操作系统的明智选择。

    解决办法:将网络适配器从可变网络适配器更改为 E1000 或 VMXNET 3,如下所示:

    1. 运行 vmware-uninstall-tools.pl命令以卸载 VMware Tools。
    2. 关闭虚拟机电源。
    3. 在 vSphere Web Client 中,右键单击虚拟机,然后选择 [编辑设置]
    4. 单击 [虚拟硬件],然后单击 [移除] 图标将当前网络适配器移除。
    5. 添加新网络适配器,并选择适配器类型 E1000 或 VMXNET 3。
    6. 打开虚拟机电源。
    7. 重新安装 VMware Tools。

     

  • ESXi 上涉及非 VMFS 虚拟磁盘的克隆或迁移操作会失败,并显示错误消息
    无论您使用 vmkfstools 命令还是客户端来对托管格式的虚拟磁盘执行克隆、复制或迁移操作,操作都会失败,并显示以下错误消息: 系统找不到指定的文件 (The system cannot find the file specified)。

    解决办法:要对托管格式的虚拟磁盘执行克隆、复制或迁移操作,您需要将 VMkernel 多数据区模块加载到 ESXi 中。

    1. 登录 ESXi Shell 并加载多数据区模块。
      # vmkload_mod multiextent
    2. 检查您的虚拟机磁盘中是否有些属于托管类型。托管磁盘以 -s00x.vmdk扩展名结尾。
    3. 将托管格式的虚拟磁盘转换成某一种 VMFS 格式。
      1. 将源托管磁盘 test1.vmdk 克隆到 test2.vmdk。
        # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
      2. 成功克隆后删除托管磁盘 test1.vmdk。
        # vmkfstools -U test1.vmdk
      3. 将克隆的 vmfs 类型磁盘 test2.vmdk 重命名为 test1.vmdk。
        # vmkfstools -E test2.vmdk test1.vmdk
    4. 卸载该多数据区模块。
      #vmkload_mod -u multiextent

     

  • 虚拟机没有分配的 IP 地址,并且可能无法运行
    该问题是由于从客户机操作系统启动 LUN 重置请求引起的。该问题特定于在 ESXi 主机中配置有软件 FCoE 的 IBM XIV 光纤通道阵列。驻留在 LUN 上的虚拟机显示以下问题:

    • 未分配给虚拟机 IP 地址。
    • 无法打开或关闭虚拟机电源。
    • 在控制台中未显示鼠标光标。因此,无法控制客户机操作系统中受影响的虚拟机或者与其进行交互。

     

    解决办法:从 ESXi 主机,重置遇到问题的虚拟机所驻留的 LUN。

    1. 运行以下命令以获取 LUN 信息:
      # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
    2. 在输出中搜索以下行以获取 LUN 的 UID:
      Partitions spanned (on 'lvm'):eui.001738004XXXXXX:1
      eui.001738004XXXXXX是设备 UID。
    3. 运行以下命令以重置 LUN:
      # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
    4. 如果无响应的虚拟机驻留在具有多个关联 LUN(如添加的数据区)的数据存储上,则将针对所有数据存储数据区执行 LUN 重置。

     

迁移问题
  • 尝试使用 Storage vMotion 迁移多个链接克隆的虚拟机将失败
    该失败通常会影响链接克隆的虚拟机。当增量磁盘的大小为 1MB,且在 ESXi 主机中启用了基于内容的读缓存 (CBRC) 功能时,会发生该问题。您会看到以下错误消息: 源虚拟机检测到目标虚拟机无法恢复。

    解决办法:可使用下列方法之一来避免 Storage vMotion 出现失败:

    • 使用 4KB 作为增量磁盘的大小。

    • 不使用 Storage vMotion,而是将已关闭电源的虚拟机迁移到新的数据存储。

VMware HA 和 Fault Tolerance 问题
  • 在 vCenter Server 内部测试版上设置为记录统计信息时,容错虚拟机会崩溃
    vmx*3 功能支持用户运行 stats vmx 来收集性能统计信息用于调试支持问题。在 vCenter Server 内部测试版上启用 Fault Tolerance 后,stats vmx 不兼容。

    解决办法:启用 Fault Tolerance 后,请确保在 vCenter Server 内部测试版上虚拟机未设置为记录统计信息。

受支持硬件问题
  • PCI [未知未知]状态显示在 Apple Mac Pro 服务器上的 vCenter Server 中
    vSphere 5.1 中的 [硬件状态] 选项卡为 Apple Mac Pro 上的部分 PCI 设备显示 [未知未知]。这是因为 Apple Mac Pro 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

    解决办法:无。

  • PCI [未知未知]状态显示在 AMD PileDriver 上的 vCenter Server 中
    vSphere 5.1 中的 [硬件状态] 选项卡为 AMD PileDriver 上的部分 PCI 设备显示 [未知未知]。这是因为 AMD PileDriver 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

    解决办法:无。

  • Apple Mac Pro 服务器上不支持 DPM
    vSphere 5.1 分布式电源管理 (DPM) 功能在 Apple Mac Pro 上不受支持。请勿将 Apple Mac Pro 添加到已启用 DPM 的群集中。如果主机进入“待机”状态,则发出打开电源命令后该主机无法退出待机状态,并显示 操作已超时 (operation timed out)错误。将主机置于待机状态后,Apple Mac Pro 无法从 vSphere 使用的软件关闭电源命令中唤醒。

    解决办法:如果 Apple Mac Pro 主机进入“待机”状态,您必须手动按电源按钮来打开主机电源。

  • Apple Mac Pro 服务器上不支持 IPMI
    vSphere 5.1 中的 [硬件状态] 选项卡无法显示正确的数据,或 Apple Mac Pro 上的部分硬件组件缺少数据。这是因为 Apple Mac Pro 上不支持 IPMI。

    解决办法:无。

其他问题
  • 网络或存储中断后,TCP 上的 syslog、SSL 上的 syslog 和存储日志记录不会自动重新启动
    网络或存储中断后,在特定配置中 syslog 服务不会自动重新启动。这些配置包括 TCP 上的 syslog、SSL 上的 syslog 和中断存储日志记录。

    解决办法:运行以下命令,明确地重新启动 syslog:
    esxcli system syslog reload您还可以配置可自动重新启动的 UDP 上的 syslog。

  • Windows Server 2012 故障切换群集不受支持
    如果您尝试在 Windows Server 2012 中创建故障切换群集,并选择运行验证测试,则向导会完成验证测试并显示警告,然后返回再次运行验证测试。Windows Server 2012 客户机操作系统中的向导不会继续进入群集创建阶段。

    解决办法:无。