ESXi 5.0 Update 3 | 2013 年 10 月 17 日 | 内部版本 1311175

上次更新时间:2013 年 10 月 31 日

发行说明内容

本发行说明包含以下主题:

新增功能

以下信息介绍了本版本的 VMware ESXi 中提供的一些增强功能:

  • 已解决的问题 -本版本提供了许多已在 已解决的问题部分中记录的缺陷修复。

ESXi 5.0 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.0 的功能和已知问题。要查看 ESXi 5.0 的早期版本的发行说明,请单击下列链接之一:

国际化

VMware vSphere 5.0 Update 3 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文

vSphere Client 区域设置强制模式

在 vSphere 5.0 Update 3 中,您可以将 VMware vSphere Client 配置为显示英文界面文本,即使运行它的计算机为非英文环境也可以。可在单个会话期间通过提供命令行开关来设置此配置。该配置适用于界面文本,不会影响与区域设置相关的其他设置,例如日期和时间或数字格式。

以下 vSphere Client 命令会导致单个会话以英文形式显示:

vpxClient -locale en_US

兼容性和安装

ESXi、vCenter Server 和 vSphere Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Client 和可选的 VMware 产品)当前版本与先前版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看本站点以了解有关受支持的管理和备份代理的信息。

vSphere Web Client 和 vSphere Client 与 vCenter Server 和模块 ZIP 文件打包在一起。您可以通过 VMware vCenter™ 安装程序向导来安装一个客户端,或者安装所有这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.0.3 增加了对 ESXi 5.0 Update 3 和 vCenter Server 5.0 Update 3 版本的支持。有关 VDDK 的更多详细信息,请访问 https://www.vmware.com/support/developer/vddk/

 


ESXi 的硬件兼容性

要确定哪些处理器、存储设备、SAN 阵列和 I/O 设备与 vSphere 5.0 Update 3 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.0 Update 3 的信息。

升级和安装受支持的 CPU。vSphere 5.0 Update 3 仅支持拥有 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.0 Update 3 的兼容性。有关 CPU 支持的信息,请参见 《VMware 兼容性指南》。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 5.0 Update 3 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.0 Update 3 的信息。

ESXi 的虚拟机兼容性

ESXi 5.0 Update 3 支持具有虚拟硬件版本 4.0 及更高版本的虚拟机。不再支持硬件版本 3。要在 ESXi 5.0 Update 3 上使用硬件版本 3 的虚拟机,请升级虚拟硬件。请参见 《vSphere 升级》文档。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的分步指导,请阅读 《vSphere 安装和设置》文档。

成功安装之后,您必须执行某些许可、网络连接和安全配置。有关这些配置任务的信息,请参见 vSphere 文档中的以下指南。

 

迁移第三方解决方案

ESX/ESXi 主机可能包含第三方软件,如 Cisco Nexus 1000V VEM 或 EMC PowerPath 模块。ESXi 5.0 架构与 ESX/ESXi 4.x 不同,因此从 ESX/ESXi 4.x 升级到 ESXi 5.0 及更高版本后,无法迁移自定义的第三方软件包 (VIB)。
如果您升级的 4.x 主机包含在升级版 ISO 中不存在的自定义 VIB,您可以进行升级但会收到一条错误消息,其中列出了缺少的 VIB。要成功升级或迁移此类主机,您必须使用 Image Builder 创建一个包含缺少的 VIB 的自定义 ESXi ISO 映像。要升级主机而不升级第三方软件,请在 vSphere Update Manager 中使用 ForceMigrate选项或在修复过程中选择该选项来移除第三方软件模块。有关如何使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。有关使用第三方自定义进行升级的信息,请参见 《vSphere 升级》《安装和管理 VMware vSphere Update Manager》文档。有关使用 vSphere Update Manager 进行升级的信息,请参见 《vSphere 升级》《安装和管理 VMware vSphere Update Manager》文档。

L3 路由 NFS 存储访问

在确保您的环境满足以下条件的情况下,vSphere 5.0 Update 3 支持 L3 路由 NFS 存储访问:
  • 在 IP 路由器中使用 Cisco 的热备份路由器协议 (HSRP)。如果使用非 Cisco 路由器,请确保使用虚拟路由器冗余协议 (VRRP)。
  • 使用服务质量 (QoS) 区分具有带宽限制的网络 NFS L3 流量优先级,或区分遇到网络拥堵的 NFS L3 流量优先级。有关详细信息,请参见路由器文档。
  • 遵循存储供应商推荐的 L3 路由 NFS 最佳做法。有关详细信息,请联系您的存储供应商。
  • 禁用网络 I/O 资源管理 (NetIORM)
  • 如果计划使用具有机架置顶式交换机或独立于交换机的 I/O 设备分区的系统,请联系您的系统供应商获取兼容性和支持。
在 L3 环境中,会另有以下限制:
  • 该环境不支持 VMware Site Recovery Manager。
  • 该环境仅支持 NFS 协议。在同一物理网络内不使用其他存储协议(例如 FCoE)。
  • 该环境中的 NFS 流量不支持 IPv6。
  • 该环境中的 NFS 流量仅可以通过 LAN 路由。不支持其他环境(例如 WAN)。
  • 该环境不支持分布式虚拟交换机 (DVS)。

本版本的升级

关于如何升级 vCenter Server 和 ESXi 主机的说明,请参见 《vSphere 升级》文档。

升级 VMware Tools

VMware ESXi 5.0 Update 3 包含最新版本的 VMware Tools。VMware Tools 是一套实用程序,能够增强虚拟机的客户机操作系统的性能。有关在本版本的 ESX 中已解决的与 VMware Tools 相关的问题列表,请参见 VMware Tools 已解决的问题

要确定已安装的 VMware Tools 版本,请参见 验证 VMware Tools 内部版本(知识库文章 1003947)。

ESX/ESXi 升级

可以通过多种方式将 ESX/ESXi 主机升级到 ESXi 5.0 Update 3。

  • vSphere Update Manager。如果您的站点使用 vCenter Server,请使用 vSphere Update Manager 来执行协调主机或协调虚拟机自 ESX/ESXi 4.0、4.1 以及 ESXi 5.0 版本进行的升级。请参见 《vSphere 升级》文档中的说明。如需有关 vSphere Update Manager 的完整文档,请参见 《安装和管理 VMware vSphere Update Manager》文档。

  • 使用在 CD-ROM 或 DVD 上的 ESXi 安装程序 ISO 映像以交互方式升级。您可以从 CD-ROM 或 DVD 驱动器运行 ESXi 5.0 Update 3 安装程序来执行交互式升级。该方法适用于升级数量较少的主机。

  • 执行脚本式升级。您可以通过运行升级脚本将 ESXi/ESX 4.x 主机升级或迁移到 ESXi 5.0 Update 3,实现高效、无人参与的升级。脚本式升级还提供了高效的多主机部署方式。您可以从 CD-ROM 或 DVD 驱动器或通过 PXE 引导安装程序使用脚本来升级 ESXi。

  • ESXCLI:可以使用 esxcli命令行实用程序更新修补程序并将其应用到 ESXi 5.x 主机。无法使用 esxcli 将 ESX/ESXi 4.x 主机升级到 ESXi 5.0 Update 3。
支持升级到 ESXi 5.0 Update 3 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.0 Update 3 的升级途径

ESX 4.0
包括
ESX 4.0 Update 1
ESX4.0 Update 2

ESX4.0 Update 3
ESX 4.0 Update 4

ESXi 4.0
包括
ESXi 4.0 Update 1
ESXi 4.0 Update 2

ESXi 4.0 Update 3
ESXi 4.0 Update 4

ESX 4.1:
包括
ESX 4.1 Update 1
ESX 4.1 Update 2

ESX 4.1 Update 3

 

ESXi 4.1
包括
ESXi 4.1 Update 1

ESXi 4.1 Update 2
ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1
ESXi 5.0 Update 2

VMware-VMvisor-Installer-5.0.0.update03-1311175.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

是*

update-from-esxi5.0-5.0_update03.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

使用从 VMware 门户(联机)下载的修补程序定义

带有修补程序基准的 VMware vCenter Update Manager

* 注意不支持通过 VMware vCenter Update Manager 使用 VMware-VMvisor-Installer-5.0.0.update03-1311175.x86_64.iso从 ESXi 5.0 进行升级。相反,必须使用 update-from-esxi5.0-5.0_update03.zip通过 VMware vCenter Update Manager 进行升级。

vSphere 5.0 Update 3 交付产品无法保证与 vSphere 5.1 升级路径兼容。

VMware vSphere SDK

VMware vSphere 为 vSphere 服务器和客户机操作系统环境提供了一组 SDK。

  • vSphere Management SDK。一组用于 vSphere 管理编程环境的软件开发工具包。 vSphere Management SDK 包含以下 vSphere SDK:

    • vSphere Web Services SDK。包含对 ESXi 5.0 及更高版本和 vCenter Server 5.0 及更高版本服务器系统中提供的新功能的支持。您也可以将此 SDK 与先前版本的 ESX/ESXi 和 vCenter Server 一起使用。有关详细信息,请参见 《VMware vSphere Web Services SDK》文档。

    • vSphere vCenter 存储监控服务 (SMS) SDK。vCenter Server 5.0 支持 SMS 2.0。有关详细信息,请参见 《vCenter SMS SDK 文档》

    • vSphere ESX Agent Manager (EAM) SDK。ESXi 5.0 Update 1 上支持 EAM 3。有关详细信息,请参见 vSphere ESX Agent Manager

  • vSphere Guest SDK。ESXi 5.0 Update 3 上支持 VMware vSphere Guest SDK 4.0。有关详细信息,请参见 《VMware vSphere Guest SDK 文档》。

  • VMware vSphere SDK for Perl。vSphere 5.0 Update 3 上支持 SDK for Perl 5.0。有关详细信息,请参见 《vSphere SDK for Perl 文档》

VMware vSphere 的开放源组件

可从 http://www.vmware.com/download/vsphere/open_source.html[开放源代码] 选项卡上获取适用于 vSphere 5.0 Update 3 中分发的开放源软件组件的版权声明和许可证。您还可以下载 vSphere 最新通用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi500-Update03 包含下列各公告:

ESXi500-201310201-UG:更新 ESXi 5.0 esx-base vib
ESXi500-201310202-UG:更新 ESXi 5.0 tools-light vib
ESXi500-201310203-UG:更新 ESXi 5.0 misc-drivers vib
ESXi500-201310204-UG:更新 ESXi 5.0 scsi-hpsa vib

修补程序版本 ESXi500-Update03 Security-only 包含下列各公告:

ESXi500-201310101-SG:更新 ESXi 5.0 esx-base vib

ESXi500-201310102-SG:更新 ESXi 5.0 net-bnx2x vib
ESXi500-201310103-SG:更新 ESXi 5.0 misc-drivers vib

修补程序版本 ESXi500-Update03 包含下列映像配置文件:

ESXi-5.0.0-20131002001-standard

ESXi-5.0.0-20131002001-no-tools

修补程序版本 ESXi500-Update03 Security-only 包含下列映像配置文件:

ESXi-5.0.0-20131001001s-standard
ESXi-5.0.0-20131001001s-no-tools


有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中以下几个主题方面的已解决的问题:

CIM 和 API

  • 如果 CIM 提供程序失败,轻量级 CIM 代理守护进程可能会停止响应
    在 ESXi 主机上,如果 CIM 提供程序在空闲超时期间失败,轻量级 CIM 代理守护进程 (sfcbd) 可能会经常停止响应。

    本版本已解决该问题。
  • LSI CIM 提供程序泄露文件描述符
    LSI CIM 提供程序(sfcb 进程之一)泄露文件描述符。这可能会导致 sfcb-hhrc停止,以及 sfcbd重新启动。 syslog文件可能会记录类似下列内容的消息:

    sfcb-LSIESG_SMIS13_HHR[ ]:Error opening socket pair for getProviderContext:Too many open files
    sfcb-LSIESG_SMIS13_HHR[ ]:Failed to set recv timeout (30) for socket -1. Errno = 9
    ...
    ...

    sfcb-hhrc[ ]:Timeout or other socket error
    sfcb-hhrc[ ]:TIMEOUT DOING SHARED SOCKET RECV RESULT ( )

    本版本已解决该问题。
  • 在某些 ESXi 服务器上,针对“http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000”的 WS-Management GetInstance () 操作可能会引发 wsa:DestinationUnreachable 故障
    在某些 ESXi 服务器上,针对“http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000”的 WS-Management GetInstance () 操作可能会引发 wsa:DestinationUnreachable故障。对于在装有智能平台管理界面 (IPMI) 底板管理控制器 (BMC) 传感器的系统上执行的 CIM gi/ei/ein 操作,OMC_MCFirmwareIdentity 对象路径不一致。因此,在 ESXi 服务器上,WS-Management GetInstance () 操作将引发 wsa:DestinationUnreachable故障。

    本版本已解决该问题。
  • 由于 sfcbd 耗尽 inode,因此 ESXi 主机与 vCenter Server 之间的连接断开
    ESXi 主机与 vCenter Server 之间的连接断开,并且无法重新连接到 vCenter Server。此问题是由于硬件监控服务 (sfcdb) 在 /var/run/sfcb目录中填入的文件数量超出 5000 个所致。

    hostd.log文件(位于 /var/log/)指出主机存储空间不足:
    VmkCtl Locking (/etc/vmware/esx.conf) :Unable to create or open a LOCK file.Failed with reason:No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) :Unable to create or open a LOCK file.Failed with reason:No space left on device

    vmkernel.log文件(位于 /var/log)指出 inode 不足:
    cpu4:1969403)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING:VisorFSObj:893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    本版本已解决该问题。
  • 硬件监控服务停止,[硬件状态] 选项卡仅显示一条错误消息
    [硬件状态] 选项卡不会显示健康状况,而是显示一条类似下列内容的错误消息:

    此主机上的硬件监控服务没有响应或不可用 (Hardware monitoring service on this host is not responding or not available)。

    硬件监控服务 (sfcdb) 停止, syslog文件可能显示类似下列内容的条目:

    sfcb-smx[xxxxxx]:spRcvMsg Receive message from 12 (return socket:6750210)
    sfcb-smx[xxxxxx]:--- spRcvMsg drop bogus request chunking 6 payLoadSize 19 chunkSize 0 from 12 resp 6750210
    sfcb-smx[xxxxxx]:spRecvReq returned error -1. Skipping message.
    sfcb-smx[xxxxxx]:spRcvMsg Receive message from 12 (return socket:4)
    sfcb-smx[xxxxxx]:--- spRcvMsg drop bogus request chunking 220 payLoadSize 116 chunkSize 104 from 12 resp 4
    ...
    ...
    sfcb-vmware_int[xxxxxx]:spGetMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]:rcvMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]:Timeout or other socket error

    本版本已解决该问题。
  • CIM 服务器返回错误的 PerceivedSeverity 指示值
    当使用 IBM Systems Director (ISD) 监控 ESX 服务器时,CIM 服务器向 ISD 返回了错误的 PerceivedSeverity 指示值。更正传感器类型和 PerceivedSeverity 返回值即可解决此问题。

    本版本已解决该问题。
  • 无法监控 ESXi 主机的硬件状态
    如果在跟踪模式下启用 SFCBD 服务,并且该服务停止运行,则 ESXi 主机的 [硬件状态] 选项卡可能会报告错误。任何第三方工具都可能无法监控 ESXi 主机的硬件状态。

    本版本已解决该问题。
  • CIM 提供程序显示的错误消息可能不正确
    CIM 提供程序可能显示不正确的错误消息,其类似下列内容::
    “在进程 5 中请求提供程序 429 时请求标头 Id (886262) 不等于响应标头 reqId (0)。删除响应 (Request Header Id (886262) != Response Header reqId (0) in request to provider 429 in process 5. Drop response)”。
    本版本已通过更新错误日志并重新启动 sfcbd 管理代理解决了该问题,从而显示类似下列内容的正确的错误消息:
    进程 0 中标头 Id (373) 请求提供程序 1 失败。错误: 超时 (或其他套接字错误)。等待提供程序的响应 (Header Id (373) Request to provider 1 in process 0 failed. Error:Timeout (or other socket error) waiting for response from provider)。

  • 本版本已解决该问题。

其他

  • Netlogond 可能停止响应,ESXi 主机可能失去了 Active Directory 功能
    Netlogond 可能在含有多个无法访问的域控制器的 Active Directory 环境中消耗了大量内存。因此,Netlogond 可能会失败,ESXi 主机可能会失去 Active Directory 功能。

    本版本已解决该问题。
  • 在同一个 HA 群集中有一个主机置于维护模式之后,您可能无法启用 High Availability (HA) 群集
  • 如果在 ESX 根文件系统 (VisorFS) 中设置的 inode 描述符数量值不正确,从而导致这些 inode 的 stat 调用失败,则会出现此问题。
    本版本已解决该问题。
  • ESXi 主机显示的 resourceCpuAllocMax 系统计数器的值错误
    当您从 [性能] >> [高级性能图表] >> [系统图表] 选项中检索主机系统的 resourceCpuAllocMax和 resourceMemAllocMax系统计数器的值时,ESX 主机返回错误的值。在连接到 vCenter Server 的 vSphere Client 上会出现此问题。

    本版本已解决该问题。
  • 如果尝试建立一个筛选规则,其中包含某个含有不受支持的文件系统的卷的驱动器盘符,则会导致 Windows Server 2003 或 Windows XP 虚拟机出现故障并显示蓝屏
    如果尝试建立一个筛选规则,其中包含某个含有不受支持的文件系统的卷的驱动器盘符,则会导致 Windows Server 2003 或 Windows XP 虚拟机出现故障并显示蓝屏,并可能显示类似下列内容的消息:
    Error code 1000007e, parameter1 c0000005, parameter2 baee5d3b, parameter3 baa69a64, parameter4 baa69760.
    For more information, see Help and Support Center at http://go.microsoft.com/fwlink/events.asp.Data:
    0000: 53 79 73 74 65 6d 20 45 System E
    0008:72 72 6f 72 20 20 45 72 rror Er
    0010:72 6f 72 20 63 6f 64 65 ror code
    0018:20 31 30 30 30 30 30 37 10000070020: 65 20 20 50 61 72 61 6d e Param
    0028:65 74 65 72 73 20 63 30 eters c0
    0030:30 30 30 30 30 35 2c 20 000005,
    0038:62 61 65 65 35 64 33 62 baee5d3b
    0040:2c 20 62 61 61 36 39 61 , baa69a
    0048:36 34 2c 20 62 61 61 36 64, baa6
    0050:39 37 36 30 9760
    当在筛选规则中加入了由 Microsoft App-V 解决方案所创建的 Q:\驱动器盘符时,经常出现此问题。

    本版本已解决该问题。
  • 如果 ESXi 主机出现故障并显示紫色屏幕,则内存控制器错误消息可能被错报为 TLB 错误
    如果 ESXi 主机出现故障并显示紫色屏幕,则内存控制器错误消息可能被错报为转换旁视缓冲区 (TLB) 错误消息 “2 级 TLB 错误 (Level 2 TLB Error)”。

    本版本已解决该问题。

网络连接

  • 如果未配置核心转储分区和核心转储收集器服务,则 ESXi 主机无法报告配置问题
    如果 ESX 主机未配置核心转储分区,也未配置为将核心转储定向到转储收集器服务,则我们可能会失去重要的故障排除信息。在 hostd 服务开始时加入一项配置和核心转储分区检查可以解决此问题。

    本版本已解决该问题。
  • 在 syslog 文件中,在无状态模式下引导的 ESXi 主机以名称 localhost 显示
    当重新引导无状态 ESXi 主机,并且该主机配置为从 DHCP 服务器获取 DNS 配置和主机名时,syslog 文件将主机的名称显示为 localhost 而非从 DHCP 服务器获取的主机名。因此,对于远程 syslog 收集器,所有 ESXi 主机的主机名似乎都相同。

    本版本已解决该问题。
  • ESXi 主机可能出现故障并显示紫色屏幕,同时报告页面文件异常错误
    当虚拟机配置了 e1000 网络适配器,ESXi 主机可能出现故障并显示紫色诊断屏幕,同时显示类似下列内容的消息:

    @BlueScreen:#PF Exception 14 in world 8229:idle37 IP 0x418038769f23 addr 0xc
    0x418038600000 VMK uptime:1:13:10:39.757
    0x412240947898:[0x418038769f23]E1000FinalizeZeroCopyPktForTx@vmkernel#nover+0x1d6 stack:0x41220000
    0x412240947ad8:[0x41803877001e]E1000PollTxRing@vmkernel#nover+0xeb9 stack:0x41000c958000
    0x412240947b48:[0x418038771136]E1000DevAsyncTx@vmkernel#nover+0xa9 stack:0x412240947bf8
    0x412240947b98:[0x41803872b5f3]NetWorldletPerVMCB@vmkernel#nover+0x8e stack:0x412240947cc0
    0x412240947c48:[0x4180386ed4f1]WorldletProcessQueue@vmkernel#nover+0x398 stack:0x0
    0x412240947c88:[0x4180386eda29]WorldletBHHandler@vmkernel#nover+0x60 stack:0x2
    0x412240947ce8:[0x4180386182fc]BHCallHandlers@vmkernel#nover+0xbb stack:0x100410000000000
    0x412240947d28:[0x4180386187eb]BH_Check@vmkernel#nover+0xde stack:0xf2d814f856ba
    0x412240947e58:[0x4180387efb41]CpuSchedIdleLoopInt@vmkernel#nover+0x84 stack:0x412240947e98
    0x412240947e68:[0x4180387f75f6]CpuSched_IdleLoop@vmkernel#nover+0x15 stack:0x70
    0x412240947e98:[0x4180386460ea]Init_SlaveIdle@vmkernel#nover+0x13d stack:0x0
    0x412240947fe8:[0x4180389063d9]SMPSlaveIdle@vmkernel#nover+0x310 stack:0x0

    本版本已解决该问题。
  • 如果禁用包含默认网关的端口组然后又重新启用,则默认网关将为空
    如果禁用包含默认网关并启用了 DHCP 的端口组,则默认网关将为空。重新启用该端口组时,默认网关仍为空。

    本版本已解决该问题。默认网关已更新,不再为空。
  • 当网络通信通过 bnx2x 设备驱动程序时,ESXi 主机可能出现故障,并显示紫色屏幕
    当网络通信通过 bnx2x 设备驱动程序并且 vmklinux 接收大型接收卸载 (LRO) 生成的数据包时,网络数据包可能会被删除,从而导致 ESXi 主机出现故障,并显示紫色屏幕。
    ESXi 主机在 TSO 拆分期间遇到“除数为零”异常,最终导致主机出现故障。
    当 bnx2x 驱动程序发送的 LRO 数据包的 TCP 分段卸载 (TSO) MSS 值设置为零时,将出现此问题。
    此外,当收到的数据包由于下列任意一个原因而无效时,ESXi 主机也将出现故障:
    • 如果 GSO 大小为零
    • 如果 GSO 类型不受支持
    • vLAN ID 不正确

    本版本已解决该问题。
  • 由于两个 DVFilter 进程之间存在冲突,ESXi 主机可能出现故障并显示紫色诊断屏幕
  • 如果两个 DVFilter 进程尝试同时管理一个配置变量,则当一个进程清除现有筛选配置,而另一个进程尝试将其锁定时,ESXi 主机可能会出现故障。当在 DVFilter 清理期间关闭客户机操作系统时,将出现此问题。
    本版本已解决该问题。
  • 在使用 vmxnet3 网卡的虚拟机上生成的快照的网络通信统计信息错误
    当您生成使用 vmxnet3 网卡的虚拟机的快照时,该虚拟机的网络接口将断开然后重新连接,这会重置广播计数器,从而导致网络统计信息的表示不正确。

    本版本已解决该问题。
  • 由于 ESXi TCP/IP 堆栈中存在争用情况,因此 ESXi 主机可能出现故障,并显示紫色屏幕
    ESXi 主机可能出现故障并显示紫色屏幕,同时显示类似下列内容的错误消息:
    2013-02-22T15:33:14.296Z cpu8:4104)@BlueScreen:#PF Exception 14 in world 4104:idle8 IP 0x4180083e796b addr 0x1
    2013-02-22T15:33:14.296Z cpu8:4104)Code start:0x418007c00000 VMK uptime:58:11:48:48.394
    2013-02-22T15:33:14.298Z cpu8:4104)0x412200207778:[0x4180083e796b]ether_output@ # +0x4e stack:0x41000d44f360
    2013-02-22T15:33:14.299Z cpu8:4104)0x4122002078b8:[0x4180083f759d]arpintr@ # +0xa9c stack:0x4100241a4e00
    此问题是由于在 ESXi TCP/IP 堆栈中存在争用情况所致。

    本版本已解决该问题。
  • 通过第 3 层路由网络连接的 NFS 数据存储可能会对所运行的 IOPS 较低的虚拟机表现出较高的 GAVG
    如果通过第 3 层路由网络连接 NFS 数据存储,并且 NFS vmknic 与 NFS 文件管理器位于不同的子网,则数据存储可能会对所运行的虚拟机表现出较高的客户机平均延迟 (GAVG)。当每秒 I/O 操作数 (IOPS) 较低时,将出现此问题。如果 IOPS 值等于或小于 1,则 NFS 数据存储的 GAVG 值可能会高达 40ms。发送高 I/O 负载时,NFS 数据存储的 GAVG 值将变小。

    本版本已解决该问题。
  • 尝试获取 VMXNET3 网卡的永久 MAC 地址可能失败
    当使用 ETHTOOL_GPERMADDR ioctl 获取 VMXNET3 网卡的永久 MAC 地址时,如果 Linux 内核版本在 2.6.13 与 2.6.23 之间,则获取不到任何结果。如果 Linux 内核版本高于 2.6.23,则返回的 MAC 地址包含的都是零。

    本版本已解决该问题。
  • 使用 e1000 网卡驱动程序的虚拟机置于 D3 挂起模式时可能出现故障
    当使用 e1000 网卡驱动程序的客户机操作系统置于 D3 挂起模式时,虚拟机可能出现故障,并向 vmware.log文件中写入类似下列内容的错误消息:

    2013-08-20T10:14:35.121Z[+13.605]| vcpu-0| SymBacktrace[2] 000003ffff023be0 rip=000000000039d00f
    2013-08-20T10:14:35.121Z[+13.606]| vcpu-0| Unexpected signal:11
    使用 IP 别名并且 IP 地址数超出 10 个的虚拟机会出现此问题。

    本版本已解决该问题。
  • 使用 VMXNET3 网络适配器的 Solaris 虚拟机可能会在日志文件中反复报告消息
    当来自 Solaris 虚拟机的消息的碎片过多以至于 TX 环无法容纳时,VMXNET3 网络适配器会在日志文件中反复报告以下消息:

    last message repeated 274 times
    vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    last message repeated 399 times
    vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    last message repeated 398 times
    vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    last message repeated 393 times
    vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)
    last message repeated 399 times
    vmxnet3s:[ID 450982 kern.notice] vmxnet3s:0:overfragmented mp (16)

    本版本已解决该问题。
  • 如果 vSphere Client 网络连接中断,则访问客户端设备 CD-ROM 的虚拟机可能停止响应
    如果在虚拟机使用客户端设备 CD-ROM 时 vSphere Client 网络连接中断,则虚拟机可能停止响应,并且有时无法在网络上对其进行访问。

    本版本已解决该问题。
  • Linux 命令 ip link 或 ip addr 可能将 VMXNET3 适配器的链路状态显示为 Unknown 而非 UP
    在客户机操作系统上创建 VMXNET3 适配器时,Linux 命令 ip link或 ip addr可能会将链路状态显示为 Unknown而非 Up。
    当适配器的默认链路状态设置为 carrier ok模式,从而不更新操作状态时,会出现此问题。

    本版本已通过将适配器的默认链路状态设置为 no carrier模式解决了该问题。
  • 虚拟机在重新启动或迁移后,与网络的连接可能会断开
    当使用 vShield Endpoint 和 Deep Security 时,DvFilter 模块的一个问题可能导致 netGPHeap 消耗和内存泄露。 这可能导致虚拟机在重新启动或使用 vMotion 迁移后与网络断开连接。
    日志文件可能显示类似下列内容的消息:
    2012-11-30T11:29:06.368Z cpu18:923386)WARNING:E1000:8526: failed to enable port 0x30001b6 on vSwitch1:Out of memory

    本版本已解决该问题。
  • 在混杂模式下使用虚拟网络适配器时,虚拟机可能无法监控出站网络通信
    如果在混杂模式下使用虚拟网络适配器跟踪网络活动,则端口镜像功能出现的特定问题可能会将镜像端口禁用,并使虚拟机停止跟踪出站网络通信。

    本版本已解决该问题。

安全

  • 更新 OpenSSL 库解决了多个安全问题
    ESXi userworld OpenSSL 库已更新到版本 openssl-0.9.8y,可解决多个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 分配的名称为 CVE-2013-0169CVE-2013-0166
  • 更新 libxml2 库解决了一个安全问题
    ESXi userworld libxml2 库已更新,可解决一个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 分配给此问题的名称为 CVE-2013-0338
  • 更新 libxslt
    ESXi userworld libxslt包已更新。
  • VMware ESXi 和 ESX 在 hostd-vmdb 中包含一个漏洞
    要利用此漏洞,攻击者必须拦截并修改管理流量。利用此问题可能导致 hostd-vmdb服务拒绝服务。
    常见漏洞与暴露方案 (cve.mitre.org) 分配给此问题的名称为 CVE-2013-5970

服务器配置

  • IBM System x iDataPlex dx360 M3 服务器的性能图表显示电源使用量为 0 瓦特的常量值
    当查看与 IBM System x iDataPlex dx360 M3 的电源使用量相关的性能图表时,该图表显示 0 瓦特的常量值。此问题是由于 IBM System x iDataPlex dx360 M3 服务器所使用的 IPMI 传感器 ID 发生了更改所致。

    本版本已解决该问题。
  • Red Hat Enterprise Linux 4.8 32 位虚拟机在 ESXi 5.0 上显示的平均负载高于在 ESX/ESXi 4.0 上显示的平均负载
    Red Hat Enterprise Linux 4.8 32 位虚拟机的工作负载在大部分时间空闲、只是间歇性或同时唤醒多个任务的情况下,在 ESXi 5.0 上比在 ESX/ESXi 4.0 上显示的平均负载可能更高。

    本版本已解决该问题。
  • 在 vCenter Server 中添加 ESXi 服务器时,可能有多个 ESXi 服务器停止响应
    尝试将 ESXi 服务器添加到 vCenter Server 中时,可能有多个 ESXi 服务器停止响应,并可能显示类似下列内容的错误消息:
    无法访问指定主机,该主机不存在,服务器软件无响应,或者存在网络问题 (Unable to access the specified host, either it doesn't exist, the server software is not responding, or there is a network problem)。
    当向 hostd 发送大量 HTTP URL 请求而 hostd 服务失败时,会出现此问题。

    本版本已解决该问题。
  • 可能无法重新引导已从 ESX/ESXi 3.5 迁移到 ESXi 5.0 的虚拟机
    多个虚拟机可能无法重新引导并在重新引导后生成 VMX 核心文件。在已经使用 vMotion 从 ESX/ESXi 3.5 主机迁移到版本为 ESX/ESXi 4.0 Update 2、ESX/ESXi 4.1 Update 2、ESXi 5.0 Update 2 以及更高版本的 ESX/ESXi 主机的虚拟机上会出现此问题。

    本版本已解决了 ESXi 5.0 主机的这一问题。
  • 主机合规性检查失败,并出现一个与提取指示配置相关的错误
    当系统中存在一个无效的 CIM 订阅,并且您对主机执行主机配置文件合规性检查时,可能显示类似下列内容的错误消息:

    提取指示配置时出错:(6, u“无法找到请求的对象”) (Error extracting indication configuration: (6, u'The requested object could not be found'))

    您无法在该主机上应用主机配置文件。

    本版本已解决该问题。即使主机配置文件中存在无效的指示,您也可以应用主机配置文件。
  • 当您使用直接控制台用户界面关闭或重新引导 ESXi 主机时,该主机无响应
    当您尝试通过直接控制台用户界面 (DCUI) 关闭或重新引导 ESXi 主机时,该主机停止响应,且用户无法完成关闭过程。

    本版本已解决该问题。
  • 尝试应用复杂的主机配置文件可能导致超时
    当您应用复杂的主机配置文件(例如,包含大量端口组和数据存储的主机配置文件)时,操作可能会超时,并显示类似下列内容的错误消息:
    2013-04-09T15:27:38.562Z [4048CB90 info 'Default' opID=12DA4C3C-0000057F-ee] [VpxLRO] -- ERROR task-302 -- -- vim.profile.host.profileEngine.HostProfileManager.applyHostConfig:vmodl.fault.SystemError:
    --> Result:
    --> (vmodl.fault.SystemError) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> reason = "",
    --> msg = "A general system error occurred:",
    --> }
    hostd 默认超时值为 10 分钟。由于 applyHostConfig 不是一种渐进式任务,因此 hostd 服务无法在 hostd 超时期间区分已失败的任务与长时间运行的任务。因此,hostd 服务将报告 applyHostConfig 已失败。

    本版本已通过在 HostProfileManager Managed Object 中设置 30 分钟的超时值而解决了该问题。但是,当您尝试应用大型主机配置文件,并且任务可能超出 30 分钟的超时限制时,此问题可能仍会发生。要解决此问题,请重新应用主机配置文件。
  • 如果 hostd 失败,ESXi 主机与 vCenter Server 的连接可能断开
    当 hostd 失败并显示类似下列内容的错误消息时,ESXi 主机与 vCenter Server 的连接可能断开:
    2013-06-04T11:47:30.242Z [6AF85B90 info 'ha-eventmgr'] 事件 110:/sbin/hostd 已崩溃 (目前 1 次),可能已在 /var/core/hostd-worker-zdump.000 创建核心文件。这可能导致与主机的连接被删除 (2013-06-04T11:47:30.242Z [6AF85B90 info 'ha-eventmgr'] Event 110 : /sbin/hostd crashed (1 time(s) so far) and a core file might have been created at/var/core/hostd-worker-zdump.000. This might have caused connections to the host to be dropped)。
    当执行检查以确保缓存配置正确时,会出现此问题。

    本版本已解决该问题。
  • 执行 ESXCLI 命令或使用依赖于 SNMP 代理的监控工具时,与 ESXi 主机的连接可能会丢失
    当您执行 ESXCLI 命令,或者如果您使用依赖于来自 ESXi 中 SNMP 代理的数据的监控工具,则可能会由于 hostd 服务出现故障而导致与 ESXi 主机的连接丢失。

    本版本已解决该问题。
  • 无法为 Active Directory 用户和组分配权限
    将 ESXi 5.0 主机添加到 Active Directory (AD) 域后,尝试为 AD 用户和组分配权限可能失败。您无法在用于为 AD 用户和组添加权限的下拉菜单中查看已将主机加入其中的域。发生此问题的原因是,主机上的 lsassd服务停止运行。 lsassd.log文件显示类似下列内容的条目:

    20111209140859:DEBUG:0xff92a440:[AD_DsEnumerateDomainTrusts() /build/mts/release/bora-396388/likewise/esxi-esxi/src/linux/lsass/server/auth-providers/ad-provider/adnetapi.c:1127] Failed to enumerate trusts at host.your.domain.name.net (error 59)
    20111209140859:DEBUG:0xff92a440:[AD_DsEnumerateDomainTrusts() /build/mts/release/bora-396388/likewise/esxi-esxi/src/linux/lsass/server/auth-providers/ad-provider/adnetapi.c:1141] Error code:40096 (symbol:LW_ERROR_ENUM_DOMAIN_TRUSTS_FAILED)

    本版本已解决该问题。
  • 由于缓冲区溢出以及 hpsc proc 处理程序中存在截断,ESXi 主机出现故障并显示紫色诊断屏幕
    当您在包含 40 个或数量更多的逻辑单元的 HP Smart Array 控制器中运行 cat 命令时,ESXi 主机出现故障,并显示紫色诊断屏幕。此问题是由于缓冲区溢出和 hpsc 处理程序中的数据截断所导致。

    本版本已解决该问题。
  • 从 SAN 引导时,可能需要较长时间发现引导设备,具体视网络带宽而定
    当您从 SAN 引导时,可能需要更多时间来完成引导设备发现进程。如果在引导进程之前向 ESX 命令行传递一个重新扫描超时参数,则用户可以配置超时值,从而使该问题得到解决。

    本版本已解决该问题。
  • 由于出现与内存相关的错误,ESXi 主机可能会停止在日志文件中记录消息
    如果为日志记录资源池分配的内存不足,可能会导致 ESXi 停止在日志文件中记录消息。日志文件中将显示类似下列内容的消息:

    <TimeStamp> vmsyslog.main :ERROR ] Watchdog 2625 fired (child 2626 died with status 256)!
    <TimeStamp> vmsyslog :CRITICAL] vmsyslogd daemon starting (69267)
    <TimeStamp> vmsyslog.main :ERROR ] Watchdog 2625 exiting
    <TimeStamp> vmsyslog.loggers.file :ERROR ] Gzip logfile /scratch/log/hostd0.gz failed
    <TimeStamp> vmsyslog.main :ERROR ] failed to write log, disabling
    <TimeStamp> vmsyslog.main :ERROR ] failed to send vob:[Errno 28] No space left on device

    本版本已解决该问题。日志记录内存池限制已增至 48MB。
  • 在 DHCP 服务器上除 vmk0 之外的 VMkernel 网络接口失去其 IP 解除绑定
    当 VMkernel 接口已从另一个子网中的 DHCP 服务器获得了其 IP 租约时,DHCP 服务器可能显示类似下列内容的错误消息:
    2012-08-29T21:36:24Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:36:35Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:36:49Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:08Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:24Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:39Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:37:52Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:01Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:19Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:29Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:41Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:38:53Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:39:09Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67
    2012-08-29T21:39:24Z dhclient-uw[4884]:DHCPREQUEST on vmk1 to 192.168.2.210 port 67

    如果为 DHCP 服务器提供一个位于 VMkernel 端口所在子网中的接口,以允许 DHCP 续订,则可以解决此问题。

    本版本已解决该问题
  • 如果虚拟机监控程序返回无效的计算机页号,则 VMKernel 将失败
    如果 VMX 传递一个 VPN 值以读取页面,VMKernel 将无法找到该 VPN 值的有效计算机页号,这将导致主机出现故障,并显示紫色诊断屏幕。

    本版本已解决该问题。
  • ESX 主机可能会由于从环境堆为触发跟踪分配内存失败而出现故障
    ESX 主机可能会出现故障并显示紫色诊断屏幕,原因是从环境堆为触发跟踪(vmkernel 使用的一种机制,用于在客户机页面上写入跟踪后进行备份)分配内存失败。如果未正确处理内存分配失败的情况,则会出现此问题。

    本版本已解决该问题。
  • 在 ESXi 主机上运行 esxcfg-nas命令导致出现 PREF 警告
    当您运行 esxcfg-nas -l命令时,ESXi 主机显示类似下列内容的警告消息:
    PREF 警告:PreferenceGet(libdir) 在 Preference_Init 之前,是否确实要使用默认设置? (PREF Warning: PreferenceGet(libdir) before Preference_Init, do you really want to use default?)

    本版本已解决该问题。
  • 执行 hostd 性能测试导致回归问题
    在 hostd 性能测试期间,如果执行某些虚拟机操作(例如,创建 n 个虚拟机、重新配置 n 个虚拟机和清除 n 个虚拟机),可能会导致回归问题。 出现这种情况是因为已为每个 vdiskupdate 消息处理了数据存储刷新调用。修改数据存储刷新逻辑可解决此问题。

    本版本已解决该问题。
  • ESXi 主机在 syslog.log 文件显示与存储相关的未知消息
    当 vpxa 写入的 syslog 条目超出 1024 时,其会将超出 1024 字节的消息主体归为未知类别,并将这些消息主体放入 syslog.log文件而非 vpxa.log文件中。因此,ESXi 主机在 syslog.log文件中显示与存储相关的未知消息。在此版本中,行缓冲区限制已增加以解决此问题。

    本版本已解决该问题。

存储器

  • 迁移延迟置零厚磁盘时,ESXi 可能会出现性能问题
    与传输同样大小内容的其他磁盘相比,某些延迟置零厚磁盘在一些 ESXi 上的迁移速度可能很慢。当文件系统缓存(缓冲区缓存)的内存页面在内存的第一个 2 MB 区域内时,会出现该问题。因此,ESXi 的迁移速度变慢。

    本版本已解决该问题。
  • 当您在群集中添加新主机时,ESXi 主机出现故障并显示紫色诊断屏幕
    在群集中添加新主机并重新配置 High Availability 时,ESXi 主机出现故障,并显示紫色诊断屏幕。
    本版本已解决该问题。
  • ESXi 主机可能因 LUN 元数据损坏而发生故障并显示紫色屏幕
    执行某些虚拟机操作时,与 LUN 元数据损坏相关的问题有时可能会导致 ESXi 主机发生故障,并显示紫色屏幕和类似以下内容的错误消息:
    @BlueScreen:#DE Exception 0 in world 4277:helper23-15 @ 0x41801edccb6e3:21:13:31.624 cpu7:4277)Code start:0x41801e600000
    VMK uptime:3:21:13:31.6243:21:13:31.625 cpu7:4277)0x417f805afed0:[0x41801edccb6e]Fil3_DirIoctl@esx:nover+0x389 stack:
    0x410007741f603:21:13:31.625 cpu7:4277)0x417f805aff10:[0x41801e820f99]FSS_Ioctl@vmkernel:nover+0x5c stack:
    0x2001cf5303:21:13:31.625 cpu7:4277)0x417f805aff90:[0x41801e6dcf03]HostFileIoctlFn@vmkernel:nover+0xe2 stack:
    0x417f805afff03:21:13:31.625 cpu7:4277)0x417f805afff0:[0x41801e629a5a]helpFunc@vmkernel:nover+0x501 stack:0x03:21:13:31.626 cpu7:4277)0x417f805afff8:[0x0] stack:0x0

    本版本已解决该问题。现在,LUN 元数据损坏时将提示错误消息。
  • NetApp 请求更新 SATP 声明规则,此规则可防止 iSCSI 进入无响应状态
    NetApp 请求更新 SATP 声明规则,此规则可防止逻辑单元号 (LUN) 发生预留冲突。更新后的 SATP 声明规则可使用重置选项清除 LUN 中的预留,并允许其他用户设置预留选项。

    本版本已解决该问题。
  • 如果 VMKlinux 错误地设置了设备状态,则 VMkernel 日志文件中可能会显示错误的“设备忙 (D:0x8)”状态消息
    如果 VMKlinux 错误地设置了设备状态,则类似以下内容的错误的 设备忙 (D:0x8)状态消息将写入 VMkernel 日志文件中:
    2013-04-04T17:56:47.668Z cpu0:4012)ScsiDeviceIO:SCSICompleteDeviceCommand:2311:Cmd(0x412441541f80) 0x16, CmdSN 0x1c9f from world 0 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x0 D:0x8 P:0x0 Possible sense data:0x0 0x0 0x0
    这将生成无效警报,因为存储阵列不会针对 SCSI 命令发送任何“设备忙”状态消息。
    本版本已针对设备驱动程序的问题正确地指出“主机总线忙 (H:0x2)”状态消息,解决了该问题,所显示的状态消息类似以下内容:
    2013-04-04T13:16:27.300Z cpu12:4008)ScsiDeviceIO:SCSICompleteDeviceCommand:2311:Cmd(0x4124819c2f00) 0x2a, CmdSN 0xfffffa80043a2350 from world 4697 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x2 D:0x0 P:0x0 Possible sense data:0x0 0x0 0x0

  • 本版本已解决该问题。
  • 厚置备的 2TB 虚拟机磁盘大小在数据存储浏览器中显示为 0 字节。
  • 创建大小为 2TB 的虚拟机厚磁盘文件 (VMDK) 时,数据存储浏览器错误地将 VMDK 磁盘大小报告为 0.00 字节。
    本版本已解决该问题。
  • 克隆并冷迁移含有大型 VMDK 文件和快照文件的虚拟机可能会失败
    您可能无法克隆含有大型虚拟机磁盘 (VMDK) 文件和快照文件的虚拟机并将其冷迁移到其他数据存储。当 vpxa 进程在冷迁移过程中超出内存分配限值时会出现该问题。因此,ESXi 主机会断开与 vCenter Server 的连接,并且迁移失败。

    本版本已解决该问题。
  • 当 NFS 数据存储的已置备空间值计算错误时,可能会生成无效警报
    在某些情况下,NFS 数据存储的已置备空间值可能会计算错误,这可能会生成无效警报。

    本版本已解决该问题。
  • 在 VMFS 数据存储创建过程中,vCenter Server 或 vSphere Client 可能会与 ESXi 主机断开连接
    在 VMFS 数据存储创建过程中,vCenter Server 或 vSphere Client 可能会与 ESXi 主机断开连接。当主机失败,并在主机日志中显示类似以下内容的错误消息时,会出现该问题:
    Panic:Assert Failed:\\\"matchingPart != __null\\\"
    在某些分区配置要求分区对齐的磁盘上创建 VMFS 数据存储的过程中,主机进程失败。

    本版本已解决该问题。
  • Microsoft 故障切换群集 I/O 在执行存储容错后失败
    Microsoft 故障切换群集 I/O 在执行存储容错后失败,并且 I/O 失败可能会引发预留冲突。当两个故障切换群集虚拟机被置于两台不同的 ESXi 主机上,且存储阵列在 ALUA 配置下运行时,会出现该问题。

    本版本已解决该问题。
  • 无法挂载远程路径名称中包含 115 个或更多字符的 NFS 数据存储
    您可能无法挂载远程路径名称中包含 115 个或更多字符的 NFS 数据存储。将显示类似于以下内容的错误消息:
    无法获取用于挂载的控制台路径 (Unable to get Console path for Mount)

    ESXi 主机将 NAS 卷维护为 NFS 服务器 IP 地址和导出的共享的完整路径名的组合。此组合超过 128 个字符时,会出现该问题。

    本版本中已通过将 NAS 卷大小增加到 1024 解决了该问题。
  • 在对大量 VMFS 快照卷进行重新签名时,ESXi 主机可能会停止来自 vCenter Server 的响应
    在对大量虚拟机文件系统 (VMFS) 快照卷进行重新签名时,ESXi 主机可能会间歇性地停止响应或断开与 vCenter Server 的连接。

    本版本已解决该问题。

升级和安装

  • 根据仅具有重新引导影响的公告进行的主机修复将失败
    在根据修补程序基准修复 ESXi 主机的过程中,当基准中包含仅具有重新引导影响的公告时,Update Manager 不会关闭该主机上的虚拟机的电源或挂起虚拟机。这将导致主机无法进入维护模式,并且修复操作无法完成。

    此问题已在本版本及更高版本创建的公告中得到解决。
  • 尝试升级 ESXi 主机时,在引导设备上找不到 state.tgz 备份文件
    当尝试使用 ISO 映像升级 ESXi 主机时,您可能会在引导设备上找不到 state.tgz备份文件。
    如果由于升级前未正常关闭计算机而导致 state.tgz备份文件未更新,则会出现此问题。因此,重置 ESXi 许可证时将显示 无此类文件 (No such a file)异常错误消息。

    本版本已解决该问题。
  • esxcli 命令无法处理包含空格或圆括号的数据存储名称
    esxcli 命令以错误的方式处理包含空格或圆括号的数据存储名称。当用户尝试使用 esxcli 命令升级 ESXi 时,会出现该问题。

    本版本已解决该问题。
  • 在将多个 ESXi 4.x 升级到 ESXi 5.x 时,Syslog 服务器配置可能未迁移到新配置
    在 ESXi 4.x 中, Syslog.Local.DatastorePath路径的配置存储在 /etc/syslog.conf文件中。
    但是,在 ESXi 5.x 中, /etc/syslog.conf文件被替换为 /etc/vmsyslog.conf文件,并且 Syslog.global.logDir目录的配置存储在 /etc/vmsyslog.conf文件中。
    因此, /etc/syslog.conf文件中的 logfile和 loghost属性的 Syslog 服务器配置未迁移到新 /etc/vmsyslog.conf文件中新配置的 logdir和 loghost属性。所以,在将多个 ESXi 4.x 服务器升级到 ESXi 5.x 服务器时,每次升级完成之后都需要手动配置 Syslog.global.logDir目录。

    本版本通过使用以下方式更新属性解决了该问题:
    1. /etc/syslog.conf文件中的 loghost属性将在新的 /etc/vmsyslog.conf文件中保留。
    2. logfile属性现在不再有效。该属性将迁移到新 /etc/vmsyslog.conf文件中的 logdir属性。 logdir属性的值是旧 logfile属性值的目录名称。仅当目录在已升级的系统上仍然有效时才可执行此迁移。
  • 尝试使用 vCenter Update Manager 升级 HA 群集中的 ESXi 主机可能会失败
    使用 vCenter Update Manager (VUM) 升级 High Availability (HA) 群集中的 ESXi 主机可能会失败,并显示类似于以下内容的错误消息:
    主机返回了 esx 更新错误代码 7 (the host returned esx update error code 7)
    当在 Update Manager 中使用不同基准执行多个转储操作时,可能出现该问题。

    本版本已解决该问题。
  • 如果有任何 USB 驱动器的文件系统类型不是 Fat16 或 Fat32,从已连接的 USB 驱动器进行脚本式 ESXi 安装或升级可能会失败
    当多个 USB 闪存驱动器连接到 ESXi 主机时,如果其中任何具有 MS-DOS 分区的 USB 驱动器的文件系统类型不是 fat16 或 fat32,使用 ks=usb引导选项进行脚本式 ESXi 安装或升级可能会失败,并显示异常错误。

    本版本已解决该问题。

vCenter Server 和 vSphere Client

  • 对于虚拟机和已启用 VAAI 的主机上的 NFS 或 NAS 数据存储,[摘要] 选项卡可能会显示不正确的已置备空间值
    在已启用 VAAI 的 ESXi 主机中,如果在受 VAAI 支持的 NAS 上创建格式为厚置备延迟置零的虚拟磁盘,则相应的虚拟机和数据存储的已置备空间可能会错误显示。

    本版本已解决该问题。
  • 自定义性能图表不会提供用于显示虚拟机对象的虚拟磁盘图表的选项
    使用虚拟磁盘衡量指标查看性能图表时,仅可查看可用虚拟磁盘对象的虚拟磁盘性能图表。

    此版本也允许您查看虚拟机对象的虚拟磁盘性能图表。在需要基于虚拟机使用虚拟磁盘的情况触发警报时,这将非常有用。

虚拟机管理

  • 虚拟机在其 VMDK 文件无法访问时,将无法打开电源
    在 ESXi 主机上,如果虚拟机的 VMDK 文件无法访问,而且其 VMX 文件的 disk.powerOnWithDisabledDisk设置为 [TRUE], answer.msg.disk.notConfigured设置为 [是],则虚拟机将无法打开电源。将显示以下错误消息:
    系统找不到指定的文件 (The system cannot find the file specified)。

    本版本已解决该问题。
  • 生成静默快照之后,将不会更新虚拟机的 VMX 文件
    生成虚拟机的静默快照之后,直到再一次打开虚拟机电源时,才会更新 vmx 文件。 vmx配置已过期,且指向原始 VMDK。如果虚拟机在快照操作和下一次打开电源的过程中失败,则将出现数据丢失,且 VMDK 将置于孤立状态。

    本版本已解决该问题。
  • 尝试在虚拟机上安装 Linux 可能会失败
    将软盘映像附加到虚拟机后,尝试在虚拟机上安装 Linux 操作系统可能会失败。
    vmware.log文件中可能包含类似于以下内容的条目:

    RemoteFloppyVMX:Remote cmd uid 0 timed out.
    | vcpu-3| Caught signal 11 -- tid 115057
    | vcpu-3| SIGNAL:eip 0x1f5c2eca esp 0xcaf10da0 ebp 0xcaf10e00
    | vcpu-3| SIGNAL:eax 0x0 ebx 0x201826a0 ecx 0x593faa10 edx 0x201d63b0 esi 0x0 edi 0x593faa00
    | vcpu-3| r8 0x593faa00 r9 0x0 r10 0x1fd79f87 r11 0x293 r12 0x2022d000 r13 0x0 r14 0x0 r15 0x1fd6eba0
    | vcpu-3| Backtrace:
    | vcpu-3| Backtrace[0] 00000000caf109a0 rip=000000001f8caf9e rbx=000000001f8cad70 rbp=00000000caf109c0 r12=0000000000000000 r13=00000000caf198c8 r14=00000000caf10b50 r15=0000000000000080
    ....
    | vcpu-3| SymBacktrace[2] 00000000caf10ad0 rip=000000000038c00f
    | vcpu-3| Unexpected signal:11.
    | vcpu-3| Writing monitor corefile "/vmfs/volumes/519f119b-e52d3cf3-6825-001999db3236/EMS/vmmcores.gz"

    本版本已解决该问题。
  • 虚拟机监控程序中的页面错误导致出现 ESXi 主机故障
    虚拟机监控程序中的页面错误可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕,同时在 vmware.log 中报告类似以下内容的页面错误异常错误消息:
    2013-05-15T12:48:25.195Z| vcpu-1| W110:A core file is available in "/vmfs/volumes/5088c935-f71201bf-d750-90b11c033174/BF-TS5/vmx-zdump.000" 2013-05-15T12:48:25.196Z| vcpu-1| I120:Msg_Post:Error 2013-05-15T12:48:25.196Z| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1) 2013-05-15T12:48:25.196Z| vcpu-1| I120+ vcpu-1:VMM fault 14:src=MONITOR rip=0xfffffffffc243748 regs=0xfffffffffc008e98 2013-05-15T12:48:25.196Z| vcpu-1| I120:[msg.panic.haveLog] A log file is available in "/vmfs/volumes/5088c935-f71201bf-d750-90b11c033174/BF-TS5/vmware.log".2013-05-15T12:48:25.196Z| vcpu-1| I120:[msg.panic.requestSupport.withoutLog] You can request support.2013-05-15T12:48:25.196Z| vcpu-1| I120:[msg.panic.requestSupport.vmSupport.vmx86] 2013-05-15T12:48:25.196Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".2013-05-15T12:48:25.196Z| vcpu-1| I120:[msg.panic.response] We will respond on the basis of your support entitlement.2013-05-15T12:48:25.196Z| vcpu-1| I120:

    本版本已解决该问题。


  • 执行与虚拟磁盘相关的操作时,虚拟机可能无法启动
    与虚拟磁盘相关的 I/O 操作(特别是与 CDROM 存取重试相关的操作)可能会导致虚拟机无法启动。
    日志文件可能包含类似以下内容的条目:
    <Time_Stamp> vmx| [msg.vmxaiomgr.retrycontabort.rudeunplug] The operation on file "/vmfs/volumes/16b2bd7c-1d66d7ef/VMware/VMware-VIMSetup-all-5.1.0-947939.iso" failed.
    <Time_Stamp> vmx| --> If the file resides on a remote file system, make sure that the network connection and the server where this disk resides are functioning properly.If the file resides on removable media, reattach the media.
    <Time_Stamp> vmx| --> Select Retry to attempt the operation again.
    ...
    Followed by:

    <Time_Stamp> vmx| MsgQuestion:msg.vmxaiomgr.retrycontabort.rudeunplug reply=0
    <Time_Stamp> vmx| VMXAIOMGR:Reopening /vmfs/volumes/16b2bd7c-1d66d7ef/VMware/VMware-VIMSetup-all-5.1.0-947939.iso and retrying outstanding IOs
    ...

    本版本已解决该问题。

  • 尝试以 OVF 格式导出虚拟机失败,并出现超时错误
    尝试以开放虚拟化格式 (OVF) 导出虚拟机时,如果该虚拟机的磁盘上具有很大部分的空白块(例如 210GB 或更大),并且使用 Ext 2 或 Ext 3 文件系统,操作将超时。

    本版本已解决该问题。

vMotion 和 Storage vMotion

  • 在已启用 CBT 的虚拟机上,使用 vMotion 将 VMDK 移至另一个卷后, QueryChangedDiskAreas的增量备份可能会失败,并出现 FileFault 错误
    在虚拟机上启用更改块跟踪 (CBT),并且在使用 vMotion 将虚拟机磁盘 (VMDK) 移至另一个卷后执行 QueryChangedDiskAreas时,增量备份可能会失败,并显示类似于以下内容的 FileFault 错误:
    2012-09-04T11:56:17.846+02:00 [03616 info 'Default' opID=52dc4afb] [VpxLRO] -- ERROR task-internal-4118 -- vm-26512 -- vim.VirtualMachine.queryChangedDiskAreas:vim.fault.FileFault:
    --> Result:
    --> (vim.fault.FileFault) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> file = "/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> msg = "Error caused by file /vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> }
    当库功能错误地重新初始化磁盘更改跟踪设施时将出现此问题。

    本版本已解决该问题。
  • 存储容量为 2TB 的虚拟机的 Storage vMotion 操作可能会失败
    使用 Storage vMotion 迁移存储容量为 2TB(例如,两个 1TB 磁盘)的虚拟机时,将显示类似于以下内容的错误消息:
    出现了常规系统错误: 源已检测到无法恢复目标 (A general system error occurred: Source detected that destination failed to resume)。

    虚拟机无法在目标主机上启动,并显示类似于以下内容的错误消息:
    错误:“VMware ESX 不可恢复性错误:(vmx) 意外信号 8”(Error: "VMware ESX unrecoverable error: (vmx) Unexpected signal 8")。

    本版本已解决该问题。

VMware HA 和 Fault Tolerance

  • 对于启用 HA 的 ESXi 主机,将虚拟机故障切换到指定的故障切换主机可能会失败
    在 ESXi 主机上启用 High Availability (HA) 并执行 vMotion 后,将虚拟机故障切换到指定的故障切换主机可能会失败。
    当虚拟机交换文件(.vswp 文件)被锁定并导致 HA 的故障域管理器 (FDM) 代理无法在指定的主机上成功进行故障切换时,将出现此问题。

    本版本已解决该问题。

VMware Tools

  • 虚拟机通信接口驱动程序无法在 Linux 内核 3.8.0-rc3+ 上进行编译
    在 Linux 内核 3.8.0-rc3+ 上安装 VMware Tools 时,VMCI 驱动程序无法进行编译。从内核中移除某些 Linux 驱动程序可解决此问题。

    本版本已解决该问题。
  • 在 CentOS 6.4 32 位的虚拟机上安装 VMware Tools 后,系统会反复重新启动
    在 CentOS 6.4 32 位虚拟机上安装 VMware Tools 并重新引导虚拟机后,虚拟机会反复重新启动。由于内核不兼容,因此会出现该问题。

    本版本已解决该问题。
  • 升级 VMware Tools 后,SMVI 可能无法备份计算机
    升级 VMware Tools 后,NetApp SnapManager for Virtual Infrastructure (SMVI) 可能无法备份计算机。此外,创建静默快照可能会失败,并显示类似以下内容的错误消息:
    无法创建静默快照,因为创建快照操作超过了拖延已冻结虚拟机中 I/O 的时限。

    Windows Server 2008、Windows Server 2008 R2 和 Windows Server 2012 虚拟机中会出现此问题。Windows 2003 虚拟机中不会出现此问题。

    本版本已解决此问题。
  • 在某些虚拟机上,NetIpConfigInfoIpAddress 数据对象的 prefixLength 属性所显示的子网掩码信息可能不正确
    数据对象 NetIpConfigInfoIpAddress 提供了特定 IP 地址的相关信息。对于某些虚拟机,NetIpConfigInfoIpAddress 数据对象的 prefixLength 属性(用于表示一般 Internet 网络地址前缀的长度)可能会显示错误的子网掩码信息。
    在子网掩码计算中,如果 IP 地址字节顺序属性(用于确定计算机内存中字节的排列顺序)错误,则会出现此问题。
    在 Windows Server 2008 R2(64 位)和 Windows Server 2003 虚拟机中会出现此问题。

    本版本已解决该问题。
  • 安装 VMware Tools 之后,默认 SVGA 驱动程序可能会导致 Windows Server 2008 虚拟机停止响应
    安装 VMware Tools 之后,Windows Server 2008 虚拟机可能会在从系统登录页面启动重新启动操作时停止响应。如果与 VMware Tools 一同安装的 SVGA 驱动程序的默认设置不正确,则会出现此问题。如果在重新启动过程中移动鼠标并按任意键,虚拟机也可能会停止响应。

    本版本已解决该问题。
  • 使用操作系统特定软件包安装 VMware Tools 时,vmware-db.pl.* 文件将填满 /tmp/vmware 根目录
  • 使用 OSP 安装 VMware Tools 时,您可能会发现 /tmp/vmware-root目录中的日志文件数量不断增加。SUSE Linux Enterprise Server 11 Service Pack 2 和 Red Hat Enterprise Linux Server 6 中会出现此问题。

    本版本已解决该问题。
  • 使用 Linux 内核版本 3.7 及更高版本时,尝试安装 VMware Tools 可能会失败
    VMware Tools 安装脚本无法识别 Linux 内核版本 3.7 及更高版本和版本 3.8 的新内核头路径,因此无法编译 VMware Tools 驱动程序。此问题可能会导致尝试安装 VMware Tools 失败。

    本版本已解决该问题。
  • 缺少 IntallPath 注册表项时,VMware Tools 服务将会失败
    卸载 VMware Tools 过程中,观察到 vmusr进程可能会失败。由于卸载过程不等到 vmusr进程完成即会启动,因此会出现此问题。更具体地说,卸载过程会删除 vmusr进程稍后尝试读取的注册表项,导致 VMware Tools 服务失败。

    本版本已解决该问题。
  • 在 VMware Tools 更新中,vCenter 保护代理显示一条与未签名的可执行文件有关的警告消息
    尝试在 VMware Workstation 上执行 VMware Tools 更新时,vCenter 保护代理会显示一条弹出消息,指出使用了未签名的可执行文件。在已签名表单中包括该文件可解决此问题。

    本版本已解决该问题。
  • 在 Windows Vista 或更高版本的客户机操作系统上无法显示虚拟机处理器或虚拟机内存性能计数器的名称和说明
    在 Windows Vista 或更高版本的客户机操作系统上以管理用户身份配置远程性能日志时,Windows 性能监视器 (perfmon) 控制台中可能不会显示虚拟机处理器和虚拟机内存计数器的名称和说明。
    Windows 客户机操作系统的区域设置为 en_us 或 de 以外的其他语言时,会出现此问题。VMware Tools 8.3.1.2 版会出现此问题。

    本版本已解决该问题。
  • Oracle 5.x 内核的 Linux Tools 安装程序中可能缺少 UEK2-200 和 UEK-400 PBM
    Oracle 5.9 2.6.39-200/400 内核的 Linux Tools 安装程序中可能缺少 UEK2-200 和 UEK-400 PBM。

    本版本已解决该问题。
  • VMware Tools 已更新,为 SUSE Linux Enterprise Server 11 SP3 和 Oracle Linux 6.4 提供了预建模块

已知问题

下列已知问题是通过严格测试而发现的,可帮助您了解在此版本中可能遇到的某些行为。此问题列表仅与此版本的 ESXi 5.0 Update 3、ESXi 5.0 Update 2、ESXi 5.0 Update 1 和 ESXi 5.0 有关。先前版本中的某些已知问题可能也适用于此版本。如果遇到一个未在此已知问题列表中列出的问题,可以查看先前版本中的已知问题,搜索 VMware 知识库,或者通过提供反馈报告给我们。之前未记录的已知问题以 * 符号标记。

已知问题列表

已知问题按以下方式分组。

安装
  • 在安装 ESXi 5.0 Update 3 之后,显示多余的网络相关警告消息
    在安装 ESXi 5.0 Update 3 之后,ESXi 直接控制台用户界面 (DCUI) 显示类似于以下内容的警告消息:

    警告:DHCP 查找失败。在自定义其网络配置之前,您可能无法访问此系统 (Warning: DHCP look up failed. You may be unable to access this system until you customize its network configuration)

    但是,主机可以获取 DHCP IP,并可以 ping 其他主机。

    解决办法:此错误消息没有危害性,可以忽略。如果按键盘上的 Enter 键,此错误消息即会消失。

  • 在脚本式安装中,ESXi 安装程序不会在 ks 文件中为 part 命令应用 --fstype< 选项
    part命令的 --fstype选项在 ESXi 5.0 中已弃用。安装程序可接受 --fstype选项,而不显示错误消息,但不会创建由 --fstype选项指定的分区类型。默认情况下,安装程序在 ESXi 5.0 中始终创建 VMFS5 分区。您不能通过 part命令的 --fstype选项来指定其他分区。

  • 运行 Image Builder cmdlet 以在 PowerShell 1.0 中显示已修改的映像配置文件时缺少规则信息
    在 Microsoft PowerShell 1.0 上安装 vSphere PowerCLI 并将 OEM 软件包添加到映像配置文件后,在列出该映像配置文件时,有关规则属性的信息将缺失。

    解决办法:可通过查看映像配置文件对象的规则属性来访问规则信息。

  • 除非引导行命令对脚本文件名使用大写字符,否则从 CD 或 DVD 进行的脚本式 ESXi 安装或升级会失败
    使用安装或升级脚本(kickstart 文件)从写入到 CD 或 DVD 的 ESXi 5.0 安装程序 ISO 执行脚本式安装或升级时,安装程序只能识别大写字符的 kickstart 文件名,即使该文件是以小写字符命名的。例如,如果 kickstart 文件名为 ks.cfg并且您使用 ks=cdrom:/ks.cfg引导行命令来指定 kickstart 文件位置,则安装失败,并显示与以下内容类似的错误消息: HandledError: 错误(请参见日志以获得更多信息): 无法根据路径 -- /ks.cfg 在 cd-rom 上找到 kickstart 文件 (HandledError: Error (see log for more info): cannot find kickstart file on cd-rom with path -- /ks.cfg)。

    解决办法:在引导行命令中对 kickstart 文件名使用大写字符来指定 kickstart 文件,例如: ks=cdrom:/KS.CFG

  • 尝试使用相对路径 安装 VIB 时显示误导性错误消息
    当您尝试通过 esxcli software vib 命令来安装库、VIB 或配置文件时,如果指定相对路径,则操作将失败并显示以下错误消息: 找不到以下文件或目录:“/var/log/vmware/a.vib”(No such file or directory: '/var/log/vmware/a.vib')

    解决办法:执行安装时指定绝对路径。

  • 安装 vSphere Web Client 后,浏览器会打开并显示一个空白页面
    安装 vSphere Client 后,单击安装向导中的 [完成] 时,浏览器会打开并显示一个空白页面。页面始终保持空白,并且浏览器无法连接到 vSphere 管理应用程序。

    解决办法:关闭浏览器并从 [开始] 菜单启动 vSphere 管理应用程序页面。

升级

  • 在通过 vCenter Server 连接的 ESXi 主机上,无法使用 PowerCLI 应用 ESXi 5.0 Update 3 VIB
    在由 vCenter Server 管理的 ESXi 5.0 主机上,尝试在 PowerCLI 上使用 GET-ESXCLI命令应用 ESXi 5.0 Update 3 VIB 失败,并显示类似于以下内容的错误消息:
    2011-11-18T09:53:50Z esxupdate:root:ERROR:Traceback (most recent call last):
    2011-11-18T09:53:50Z esxupdate:root:ERROR:File "/usr/lib/vmware/esxcli-software", line 441, in <module>
    2011-11-18T09:53:50Z esxupdate:root:ERROR:main()
    2011-11-18T09:53:50Z esxupdate:root:ERROR:File "/usr/lib/vmware/esxcli-software", line 432, in main
    2011-11-18T09:53:50Z esxupdate:root:ERROR:ret = CMDTABLE[command](options)
    2011-11-18T09:53:50Z esxupdate:root:ERROR:File "/usr/lib/vmware/esxcli-software", line 329, in VibInstallCmd
    2011-11-18T09:53:50Z esxupdate:root:ERROR:raise Exception("No VIBs specified with -n/--vibname or -v/--viburl.")
    2011-11-18T09:53:50Z esxupdate:root:ERROR:Exception:No VIBs specified with -n/--vibname or -v/--viburl.

    解决办法:
  • 使用 ESXCLI 的实时更新失败,并显示 Vib 下载失败 (VibDownloadError) 消息
    当您依次执行下列任务时,需要重新引导的事务失败并显示 Vib 下载失败 (VibDownloadError)
    消息。

    1. 使用 esxcli software profile update或 esxcli vib update命令进行实时安装更新。
    2. 重新引导之前,执行一个需要重新引导的事务,但事务未成功完成。一个常见的可能故障是签名验证,只有在下载 VIB 后才能对其进行检查。
    3. 在没有重新引导主机的情况下,您尝试执行另一个需要重新引导的事务。事务失败并显示 Vib 下载错误 (VibDownloadError)消息。

     

    解决办法:执行下面的步骤以解决该问题。

    1. 重新引导 ESXi 主机以清理其状态。
    2. 再次执行实时安装。
  • 从 ESX/ESXi 4.x 到 ESXi 5.0 的脚本式升级过程中,MPX 和 VML 磁盘设备名称发生变化,这可能导致升级失败
    主机重新引导后,MPX 和 VML 磁盘设备名称可能发生变化。如果在脚本式升级中重新引导后名称发生变化,则升级可能会中断。

    解决办法:尽可能对磁盘设备使用网络地址授权标识符 (NAA ID)。对于其磁盘没有 NAA ID 的计算机,例如使用 CCISS 控制器的 Hewlett Packard 计算机,请从包含 ESXi 安装程序 ISO 的 CD 或 DVD 执行升级。另外,在脚本式升级中,您可以通过使用带有 --firstdisk=参数的 upgrade命令指定要升级的 ESX 或 ESXi 实例。安装和升级脚本命令在 《vSphere 安装和设置》《vSphere 升级》文档中有说明。

  • 如果 ESX 系统在没有 DHCP 服务的子网上使用手动分配的 IP 地址,则 ESX 控制台和 esxi_install.log报告在升级过程中无法获得 DHCP 地址
    如果具有手动分配的 IP 地址的 ESX 系统在没有 DHCP 服务器或 DHCP 服务器超出容量的子网中运行,会出现这种情况。在上述任一情况下,在 ESX 系统升级时,系统将暂停长达一分钟,尝试从 DHCP 服务器获取一个 IPv4 地址。

    解决办法:无。系统暂停长达一分钟后,它将继续以成功完成升级。系统可能会提示按 Enter 键继续。您可以按 Enter 键,也可以忽略提示。在这两种情况下,系统都会在暂停后继续进行升级。

网络

  • 无法在 ESXi 5.0 中探查设备 ID 为 0710 的 Emulex be2net 网络适配器(知识库文章 2041665

  • 包含通过 vCenter Server 4.x 创建的 vDS 配置的主机配置文件可能无法为无状态引导的 ESX 5.0 主机应用网关设置
    在将 vSphere Auto Deploy 与 4.x 主机配置文件配合使用时,可能无法为无状态引导的 ESX 5.0 主机应用网关设置。结果,这些主机会失去网络连接,并且不会自动添加到 vCenter Server 5.0。

    解决办法: 要使用包含 vDS 配置的 4.x 主机配置文件引导无状态 ESX 5.0 主机,请执行以下步骤:

    1. 引导使用 Auto Deploy 配置的 ESX 5.0 无状态主机,而不指定 4.x 主机配置文件。
    2. 在将无状态主机添加到 vCenter Server 5.0 之后,应用 4.x 主机配置文件。
    3. 通过无状态 ESX 5.0 引导主机创建新的主机配置文件。将新创建的主机配置文件与 vSphere Auto Deploy 配合使用来引导无状态 ESX 5.0 主机。

    要引导不包含 vDS 配置的 ESX 5.0 无状态主机,请使用不包含 vDS 设置的 4.x 主机配置文件。您也可以通过以下方式从 4.x 主机配置文件中禁用或删除 vDS 设置:

    使用位于 [主机配置文件] > [网络配置][启用/禁用配置文件配置] 选项从主机配置文件中禁用 vDS 及其关联端口组。使用位于 [主机配置文件] > [网络配置][编辑配置文件] 选项从主机配置文件中删除 vDS 及其关联端口组。

  • 服务控制台详细信息未显示在 [将主机添加到 vSphere Distributed] 向导和 [管理主机] 向导中
    向 Distributed Switch 添加 4.x ESX 主机时,在 [添加主机] 向导的 [网络连接] 页面上的 [虚拟适配器] 详细信息部分中,未显示服务控制台网络适配器的详细信息。通常情况下,MAC 地址、IP 地址及子网掩码应显示在此处。

    解决办法:要查看服务控制台网络适配器的详细信息,请退出 [添加主机] 或 [管理主机] 向导,然后导航至 vSphere Client 中的 [主机] > [配置] > [网络]。

    如果在标准交换机上部署了服务控制台网络适配器,则执行以下操作:

    1. 查找交换机。
    2. 单击 [属性...] 按钮。
    3. 选择服务控制台网络适配器。
      请记下显示在 VSS 图中的适配器名称。

     

    如果在 Distributed Switch 上部署了服务控制台网络适配器,则执行以下操作:

    1. 导航至 [vSphere Distributed Switch] 选项卡。
    2. 查找 Distributed Switch,然后选择 [管理虚拟适配器...]。
    3. 查找并选择服务控制台网络适配器。

     

  • ESXi Dump Collector 服务器以静默方式退出
    使用无效值配置 ESXi Dump Collector 服务器的端口时,该服务器将以静默方式退出,且不显示错误消息。由于此端口是 ESXi Dump Collector 服务器用于从 ESXi 主机接收核心转储的端口,因此这些静默退出会阻止收集 ESXi 主机核心转储。由于 ESXi Dump Collector 未向 vCenter Server 发送错误消息,因此 vSphere 管理员未意识到该问题。如果未得到解决,则这会影响 ESXi 主机出现故障时的可支持性。

    解决办法:仅从建议的端口范围内选择端口来配置 ESXi Dump Collector 服务器,从而避免出现此故障。建议使用默认端口。

  • 将版本为 QLE3142 的 10 G QLogic 网卡与 nx_nic 驱动程序配合使用会导致服务器在 gPXE 引导期间停止运行
    如果将版本为 QLE3142 的 10 G QLogic 网卡与 nx_nic 驱动程序配合使用,以进行 gPXE 引导进入 ESXi 无状态引导配置,则 ESXi Server 会停止运行且无法引导。

    解决办法:使用其他网卡进行 gPXE 引导。

  • 启用的 VMkernel 网络适配器超过 16 个会导致 vSphere vMotion 失败
    vSphere 5.0 具有一项限制,即为每个主机的 vMotion 启用的 VMkernel 网络适配器不得超过 16 个。如果为给定主机上的 vMotion 启用的 VMkernel 网络适配器超过 16 个,则该主机上的 vMotion 操作可能会失败。错误消息显示为: 正在拒绝初始化 17 个流 IP 条目的请求 (refusing request to initialize 17 stream ip entries),其中的数字指示为 vMotion 启用的 VMkernel 网络适配器的数目。

    解决办法:禁用 vMotion VMkernel 网络适配器,直到最多为 vMotion 启用 16 个。

  • Network I/O Control 会替代 ESXi 5.0 中传出数据包中的 802.1p 标记
    在 ESXi 5.0 中,Network I/O Control 消除了虚拟网络服务质量 (QoS) 和物理网络 QoS 之间的差距,让您可以针对每个资源池指定一个 802.1p 标记。
    此功能的一个缺点是每个资源池都有一个默认的 802.1p 标记 (0),即使尚未显式设置该标记。如果启用了 Network I/O Control,则当离开 ESXi 主机时,虚拟机内的服务等级 (CoS) 位标记会被覆盖。

    解决办法:无。您可以选择不使用 Network I/O Control。

  • 主机配置文件不支持纯 IPv6 的 VMkernel 网络适配器配置
    使用 vSphere Client 为主机配置文件设置 IP 配置时,您可以为 VMkernel 网络适配器设置纯 IPv4、纯 IPv6 或 IPv4 和 IPv6 混合设置。然而,主机配置文件不支持纯 IPv6 设置。如果您使用纯 IPv6 设置配置 VMkernel 网络适配器,会要求您在主机配置文件应答文件中提供 IPv4 配置。

    解决办法:执行以下任务之一:

    • 通过 vSphere Client 使用纯 IPv6 设置来配置 VMkernel 网络适配器,并且不使用主机配置文件。
    • 在创建和应用主机配置文件时需同时包括 VMkernel 网络适配器的 IPv6 和 IPv4 配置,并在应用配置文件后禁用 VMkernel 网络适配器的 IPv4 配置。

     

  • 某些 Cisco 交换机丢弃设置了优先位的数据包
    VMware vSphere Network I/O Control 允许您使用 802.1p 标记来标记传出流量。然而,如果带有标记的数据包在本机 VLAN (VLAN 0) 上发送,某些 Cisco 交换机(4948 和 6509)会丢弃这些数据包。

    解决办法:无。

  • 在 VLAN 配置和驱动程序加载过程中,在 ESXi 引导过程中出现重大延迟
    具有 BE2 或 BE3 接口的 ESXi 主机在驱动程序加载和 VLAN 配置过程中遇到重大延迟。延迟的长度随着主机上 BE2 和 BE3 接口数量的增加而增加,并且可以持续几分钟。

    解决办法:无。

  • 将网络资源池添加到 vSphere Distributed Switch 失败,并会显示以下错误消息: 无法为一个或多个主机成员完成 vSphere Distributed Switch 操作 (Cannot complete a vSphere Distributed Switch operation for one or more host members)
    此错误消息表明 Distributed Switch 上的一个或多个主机已经与最大数目的网络资源池相关联。一台主机上允许的网络资源池最大数目是 56 个。

    解决办法:无。

  • 将网络资源池添加到 vSphere Distributed Switch 失败,并会显示以下错误消息: vim.fault.LimitExceeded
    此错误消息表明该 Distributed Switch 已有最大数目的网络资源池。一个 vSphere Distributed Switch 上网络资源池的最大数目是 56 个。

    解决办法:无。

  • LLDP 不显示巨大交换机的系统名称
    默认情况下,不播发巨大交换机上的系统名称。除非在巨大交换机上明确设置为播发系统名称,否则 LLDP 无法显示此信息。

    解决办法:运行 configure lldp ports <port ID> advertise system-name 命令,以便在巨大交换机上播发系统名称。

  • 截断镜像数据包导致 ESXi 失败
    当镜像数据包长度超过了为端口镜像会话设置的镜像数据包长度时,ESXi 失败。截断数据包的其他操作也可能导致 ESXi 失败。

    解决办法:不要为端口镜像会话设置镜像数据包长度。

  • Fault Tolerance 与使用 vSphere vMotion 的 vSphere DirectPath I/O 不兼容
    在虚拟机上启用 Fault Tolerance 时,对于虚拟机上的所有虚拟适配器,使用 vMotion 的 DirectPath I/O 均为不活动状态。

    解决办法:首先禁用 Fault Tolerance 并重新引导虚拟机,然后通过 vMotion 启用 DirectPath I/O。

  • 使用 vSphere vMotion 的 vSphere DirectPath I/O 被基于 VMCI 的应用程序禁用
    在 Cisco UCS 系统上使用任何基于 VMCI 的应用程序时,DirectPath 在所有虚拟机网络适配器上无效。

    解决办法:停止使用所有基于 VMCI 的应用程序并重新引导虚拟机以恢复 vSphere DirectPath I/O。

存储器
  • 在对数据存储群集禁用 I/O 衡量指标后,I/O 滞后时间阈值显示为 15 毫秒
    在对数据存储群集禁用 I/O 衡量指标后,数据存储群集的 [摘要] 页面继续显示 I/O 滞后时间阈值为 15 毫秒(默认值)。

    解决办法:无。要查看正确的值,请选择 [数据存储群集] > [存储器]

  • 用于进入 SDRS 维护模式的链接出现在独立数据存储的 [摘要] 页面上
    只有作为数据存储群集一部分的数据存储才能顺利进入 Storage DRS 维护模式。然而,用于进入 Storage DRS 维护模式的链接出现在非数据存储群集中的数据存储的 [摘要] 页面上。单击独立数据存储的 [进入 SDRS 维护模式] 时,数据存储尝试进入维护模式,并且任务显示为无限期挂起。

    解决办法:在 vSphere Client 的 [近期任务] 窗格中取消 [进入 SDRS 维护模式] 任务。

  • 在 Storage vMotion 过程中发生全部路径异常 (APD) 会导致 vCenter Server 与 ESXi 主机的通信失败
    如果在使用 Storage vMotion 迁移虚拟机时发生 APD 情况,则 vCenter Server 会将 Storage vMotion 中涉及的主机与 vCenter Server 清单断开连接。这种情况一直持续到后台 Storage vMotion 操作完成。此操作可能需要几分钟或几个小时,具体取决于 Storage vMotion 操作时间。在此期间,不能从 vCenter Server 对该特定主机执行其他操作。

    解决办法:无。Storage vMotion 操作完成后,vCenter Server 重新将该主机连接到清单。此故障不会影响在非 APD 数据存储上运行的虚拟机。

  • 添加到数据存储的符号链接可能导致数据存储浏览器不正确地显示数据存储内容
    将符号链接添加到数据存储的顶级后(无论是以外部方式在 NFS 服务器中添加还是将其记录到主机中),当您浏览数据存储时,可能看不到正确的数据存储信息,如它的文件和文件夹。导致此问题的原因可能是符号链接引用的文件和文件夹不正确。

    解决办法:移除符号链接。不要在数据存储中使用符号链接。

  • 尝试将数据区添加到支持 ATS 的 VMFS 数据存储时失败
    您只能在支持 ATS 的设备上扩展支持 ATS 的数据存储。如果您选择了不支持 ATS 的设备来扩展支持 ATS 的数据存储,则操作失败。vSphere Client 将显示以下错误消息: 在主机配置过程中发生错误 (An error occurred during host configuration)。在日志文件中,您可能还会发现以下错误消息: Operation failed, unable to add extent to filesystem。

    解决办法: 在将数据区添加到 ATS 数据存储前,通过运行以下命令验证数据区设备是否支持 ATS:
    esxcli storage core device vaai status get -d=device_ID
    输出必须显示以下信息:
    ATS 状态: 受支持 (ATS Status: supported)

  • 当平衡 I/O 负载时,Storage DRS 可能不按预期那样工作
    当使用 IOMeter 软件生成 I/O 负载来测试 Storage DRS 时,默认情况下,IOMeter 全部用 0 来填充文件。此数据不包含随机模式的 1 和 0,而真实数据中数据是随机模式,并且 Storage DRS 也需要这种随机模式来确定数据存储的 I/O 特性和性能。

    解决办法:测试 Storage DRS 负载平衡时,请使用真实数据填充数据存储上至少 20% 的存储空间。如果使用 IOMeter 软件来生成 I/O 负载,请选择一个允许您将随机模式的 1 和 0 写入文件的版本。

  • 新虚拟机磁盘的名称不出现在 Storage DRS 初始放置位置建议中
    在启用了 Storage DRS 的数据存储群集上基于模板创建、克隆或部署虚拟机时,放置位置建议或故障对话框不会列出新虚拟机硬盘的名称。该对话框将显示以下消息: 将新的虚拟机硬盘置于 <datastore name> 上 (Place new virtual machine hard disk on <datastore name>)。

    解决办法:无。当创建虚拟机时,直到放置磁盘时才分配硬盘名称。如果各虚拟机硬盘的大小不同且放置在不同的数据存储中,您可以使用统计前后的空间利用率来估算哪个磁盘适合放置在哪个数据存储上。

  • 使用 [调度任务] 向导创建或克隆虚拟机时,Storage DRS 显示为已禁用
    如果创建一个调度任务来克隆或创建虚拟机并选择数据存储群集作为虚拟机文件的目标存储,则 [禁用 Storage DRS] 复选框始终处于选中状态。您无法在 [调度任务] 向导中为虚拟机取消选中 [禁用 Storage DRS] 复选框。

    解决办法:无。[禁用 Storage DRS] 复选框在 [调度任务] 向导中是始终处于选中状态。但是,在运行 [调度任务] 和创建虚拟机后,虚拟机的自动化水平与数据存储群集的默认自动化水平是相同的。

  • 尝试卸载启用了 Storage I/O Control 的 NFS 数据存储时,vSphere Client 显示一个错误
    如果对 NFS 数据存储启用 Storage I/O Control,则您无法卸载该数据存储。将显示以下错误消息: 资源正在使用 (The resource is in use)。

    解决办法:在尝试卸载数据存储前,禁用 Storage I/O Control。

  • ESXi 无法区分支持硬件加速的 NFS 数据存储上的厚置备延迟置零虚拟磁盘和厚置备置零虚拟磁盘
    当使用支持硬件加速的 NFS 数据存储时,vSphere Client 允许您以厚置备延迟置零 (zeroedthick) 或厚置备置零 (eagerzeroedthick) 格式创建虚拟磁盘。但是,当您在 [虚拟机属性] 对话框中检查磁盘类型时,[磁盘置备] 部分始终将 [厚置备置零] 显示为磁盘格式,而不管您在磁盘创建过程中选择了哪种格式。ESXi 无法区分 NFS 数据存储上的延迟置零虚拟磁盘和置零虚拟磁盘。

    解决办法:无。

  • 迁移后,IDE RDM 磁盘的物理兼容性模式不更改为独立持久模式
    在将具有磁盘的虚拟机从 ESX/ESXi 4.x 主机迁移到 ESXi 5.0 后,IDE RDM 磁盘的物理兼容性模式不更改为独立持久模式。

    解决办法:迁移后,使用 vSphere Client 将磁盘的模式更改为独立持久。

  • 尝试将具有子磁盘的虚拟兼容性 RDM 添加到现有虚拟机失败
    如果尝试将具有子磁盘的虚拟兼容性 RDM 添加到现有的虚拟机,操作会失败。vSphere Client 将显示以下错误消息: 重新配置失败: vim.fault.DeviceUnsupportedForVmPlatform (Reconfigure failed: vim.fault.DeviceUnsupportedForVmPlatform)。

    解决办法:移除子磁盘,以便能够添加虚拟兼容性 RDM。

  • 启用软件 FCoE 后,尝试显示存储映射失败并显示错误消息
    此问题只影响那些已添加到 vCenter Server 且之前没有任何软件 FCoE 配置的 ESXi 主机。在这些主机上启用软件 FCoE 适配器后,尝试在 vSphere Client 中显示存储映射失败。将显示以下错误消息: 发生内部错误: 无法序列化响应 (An internal error has occurred: Failed to serialize response)。

    解决办法:首先在 ESXi 主机上配置软件 FCoE,然后将该主机添加到 vCenter Server。

  • 空间充足的 NFS 数据存储显示空间不足错误
    仅当使用远程过程调用 (RPC) 客户端共享并从同一 NFS 服务器 IP 地址挂载多个 NFS 卷时,才会发生此问题。在此配置中,只要其中一个 NFS 卷空间不足,共享同一 RPC 客户端的其他 NFS 卷可能也会报告空间不足错误。

    解决办法:通过执行以下任务,禁用主机上的 RPC 客户端共享:

    1. 在 vSphere Client 清单面板中,选择主机。
    2. 单击 [配置] 选项卡,然后单击 [软件] 下的 [高级设置]
    3. 单击左侧面板中的 [NFS],并在右侧向下滚动到 NFS.MaxConnPerIP。
    4. 将默认值更改为 128。

     

  • 重新引导后,无状态主机无法检测 iSCSI 数据存储
    如果将无状态主机添加到 Cisco Nexus 1000V 系列交换机,并将 MTU 配置为 9000,则重新引导后,即使该主机能发现对应的设备,也无法检测 iSCSI 数据存储。

    解决办法:要使数据存储可见,请单击 vSphere Client 中的 [配置] > [存储] 屏幕上的 [刷新].

服务器配置
  • 如果对主机配置文件的规则进行 SATP-PSP 更改并将更改应用于 ESXi 主机,则重新引导后,更改并没有反映在主机上
    如果更改 SAN 阵列类型插件路径选择策略 (SATP PSP) 规则并将更改应用于使用 Auto Deploy 置备的主机,则重新引导该主机后,这一新的更改并不反映在每个设备的 SATP PSP 中。对于不使用 Auto Deploy 置备的 ESXi 主机,SATP PSP 更改会在主机中正确更新。然而,对 ESXi 主机进行合规性检查时,主机配置文件的合规性检查会失败。

    解决办法:将主机配置文件应用到 ESXi 主机后,删除该主机配置文件,并从 ESXi 主机提取一个新的主机配置文件,然后将该主机配置文件应用到该主机,然后重新引导。为此,请使用 [主机配置文件] UI 中的 [从引用的主机更新] 功能。此任务会删除主机配置文件并从主机提取新的配置文件,同时保持当前的所有附件。

    使用 esxcli 命令编辑主机本身上的 SATP PSP,然后再提取主机配置文件。不要使用主机配置文件编辑器来编辑 SATP PSP。

  • 应用关闭了服务启动策略的主机配置文件不会禁用服务
    在将禁用了某些服务的 ESXi 主机用作引用主机的情况下创建一个主机配置文件,并将其应用到启用了这些服务的主机。主机配置文件应用过程不禁用目标 ESXi 主机上的服务。用户通过 vSphere Client 中的 [安全配置文件] 或 DCUI 中的 [故障排除选项] 在目标 ESXi 主机上启用 ESXShell 或 SSH 服务后,通常会出现这种情况。

    解决办法:重新引导过程会禁用这些服务。您也可通过配置主机手动停止 vSphere Client 中的服务。为每个服务执行以下过程。

    1. 在清单中选择主机。
    2. 单击 [配置] 选项卡。
    3. 单击 [软件] 部分中的 [安全配置文件]
    4. 单击 [属性] 并选择服务。
    5. 单击 [选项]
    6. 单击 [停止] 并单击 [确定]
  • 切换附加的主机配置文件时,主机配置文件应答文件的状态不更新
    将一个主机配置文件附加到先前附加到另一个主机配置文件的主机时,应答文件的状态没有更新。如果应答文件状态为 [已完成],则将另一个主机配置文件附加到该主机后,应答文件状态在主机配置文件视图中仍显示为 [已完成]。但是,实际状态可能更改为 [未完成]。

    解决办法:附加主机配置文件后,手动更新应答文件状态。

    1. 在 vSphere Client 中,选择主机配置文件清单视图中新附加的配置文件。
    2. 单击 [主机和群集] 选项卡。
    3. 在 [实体名称] 列表中右键单击该主机,然后选择 [检查应答文件]

    主机配置文件应答文件状态即会更新。

  • 手动应用包含大型配置的主机配置文件可能会超时
    应用包含大型配置(例如,vSwitch 和端口组数量非常大)的主机配置文件时,如果目标主机没有配置或只是部分配置,可能会超时。在此类情况下,尽管应用配置的 ESXi 基础进程可能继续运行,但用户仍会在 vSphere Client 中看到以下错误消息: 无法应用主机配置 (Cannot apply the host configuration)。

    此外,syslog.log 或其他日志文件可能显示类似以下内容的错误消息:
    Error interacting with configuration file /etc/vmware/esx.conf:Timeout while waiting for lock, /etc/vmware/esx.conf.LOCK, to be released.Another process has kept this file locked for more than 20 seconds.The process currently holding the lock is hostd-worker(5055).This is likely a temporary condition.Please try your operation again.

    如果多项操作尝试收集系统配置信息,同时主机配置文件应用操作设置配置,则系统上的争用情况会导致此错误。由于存在这些错误以及其他与超时相关的错误,甚至在系统上完成主机配置文件应用操作后,主机配置文件中捕获的配置仍可能未完全应用。检查主机的合规性可显示哪部分配置应用失败,并执行应用操作来解决剩余不合规问题。

    解决办法:执行以下操作之一:

    • 未使用 Auto Deploy 置备的 ESXi 主机

      1. 通过在 /etc/vmware/hostd/cmdMo.xml 文件中添加以下条目来提高应用操作的超时值:

        <managedObject id="2">
        <type> vim.profile.host.profileEngine.HostProfileManager </type>
        <moId> ha-hostprofileengine-hostprofilemanager </moId>
        --> <timeOutInSeconds> xxxx </timeOutInSeconds> <--****
        <version> vim.version.dev </version>
        <cmd> /usr/bin/sh </cmd>
        <arg id="1"> -l </arg>
        <arg id="2"> -c </arg>
        <arg id="3"> /usr/lib/vmware/hostd/hmo/hostProfileEngine.py --cgi </arg>
        </managedObject>


        其中 xxxx 为超时值(以秒为单位)。默认情况下,应用操作的超时时间为 10 分钟。通过此条目,可以设置更长的超时时间。例如,值 3600 可将超时时间增加到 1 小时。根据特定的主机配置文件配置,输入的值可能会有所不同。设置足够大的值后,不会再出现应用操作超时错误,并且任务在完成之前都会显示在 vSphere Client 中。
      2. 重新启动 hostd。
    • 使用 Auto Deploy 置备的主机

      1. 重新引导使用 Auto Deploy 置备的 ESXi 主机。
      2. 对于使用 Auto Deploy 置备的 ESXi 主机,请通过在 ESXi 主机上执行更新应答文件操作并重新引导来确保应答文件是完整的。

        主机配置文件和应答文件中的配置会在初始化期间在系统上应用。大型配置可能需要较长时间才能引导,但它比通过 vSphere Client 手动应用主机配置文件快得多。
  • 对于使用新创建的配置文件的引用主机,主机配置文件合规性检查失败
    对新配置的(如使用 iSCSI 配置的)主机配置文件执行合规性检查之前,如果没有更新应答文件,则该合规性检查可能失败。

    解决办法:执行合规性检查前更新配置文件的应答文件。

  • 如果将 syslog logdir 设置为没有路径的数据存储,则主机配置文件无法应用
    如果使用 esxcli 命令或 vSphere Client 将 syslog 目录设置为没有其他路径的数据存储,则从系统中提取的主机配置文件无法应用到其他主机。

    例如,以下命令以触发此条件的方式配置系统:
    esxcli system syslog config set --logdir /vmfs/volumes/datastore1

     

    同样,在主机的 [配置] 选项卡的 [高级设置] 对话框中将 Syslog.global.logDir 设置为 datastore1 也会触发此条件。

    解决办法:执行以下操作之一:

    • 在提取主机配置文件之前,在 [高级设置] 对话框中修改 Syslog.global.logDir,使其具有值“DATASTORE_NAME /”,而不是“DATASTORE_NAME”。
    • 编辑主机配置文件,以便 Syslog.global.logDir 的 [高级配置] 选项具有值“DATASTORE_NAME /”,而不是“DATASTORE_NAME”。

     

  • 应用主机配置文件可能会重新创建 vSwitch 和端口组
    应用主机配置文件时,可能会重新创建主机的 vSwitch 和端口组。即使主机与主机配置文件相符,也会出现此情况。

    将端口组配置文件策略选项设置为使用默认值时,会出现此情况。此设置会导致一个问题:应用配置文件时,配置文件和主机配置之间的比较可能错误地失败。此时,合规性检查通过。比较失败会使得应用配置文件操作重新创建 vSwitch 和端口组。这会影响端口组配置文件中的所有子配置文件。

    解决办法:更改配置文件设置,以便与所需设置匹配,而不是选择使用默认值。

  • VMware 嵌入式 SNMP 代理通过 HOST-RESOURCES-MIB中的 hrSWInstalledTable报告的软件安装日期错误
    通过使用 VMware 嵌入式 SNMP 代理对已安装软件 (hrSWInstalledTable RFC 2790) 执行轮询时,显示的用户安装软件的安装日期错误,因为 HOST-RESOURCES-MIB中的 hrSWInstalledTable报告的 hrSWInstalledDate错误。

    解决办法:要检索正确的安装日期,请使用 esxcli 命令 esxcli software vib list。

vCenter Server 和 vSphere Client

  • vCenter Server [硬件状态]选项卡中的设备状态未知
    在 vCenter Server [硬件状态] 选项卡的 [传感器] 视图中,某些 PCI 设备的状态显示为 未知 #<number>。某些设备的最新 PCI ID 没有列在 ESXi 主机上的 /usr/share/hwdata/pci.ids文件中。vCenter Server 会将缺少 ID 的设备列为未知。

    未知状态并非严重问题,主要 vSphere 版本会定期更新 PCI ID 列表。

  • 在 vCenter 虚拟设备 (VCVA) 上重新注册 AutoDeploy 时出现数据库错误(知识库文章 2014087)。
  • 运行不带 -t 选项的 snmpwalk 命令时,返回一条错误消息
    如果运行 snmpwalk时未使用用来轮询 SNMP 数据的 -t和 -r选项,则 VMware 嵌入式 SNMP 代理不显示完整的数据并显示以下错误消息: 主机没有响应 (No response from host)。

    解决办法:运行 snmpwalk命令时,使用 -t选项来指定超时间隔,使用 -r选项来设置重试次数。例如: snmpwalk -m all -c public -v1 host-name -r 2 -t 10 variable-name

  • 用于清除嵌入式 SNMP 代理配置的 vCLI 命令会重置指示源并清除陷阱过滤器
    用于清除嵌入式 SNMP 代理配置的 vicfg-snmp -rvCLI 命令会将事件源或陷阱源重置为默认值(即 指示)并清除所有陷阱过滤器。

    解决办法:无。

  • 启用嵌入式 SNMP 代理失败,并出现地址已在使用中 (Address already in use) 错误
    如果为嵌入式 SNMP 代理配置 udp/161 以外的端口而该代理未启用,则代理不会检查该端口是否正在使用中。启用代理时,这就可能导致端口冲突,从而生成以下错误消息: 地址已在使用中 (Address already in use)。

    解决办法:在配置端口前启用嵌入式 SNMP 代理。

虚拟机管理

  • 安装 VMware Tools 后,鼠标指针可能无法移出 Windows Server 2012 R2 和 Windows 8.1 虚拟机*
    在 Windows Server 2012 R2 和 Winsows 8.1 虚拟机上安装 VMware Tools 时,鼠标指针可能无法移出虚拟机。在安装 VMware Tools 之前配置 USB 2.0 控制器时会发生此问题。

    解决办法:在 .vmx文件中设置以下配置选项:
    mouse.vusb.enable = "FALSE"

  • 针对 USB 3.0 设备的 xHCI 控制器的驱动程序可用性
    虚拟硬件版本 8 包含对 xHCI 控制器和 USB 3.0 设备的支持。但是,xHCI 驱动程序可能对许多操作系统不可用。如果客户机操作系统上没有安装驱动程序,您无法使用 USB 3.0 设备。据悉,目前不存在可用于 Windows 操作系统的驱动程序。请联系操作系统供应商来了解驱动程序的可用性。当您使用 Windows 客户机操作系统创建或升级虚拟机时,可以继续使用现有的 EHCI+UHCI 控制器,它支持从 ESXi 主机或客户端计算机到虚拟机的 USB 配置中所用的 USB 1.1 和 2.0 设备。如果您的 Windows 虚拟机有 xHCI 和 EHCI+UHCI USB 控制器,新增的 USB 1.1 和 USB 2.0 设备将连接到 xHCI,并且不会被客户机检测到。

    解决办法:从虚拟机的配置中移除 xHCI 控制器,以便将 USB 设备连接到 EHCI+UHCI。

  • 早于 2.6.27 版本的 Linux 内核不报告处于关闭电源状态的每插槽内核数为 2
    从 ESXi 5.0 开始,多核虚拟 CPU 支持允许处于关闭电源状态的每插槽内核数为 2。早于 2.6.27 版本的 Linux 内核仅正确报告处于打开电源状态的每插槽内核数为 2。例如,当您在 .vmx 文件中设置 numvcpus = 6和 cpuid.coresPerSocket = 3时,一些 Linux 客户机操作系统可能无法报告任何物理标识信息。Linux 内核 2.6.28 及更高版本会正确报告 CPU 和内核拓扑。

    解决办法:

  • 在向使用 Linux 64 位、Windows 7 或 Windows 8 32 位客户机操作系统的虚拟机热添加内存时,不能将现有虚拟内存增加到 3 GB 以上
    在向使用 Linux 64 位、Windows 7 和 Windows 8 32 位客户机操作系统的虚拟机热添加内存时,适用于下列情况。

    • 如果已打开电源的虚拟机的内存少于 3 GB,则内存热添加量不能超过 3 GB。
    • 如果虚拟机内存为 1 GB,则可以添加 2 GB。
    • 如果虚拟机内存为 2 GB,则可以添加 1 GB。
    • 如果虚拟机的内存为 3444 MB,则可以添加 128 MB。
    • 如果已打开电源的虚拟机的内存正好为 3 GB,则无法热添加任何内存。

     

    如果已打开电源的虚拟机的内存超过 3 GB,则可以将虚拟机内存增加到虚拟机打开电源时初始内存大小的 16 倍或增至硬件版本限制(以两者中较小者为准)。硬件版本 7 的限制是 255 GB,硬件版本 8 的限制是 1011 GB。

    如果在打开虚拟机电源后,内存从小于或等于 3 GB 增长到大于 3 GB,则 Linux 64 位和 32 位 Windows 7 和 Windows 8 客户机操作系统会冻结。此 vSphere 限制可确保您不会在客户机操作系统中触发该错误。

    解决办法:无。

  • 在硬件版本 7 虚拟机上进行 CPU 热添加时出错
    硬件版本 8 虚拟机的多核虚拟 CPU 功能支持虚拟 CPU 热添加。
    对于每个插槽的内核数大于 1 的硬件版本 7 虚拟机,当您在 [虚拟机属性] 对话框中启用 CPU 热添加并尝试热添加虚拟 CPU 时,操作失败并显示以下错误消息: 该虚拟机不支持 CPU 热插拔 (CPU hot plug not supported for this virtual machine)。

    解决办法:要将 CPU 热添加功能与硬件版本 7 的虚拟机一起使用,请关闭虚拟机电源并将每个插槽的内核数设置为 1。
    为达到最佳效果,请使用硬件版本 8 的虚拟机。

  • 在使用 2007 年 11 月 20 日 LSISAS 驱动程序的 Windows 2003 32 位系统上热添加内存会导致虚拟机停止响应
    2007 年 11 月 20 日的 LSI-SAS 驱动程序无法正确寻址系统启动时不存在的超过 3 GB 的内存。如果系统在热添加前内存少于 3 GB,而在热添加后超过 3 GB,则 Windows 状态会损坏,并最终导致 Windows 停止响应。

    解决办法:使用 LSI 网站提供的最新版本 LSI SAS 驱动程序。不要对 Windows 2003 虚拟机使用 LSISAS1068 虚拟适配器。

  • MacOS X Server 10.6.5 和更高版本的客户机操作系统的 [摘要] 选项卡上出现错误的 IPv6 地址
    在 vSphere Client 中的 [摘要] 选项卡上单击 [查看全部] 时,IPv6 地址列表中与链接本地地址对应的地址有误。运行 ifconfig文件并将命令输出与 vSphere Client 中的地址列表进行比较时,会看到该错误地址。运行 vim-cmd命令以获取 GuestInfo数据时,该错误信息也会出现。

    解决办法:

  • 同时创建大量虚拟机会导致文件操作失败
    同时创建大量驻留在同一目录下的虚拟机时,存储系统变得不堪重负,导致一些文件操作失败。会显示 vim.fault.CannotAccessFile错误消息并且创建虚拟机操作失败。

    解决办法:以更小的批量(例如,64 个)创建其他虚拟机,或尝试在不同的数据存储中或同一数据存储的不同目录中创建虚拟机。

  • 在通过 vMotion 进行迁移过程中,从 ESXi 主机直通到虚拟机的 USB 设备可能断开连接
    如果 USB 设备从 ESXi 主机直通到虚拟机并且该设备配置为在通过 vMotion 进行迁移过程中仍保持连接,则该设备可能会在 vMotion 操作过程中断开连接。如果 DRS 触发迁移,该设备也会断开连接。当设备断开连接时,它们会恢复至主机,不再连接到虚拟机。迁移连接了多个 USB 设备的虚拟机时,会更频繁地发生此问题,但连接了一个或少数设备时,只偶尔发生此问题。

    解决办法:将虚拟机迁移回与 USB 设备物理连接的 ESXI 主机,并将设备重新连接到虚拟机。

  • 当虚拟机具有无法访问的 SCSI 直通设备时将无法打开电源
    如果连接到虚拟机的 SCSI 直通设备有一个无法从虚拟机的主机访问的设备备用,虚拟机将无法打开电源并显示以下错误消息: 打开虚拟机电源时从 ESX 主机收到一条意外错误 (An unexpected error was received from the ESX host while powering on VM)。

    解决办法:执行以下过程之一:

    • 如果虚拟机的主机有一个物理 SCSI 设备,请将 SCSI 直通设备的设备备用更改为主机的物理 SCSI 设备并打开虚拟机电源。
    • 如果主机没有物理 SCSI 设备,则将 SCSI 直通设备从虚拟机移除并打开虚拟机电源。

     

  • VMware Tools 系统托盘图标状态可能错误地显示为已过期
    如果虚拟机使用的 VMware Tools 是随 vSphere 4.x 一起安装的,则客户机操作系统中的系统托盘图标会错误地将状态显示为已过期。在 vSphere 5.0 Client 和 vSphere Web Client 中,虚拟机的 [摘要] 选项卡状态显示为 [已过期 (确定。现有主机支持该版本,但新功能不可用时要进行升级)]。支持随 vSphere 4.x 一起安装的 VMware Tools,且不严格要求升级为 vSphere 5.0。

    解决办法:在 vSphere 5.0 中,使用 vSphere Client 或 vSphere Web Client 中虚拟机的 [摘要] 选项卡来确定 VMware Tools 的状态。如果状态是已过期但您不想升级,则可以在客户机操作系统中使用下列设置来禁用升级提示和警告图标:

    • 如果虚拟机设置为自动升级 VMware Tools,但您希望虚拟机仍保持在受支持的最低版本,则将以下属性设置为一个高级配置参数:将 tools.supportedOld.autoupgrade设置为 FALSE。此设置还禁用客户机中的感叹号图标,该图标表明 VMware Tools 不受支持。
    • 如果 VMware Tools 已过期而您想禁用系统托盘中 VMware Tools 图标上出现的感叹号图标,则将以下属性设置为一个高级配置参数:将 tools.supportedOld.warn设置为 FALSE。

    [摘要] 选项卡显示状态为不受支持或错误时,上述设置都不会影响 VMware Tools 的行为。在此类情况下,会出现感叹号图标并且 VMware Tools 自动升级(如果配置为自动升级),即使高级配置设置为 FALSE也一样。您可通过编辑虚拟机的配置文件 .vmx或通过使用 vSphere Client 或 vSphere Web Client 编辑虚拟机设置来设置高级配置参数。在 [选项] 选项卡中,选择 [高级] > [常规],然后单击 [配置参数]

  • [在关闭再打开过程中检查并升级工具] 功能在 ESXi 5.0 及更高版本中不起作用
    在 ESX/ESXi 4.1 中,关闭虚拟机后,可使用 [在关闭再打开过程中检查并升级工具] 选项升级 VMware Tools。此功能在 ESXi 5.0 及更高版本中不起作用。忽略与此功能相关的任何文档程序。

    解决办法:手动安装 VMware Tools。

  • 在需要使用大量 CPU 和内存资源的 Mac OS X 客户机操作系统上,在虚拟机暂停或恢复或迁移操作过程中可能遇到内核不稳定问题
    在高负载 CPU 和内存的主机上虚拟机出现暂停或恢复操作或者通过 vMotion 进行迁移之后,转换后备缓冲器 (TLB) 无效请求可能超时。在此类情况下,Mac OS X 客户机操作系统停止响应,且以下消息之一的变体会写入 vmware.log 文件:
    The guest OS panicked.The first line of the panic report is:Panic(CPU 0):Unresponsive processor
    The guest OS panicked.The first line of the panic report is:panic(cpu 0 caller 0xffffff8000224a10):"pmap_flush_tlbs()timeout:" "cpu(s) failing to respond to interrupts,pmap=0xffffff800067d8a0 cpus_to_respond=0x4"@/SourceCache/xnu/xnu-1504.7.4/osfmk/x86_64/pmap.c:2710

    解决办法:减少主机上的 CPU 和内存负载,或将虚拟 CPU 计数减少到 1。

  • 如果启用复制,则从 ESXi 5.0 到 ESX/ESXi 4.1 的虚拟机克隆或重定位操作失败
    如果使用 hbr enablereplication命令对驻留在 ESXi 5.0 主机上的虚拟机启用复制,并将虚拟机克隆到 ESX/ESXi 4.1 或更早版本的主机上,则验证会失败并显示以下错误消息: 不支持该操作 (operation is not supported)。不支持在 ESX/ESXi 4.1 主机上克隆 ESXi 5.0 虚拟机。

    解决办法:选择以下解决办法之一:

    • 将虚拟机克隆到 ESXi 5.0 主机上
    • 在 ESX/ESXi 4.1 主机上克隆或重定位一个新的虚拟机。
  • 当 VMware Tools 自定义脚本在其路径中包含非 ASCII 字符时,无法通过 Linux 客户机操作系统中的 VMware-Toolbox UI 设置该自定义脚本
    当系统区域设置是 zh_CN.gb18030、ja_JP.eucjp或 ko_KR.euckr时,非 ASCII 字符在 Linux 客户机操作系统的 [VMware Tools 属性] 窗口中显示为带方框的 X。在此类情况下,您无法设置自定义 VMware Tools 脚本。

    解决办法:执行以下任务之一:

    • 更改自定义 VMware Tools 脚本所在的目录的名称以使其仅包含 ASCII 字符。
    • 通过在 shell 提示符下输入 vmware-toolbox-cmd script命令设置自定义 VMware Tools 脚本。

     

  • 在自定义 Windows XP 和 Windows 2003 后,非 ASCII DNS 后缀设置不正确
    使用自定义规范向导自定义 Windows XP 或 Windows 2003 时,如果在 [网络属性] 的 [DNS] 选项卡中输入一个非 ASCII DNS 后缀,则自定义报告为成功,但是该非 ASCII DNS 后缀设置不正确。

    解决办法:在 Windows XP 和 Windows 2003 中手动设置 DNS 后缀。

  • VMware 嵌入式 SNMP 代理报告的有关 HOST-RESOURCES-MIB 模块的 hrDeviceStatus对象中的处理器状态错误
    报告系统详细信息时,VMware 嵌入式 SNMP 代理显示错误的处理器状态。SNMP 代理将 HOST-RESOURCES-MIB 中的 hrDeviceStatus对象的处理器状态报告为 [未知]。HOST-RESOURCES-MIB 的 ESX/net-snmp 实施没有返回 hrDeviceStatus对象,这等同于报告 [未知]状态。

    解决办法:使用 CIM API 或 SMBIOS 数据检查处理器状态。

  • 迁移后,.vmsd 快照数据库文件中的快照磁盘路径和增量磁盘描述符文件中的父路径未进行更新
    将 snapshot.redoNotWithParent设置为 TRUE,并更改 snapshotDirectory设置(例如,从数据库 A 更改为数据库 B)时,您可能会看到一条错误消息: 检测到无效的快照配置 (Detected an invalid snapshot configuration)。同时存在以下两种情况时,将出现该问题:

    • 恢复为快照树中先前的快照,并从该快照点创建新快照。结果为非线性快照树层次结构。
    • 磁盘链中的磁盘链接跨多个数据存储并包含源数据存储和目标数据存储。如果多次更改 snapshotDirectory设置以指向其他数据存储,并在 snapshotDirectory更改之间执行虚拟机快照,则将出现这种情况。例如,执行 snapshotDirectory设置为数据存储 A 的虚拟机的快照,再恢复为先前的快照,然后将 snapshotDirectory设置更改为数据存储 B 并执行其他快照。现在将虚拟磁盘从数据存储 B 迁移到数据存储 A。

    最佳做法是保留默认设置,这样可将父快照和子快照一起存储在快照目录中。避免更改 snapshotDirectory设置或在数据存储更改之间执行快照。如果将 snapshot.redoNotWithParent设置为 TRUE,请对虚拟机当前未使用的数据存储执行完整存储迁移。

     

    解决办法:在快照数据库文件和磁盘描述符文件中,手动将磁盘路径引用更新为正确的数据存储路径。

迁移
  • 在夏令时 (DST) 转换中,性能图表上的时间轴没有更新以反映 DST 时间变化。
    例如,遵守 DST 的区域的本地时钟在 2011 年 3 月 27 日凌晨 3 点(周日)提前了 1 小时。性能图表时间轴上的刻度标记应是 ...、2:00、2:20、2:40、4:00、4:20...,省略凌晨 3 点开始的一小时的刻度标记。然而,实际上显示的标记为 ...、2:00、2:20、2:40、3:00、3:20、3:40、4:00、4:20...。

    解决办法:

  • 用户在 Storage vMotion 操作中指定磁盘格式更改后,虚拟机磁盘仍保留其原始格式
    对正运行 ESX/ESXi 4.1 或更早版本的主机上打开电源的虚拟机执行 Storage vMotion 操作过程中,您尝试将磁盘格式转换成厚置备置零,但并未发生转换。Storage vMotion 操作成功,但是由于 ESX/ESXi 4.1 和更早版本的固有限制,磁盘继续保留其原始磁盘格式。如果对 ESXi 5.0 主机上的虚拟机执行同样的操作,则会正确转换。

    解决办法:无。

VMware HA 和 Fault Tolerance
  • 出现主机故障时,vSphere HA 无法重新启动正在进行 vMotion 迁移的虚拟机。
    正在将虚拟机从一台主机迁移到另一主机时,原始主机可能会失败,变得无响应或者无法访问包含虚拟机配置文件的数据存储。如果出现此故障且 vMotion 随后也出现故障,则 vSphere HA 可能不会重新启动虚拟机,并可能会对其取消保护。

    解决办法:如果虚拟机失败且 vSphere HA 未再次打开其电源,请手动再次打开虚拟机电源,此时 vSphere HA 会保护虚拟机。

客户机操作系统

  • USB 3.0 设备可能无法在 Windows 8 或 Windows Server 2012 虚拟机中正常工作
    在 Windows 8 或 Windows Server 2012 虚拟机中使用 USB 3.0 设备时,如果使用 Windows 或 Linux 操作系统作为客户端,可能会显示类似于以下内容的错误消息:
    端口重置失败
    USB 设置 SEL 请求失败 (Port Reset Failed The USB set SEL request failed)

    解决办法:

  • 以 PXE 方式引导或重新引导 RHEL 6 会导致出现白屏
    尝试在 EFI 虚拟机中使用 Red Hat 引导加载程序将 PXE 引导进入 RHEL 6 时,在选择操作系统后屏幕变为空白。在常规安装 RHEL 6 过程中从 grub.conf 文件中移除 splashscreen指令并重新引导虚拟机,也会遇到此问题。

    解决办法:确认 splashscreen指令存在,并引用一个可供引导加载程序访问的文件。

  • 重新引导 Mac OS X 10.6.x 时,多个 vNIC 会随机断开连接
    重新引导 Mac OS X 10.6 时,如果有 n >=3 e1000 个 vNIC,客户机链接状态不正确。

    如果 n(e1000)=3,则客户机链接状态是:2(连接)、1(已断开连接)。
    如果 n(e1000)=5,则客户机链接状态是:3(连接)、2(已断开连接)等。

    解决办法:使用 ifconfig 实用程序手动激活和取消激活适配器。手动激活和取消激活不会持续到下一个重新引导过程。

支持的硬件
  • IBM x3550 M2 的 [启动时强制支持旧版视频] 必须禁用
    IBM x3550 M2 有一个称为 Force Legacy Video on Boot 的固件选项,当从统一可扩展固件接口 (UEFI) 引导时,该选项启用旧版 INT10h 视频支持。此选项与 ESXi 5.0 不兼容,因而必须禁用。

    解决办法:从 UEFI 引导 IBM x3550 M2 时,按 F1 进入固件设置,然后选择 [系统设置] > [旧版支持] > [启动时强制支持旧版视频],并单击 [禁用]

其他
    • 对 vCenter Server 硬件状态中的传感器数据监控不准确(知识库文章 2012998)。

    • 日志文件的位置从 /var/log更改为 /var/run/log
      ESXi 5.0 日志文件位于 /var/run/log中。为了实现向后兼容性,日志文件包含从先前位置 /var/log到当前位置 /var/run/log中的最近日志文件的链接。日志文件不包含指向旋转日志文件的链接。

      解决办法: 无。

    • 在 Linux 虚拟机上,卸载使用 tar 安装程序安装的 VMware Tools 后,无法安装 OSP
      在 Linux 虚拟机上,卸载使用 tar 安装程序安装的 VMware Tools 后,文件将保留在系统上。在这种情况下,您无法安装 OSP。

      解决办法:运行以下命令: rm -rf /usr/lib/vmware-tools /etc/vmware-tools
    • 在 Internet Explorer LAN 设置中启用代理服务器后,PowerCLI 有时无法添加联机库
      在 PowerCLI 中可使用 Add-ESXSoftwareDepotcmdlet 添加联机库。在为正使用的计算机启用代理服务器的特定条件下,PowerCLI 无法在会话中添加联机库。
      仅当以下所有条件都存在时,才会出现该故障。
      • 客户的站点需要使用 HTTP 代理来访问 Web。
      • 客户在其内部网络中有一个库。
      • 客户的代理无法连接到内部网络中的库。

      解决办法:
      1. 在 IE LAN 设置中禁用代理服务器。
      2. 在 PowerCLI 中添加联机库。