VMware ESXi™ 5.5 Update 1 | 2014 年 3 月 11 日 | 内部版本 1623387

上次更新时间:2014 年 3 月 25 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • VMware Virtual SAN Virtual SAN 5.5 是一个新的聚合了管理程序的存储层,可以将 vSphere Hypervisor 扩展至池服务器端磁盘 (HDD) 和固态驱动器 (SSD)。通过将服务器端 HDD 和 SSD 群集化,Virtual SAN 创建了一个针对虚拟环境设计并优化的分布式共享数据存储。Virtual SAN 是一个独立的产品,与 vSphere 分开销售,因此需要有自己的许可密钥。

  • 已解决的问题 本版本提供了许多已在 已解决的问题部分中记录的缺陷修复。

ESXi 5.5 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.5 的功能和已知问题。要查看 ESXi 5.5 早期版本的发行说明,请参见 VMware vSphere 5.5 发行说明

国际化

VMware vSphere 5.5 Update 1 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 打包在 vCenter Server ISO 上。您可以使用 VMware vCenter™ 安装程序向导来安装其中一个客户端,也可以同时安装这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.5.1 增加了对 ESXi 5.5 Update 1 和 vCenter Server 5.5 Update 1 版本的支持。
有关 VDDK 的详细信息,请参见 http://www.vmware.com/support/developer/vddk/

ESXi 和 Virtual SAN 的兼容性

Virtual SAN 不支持在 5.5 Update 1 之前版本的 ESXi 主机上配置的群集。在启用 Virtual SAN 前,请确保 Virtual SAN 群集中的所有主机都已升级到 ESXi 5.5 Update 1。vCenter Server 也应升级到 5.5 Update 1。

Virtual SAN 的测试版本
不支持 Virtual SAN 群集由 Virtual SAN 测试版升级到 Virtual SAN 5.5。
请禁用 Virtual SAN 测试版,并在 ESXi 5.5 Update 1 主机上执行 Virtual SAN 5.5 的全新安装。如果正在测试 Virtual SAN 测试版,VMware 建议您安装 vSphere 5.5 Update 1 时重新创建要保留的数据。有关详细信息,请参见 当升级到 vSphere 5.5 Update 1 时,保留 Virtual SAN 测试版群集的虚拟机(知识库文章 2074147)。

ESXi 的硬件兼容性

要查看与 vSphere 5.5 Update 1 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 1 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 5.5 Update 1 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 1 的信息。

某些设备已在 ESXi 5.5 及更高版本上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 5.5.x 主机上。该驱动程序可能仍在 ESXi 5.5.x 上起作用,但设备在 ESXi 5.5.x 上不受支持。有关已在 ESXi 5.5.x 上弃用且不再受支持的设备列表,请参见 VMware 知识库文章 《ESXi 5.5 升级过程中的弃用设备及警告》。  

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 5.5 Update 1 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 1 的信息。

 

ESXi 的虚拟机兼容性

ESXi 5.5 Update 1 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 5.5 Update 1 上使用此类虚拟机,请升级虚拟机兼容性。请参见 《vSphere 升级》文档。

vSphere Client 与使用 vCenter Server 5.x 的链接模式环境之间的连接

vCenter Server 5.5 在链接模式下只能与 vCenter Server 5.5 的其他实例共存。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读 《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.1 与 ESXi 5.5 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义内容升级主机的信息,请参见 《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.5.x 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.5.x 的兼容性。如果您的主机硬件不兼容,将显示带有不兼容消息的紫色屏幕。您无法安装或升级到 vSphere 5.5.x。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

支持升级到 ESXi 5.5 Update 1 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.5 Update 1 的升级途径

ESX/ESXi 4.0
包括
ESX/ESXi 4.0 Update 1
ESX/ESXi 4.0 Update 2

ESX/ESXi 4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
包括
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

 

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
包括
ESXi 5.1 Update 1
ESXi 5.1 Update 2

ESXi 5.5

VMware-VMvisor-Installer-5.5.0.update01-1623387.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

update-from-esxi5.5-5.5_update01.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

是*

是*

使用从 VMware 门户(联机)下载的修补程序定义 带有修补程序基准的 VMware vCenter Update Manager


*注意:仅 ESXCLI 支持使用 update-from-esxi5.5-5.5_update01.zip将 ESXi 5.0.x 或 ESXi 5.1.x 升级到 ESXi 5.5 Update 1。需要运行 esxcli software profile update --depot=<depot_location> --profile=<profile_name>命令执行升级。有关详细信息,请参见《vSphere 升级指南》  中的“ESXi 5.5.x 升级选项”主题  

VMware vSphere 5.5 Update 1 的开源组件

可从 http://www.vmware.com/download/vsphere/open_source.html 的 [开源] 选项卡上获取适用于 vSphere 5.5 Update 1 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新可用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Web Client。由于 Adobe Flash 不再支持 Linux 平台,因此 Linux 操作系统不支持 vSphere Web Client。已添加 Adobe Flash 支持的第三方浏览器仍可在 Linux 操作系统上继续工作。

    VMware vCenter Server Appliance。在 vSphere 5.5 中,VMware vCenter Server Appliance 可通过强制执行美国国防信息系统局《安全技术信息准则》(STIG) 来满足严格监管的合规性标准要求。部署 VMware vCenter Server Appliance 之前,请参见《VMware 强化虚拟设备操作指南》  以获取有关新安全部署标准的信息,以确保操作成功。

  • vCenter Server 数据库。vSphere 5.5 不再支持使用 IBM DB2 作为 vCenter Server 数据库。

  • VMware Tools。从 vSphere 5.5 开始,有关如何在 vSphere 中安装和配置 VMware Tools 的所有信息都将与其他 vSphere 文档合并。有关在 vSphere 中使用 VMware Tools 的信息,请参见 vSphere 文档。  《安装和配置 VMware Tools》与 vSphere 5.5 及更高版本不相关。

  • VMware Tools。从 vSphere 5.5 开始,VMware Tools 不再提供 ThinPrint 功能。

  • vSphere Data Protection。由于 vSphere Web Client 运行方式的更改,vSphere Data Protection 5.1 将与 vSphere 5.5 不兼容。升级到 vSphere 5.5 的 vSphere Data Protection 5.1 用户如继续使用 vSphere Data Protection,必须同时更新 vSphere Data Protection。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi550-Update01 包含以下各公告:

ESXi550-201403201-UG:更新 ESXi 5.5 esx-base vib
ESXi550-201403202-UG:更新 ESXi 5.5 tools-light vib
ESXi550-201403203-UG:更新 ESXi 5.5 rste vib
ESXi550-201403204-UG:更新 ESXi 5.5 net-e1000e vib
ESXi550-201403205-UG:更新 ESXi 5.5 scsi-mpt2sas vib
ESXi550-201403206-UG:更新 ESXi 5.5 lsi-msgpt3 vib
ESXi550-201403207-UG:更新 ESXi 5.5 mtip32xx-native vib
ESXi550-201403208-UG:更新 ESXi 5.5 sata-ahci vib
ESXi550-201403209-UG:更新 ESXi 5.5 scsi-megaraid-sas vib
ESXi550-201403210-UG:更新 ESXi 5.5 net-igb vib
ESXi550-201403211-UG:更新 ESXi 5.5 net-tg3 vib

修补程序版本 ESXi550-Update01 Security-only 包含以下各公告:

ESXi550-201403101-SG:更新 ESXi 5.5 esx-base vib
ESXi550-201403102-SG:更新 ESXi 5.5 tools-light vib

修补程序版本 ESXi550-Update01 包含以下映像配置文件:

ESXi-5.5.0-20140302001-standard
ESXi-5.5.0-20140302001-no-tools

修补程序版本 ESXi550-Update01 Security-only 包含以下映像配置文件:

ESXi-5.5.0-20140301001s-standard
ESXi-5.5.0-20140301001s-no-tools

有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

CIM 和 API 问题

  • 无法获取 IPMI 传感器数据
    运行 exscli hardware ipmi sdr list命令时,对于耗尽的资源,您可能会看到类似以下内容的错误消息:
    无记录或不兼容的版本或读取失败 (No records or incompatible version or read failed)

    本版本已解决该问题。
  • vmkapimod 的 vmklinux_9:ipmi_thread 将 CPU 使用量显示为百分之百约一个小时
    在 ESXi 主机中,使用智能平台管理界面 (IPMI) 工具读取现场可更换单元 (FRU) 清单数据时,vmkapimod 的 vmklinux_9:ipmi_thread 会将 CPU 使用量显示为百分之百。这是因为 IPMI 工具多次使用 Read FRU Data 命令读取大型清单数据。

    本版本已解决该问题。
  • 无法在 CIM 端口 5989 上禁用弱密码
    要禁用密码块链接 (CBC) 算法以实现支付卡行业 (PCI) 合规性,您可能需要在 CIM 端口 5989 上禁用弱密码。不允许执行此操作。您可以通过运行以下命令更新 sfcb.cfg中的配置来禁用弱密码:

    # vi /etc/sfcb/sfcb.cfg
    sslCipherList:HIGH:!DES-CBC3-SHA
    # /etc/init.d/sfcbd-watchdog restart

    本版本已解决该问题。

  • 使用 EMC PowerPath 时,查询 CIM_System 的操作失败
    当 PowerPath 在 /VMware/esxv2/下查询 CIM_System 时,操作会失败并且 CIM 服务器会报告错误。错误消息类似以下内容:

    线程池 --- 无法将请求加入队列。排队的请求已经过多: vmwaLINUX
    线程池 --- 无法将请求加入队列。排队的请求已经过多: vmware_base, active 5, queued 11 .\TreeViewHostDiscovery.cpp 611(ThreadPool --- Failed to enqueue request. Too many queued requests already: vmwaLINUX ThreadPool --- Failed to enqueue request. Too many queued requests already: vmware_base, active 5, queued 11 .\TreeViewHostDiscovery.cpp 611)

    本版本已解决该问题。

  • 更新传感器数据时发现从以太网提供程序转储核心
    在 IBM x3650M3 服务器硬件状态选项卡中更新传感器数据时,发现轻量级 CIM 代理程序 (SFCB) 从以太网提供程序转储核心。即使在多次尝试后, [硬件状态] 选项卡仍无法显示数据。

    本版本已解决该问题。

其他问题

  • 重新引导主机时未为 SNMP 陷阱文件创建内存磁盘
    重新引导主机或从直接控制台用户界面重新启动 ESXi 主机上的管理代理时,未为 SNMP 陷阱创建内存磁盘。在 ESXi 主机上的 /var/spool/snmp中创建对象(目录、文件、链接或其他)后,启动 SNMP 服务时,未为 SNMP 陷阱创建内存磁盘。

    本版本已解决该问题。

  • 关闭虚拟机电源后,VMX 进程可能会失败并显示错误消息
    尝试关闭虚拟机电源时,VMX 进程可能会失败。
    可能会向 vmware.log文件中写入类似以下内容的错误消息:

    Unexpected signal: 11

    本版本已解决该问题。
  • JavaFX 应用程序项目在启用了 3D 的虚拟机中无法正确显示
    在虚拟机设置中启用了 3D 时,JavaFX 应用程序的用户界面组件无法正确显示。
    本版本已解决该问题。
  • 当 lsilogic 虚拟适配器等待所有可用目标上的 I/O 完成时,该适配器中配置的多个虚拟磁盘可能无法响应
    当 lsilogic 虚拟适配器执行 scsi 目标重置命令时,该适配器将等待虚拟适配器中所有可用目标上的 I/O 完成。这可能会导致使用在 lsilogic 虚拟适配器中配置的多个虚拟磁盘的虚拟机无法响应。

    本版本已解决该问题。

网络连接问题

  • VMXNET3 适配器因在 RSS 中频繁更改而在 Windows Server 2008 R2 中重置
    在多 vCPU Windows 虚拟机上启用了接收方调整时,您会看到针对重复 MAC 地址的 NetPort 消息,指明将禁用然后重新启用端口。在 vmkernel.log 中,您会看到类似以下内容的消息:

    2013-07-08T06:11:58.158Z cpu4:337203)NetPort:1424: disabled port 0x1000020
    2013-07-08T06:11:58.177Z cpu4:337203)NetPort:1237: enabled port 0x1000020 with mac 00:50:56:9e:50:24
    2013-07-08T06:12:46.191Z cpu1:337203)NetPort:1424: disabled port 0x1000020
    2013-07-08T06:12:46.211Z cpu7:337203)NetPort:1237: enabled port 0x1000020 with mac 00:50:56:9e:50:24

    使用这些 MAC 地址的虚拟机中的 vmware.log文件包括类似以下内容的相应事件:

    2013-07-08T06:18:20.175Z| vcpu-1| Ethernet4 MAC Address:00:50:56:9e:50:24
    2013-07-08T06:18:20.199Z| vcpu-1| VMXNET3 user:Ethernet4 Driver Info:version = 833450 gosBits = 2 gosType = 2, gosVer = 24848, gosMisc = 212
    2013-07-08T06:18:36.165Z| vcpu-6| Ethernet4 MAC Address:00:50:56:9e:50:24
    2013-07-08T06:18:36.187Z| vcpu-6| VMXNET3 user:Ethernet4 Driver Info:version = 833450 gosBits = 2 gosType = 2, gosVer = 24848, gosMisc = 212

    本版本已解决该问题。本版本中已更新 VMXNET3 网络驱动程序。

  • 包含使用 E1000 或 E1000e 虚拟适配器的虚拟机的 ESXi 5.x 主机会出现故障,并显示紫色诊断屏幕
    如果 rx 环缓冲区已填满并且最大 Rx 环设置为大于 2,ESXi 主机会出现紫色诊断屏幕,并显示 E1000PollRxRing 和 E1000DevRx 错误。由第二个环处理的已收到的下一个 Rx 数据包为空,导致出现处理错误。
    紫色诊断屏幕将显示类似以下内容的条目:

    @BlueScreen:#PF Exception 14 in world 63406:vmast.63405 IP 0x41801cd9c266 addr 0x0
    PTEs:0x8442d5027;0x383f35027;0x0;
    Code start:0x41801cc00000 VMK uptime:1:08:27:56.829
    0x41229eb9b590:[0x41801cd9c266]E1000PollRxRing@vmkernel#nover+0xdb9 stack:0x410015264580
    0x41229eb9b600:[0x41801cd9fc73]E1000DevRx@vmkernel#nover+0x18a stack:0x41229eb9b630
    0x41229eb9b6a0:[0x41801cd3ced0]IOChain_Resume@vmkernel#nover+0x247 stack:0x41229eb9b6e0
    0x41229eb9b6f0:[0x41801cd2c0e4]PortOutput@vmkernel#nover+0xe3 stack:0x410012375940
    0x41229eb9b750:[0x41801d1e476f]EtherswitchForwardLeafPortsQuick@<None>#<None>+0xd6 stack:0x31200f9
    0x41229eb9b950:[0x41801d1e5fd8]EtherswitchPortDispatch@<None>#<None>+0x13bb stack:0x412200000015
    0x41229eb9b9c0:[0x41801cd2b2c7]Port_InputResume@vmkernel#nover+0x146 stack:0x412445c34cc0
    0x41229eb9ba10:[0x41801cd2ca42]Port_Input_Committed@vmkernel#nover+0x29 stack:0x41001203aa01
    0x41229eb9ba70:[0x41801cd99a05]E1000DevAsyncTx@vmkernel#nover+0x190 stack:0x41229eb9bab0
    0x41229eb9bae0:[0x41801cd51813]NetWorldletPerVMCB@vmkernel#nover+0xae stack:0x2
    0x41229eb9bc60:[0x41801cd0b21b]WorldletProcessQueue@vmkernel#nover+0x486 stack:0x41229eb9bd10
    0x41229eb9bca0:[0x41801cd0b895]WorldletBHHandler@vmkernel#nover+0x60 stack:0x10041229eb9bd20
    0x41229eb9bd20:[0x41801cc2083a]BH_Check@vmkernel#nover+0x185 stack:0x41229eb9be20
    0x41229eb9be20:[0x41801cdbc9bc]CpuSchedIdleLoopInt@vmkernel#nover+0x13b stack:0x29eb9bfa0
    0x41229eb9bf10:[0x41801cdc4c1f]CpuSchedDispatch@vmkernel#nover+0xabe stack:0x0
    0x41229eb9bf80:[0x41801cdc5f4f]CpuSchedWait@vmkernel#nover+0x242 stack:0x412200000000
    0x41229eb9bfa0:[0x41801cdc659e]CpuSched_Wait@vmkernel#nover+0x1d stack:0x41229eb9bff0
    0x41229eb9bff0:[0x41801ccb1a3a]VmAssistantProcessTask@vmkernel#nover+0x445 stack:0x0
    0x41229eb9bff8:[0x0]<unknown> stack:0x0

    本版本已解决该问题。

  • 在多个 VMkernel 端口上启用管理流量时,DCUI 上显示的 IP 地址在重置后会更改
    如果在管理网络中的多个 VMkernel 端口上启用了管理流量,则每次重置该管理网络后,直接控制台用户界面 (DCUI) 上显示的 IP 地址都会更改。

    本版本已解决该问题。
  • ESXi 主机显示紫色诊断屏幕,其中显示了异常 14 错误
    带有 DvFilter 模块的 ESXi 主机可能会显示紫色诊断屏幕,其中包含类似以下内容的回溯追踪:

    2013-07-18T06:41:39.699Z cpu12:10669)0x412266b5bbe8:[0x41800d50b532]DVFilterDispatchMessage@com.vmware.vmkapi#v2_1_0_0+0x92d stack:0x10
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bc68:[0x41800d505521]DVFilterCommBHDispatch@com.vmware.vmkapi#v2_1_0_0+0x394 stack:0x100
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bce8:[0x41800cc2083a]BH_Check@vmkernel#nover+0x185 stack:0x412266b5bde8, 0x412266b5bd88,

    本版本已解决该问题。

  • 由于 ESXi TCP/IP 堆栈中存在争用情况,因此 ESXi 主机可能出现故障,并显示紫色屏幕
    ESXi 主机可能出现故障并显示紫色屏幕,同时显示类似以下内容的错误消息:

    2013-02-22T15:33:14.296Z cpu8:4104)@BlueScreen:#PF Exception 14 in world 4104:idle8 IP 0x4180083e796b addr 0x1
    2013-02-22T15:33:14.296Z cpu8:4104)Code start:0x418007c00000 VMK uptime:58:11:48:48.394
    2013-02-22T15:33:14.298Z cpu8:4104)0x412200207778:[0x4180083e796b]ether_output@<None>#<None>+0x4e stack:0x41000d44f360
    2013-02-22T15:33:14.299Z cpu8:4104)0x4122002078b8:[0x4180083f759d]arpintr@<None>#<None>+0xa9c stack:0x4100241a4e00

    此问题是由于在 ESXi TCP/IP 堆栈中存在争用情况所致。

    本版本已解决该问题。

  • Intel e1000e 网络接口驱动程序可能停止响应收到的 (RX) 流量
    Intel e1000e 网络接口驱动程序可能停止响应收到的 (RX) 流量。

    本版本已解决该问题。

  • 当启用网络健康检查功能时,ESXi 主机可能会出现故障并显示紫色屏幕
    当启用网络健康检查功能并处理多个健康检查包时,L2Echo 功能可能无法处理较大的网络流量,因此 ESXi 主机可能会出现故障并显示类似以下内容的紫色诊断屏幕:

    2013-06-27T10:19:16.074Z cpu4:8196)@BlueScreen:PCPU 1:no heartbeat (2/2 IPIs received)
    2013-06-27T10:19:16.074Z cpu4:8196)Code start:0x418024600000 VMK uptime:44:20:54:02.516
    2013-06-27T10:19:16.075Z cpu4:8196)Saved backtrace from:pcpu 1 Heartbeat NMI
    2013-06-27T10:19:16.076Z cpu4:8196)0x41220781b480:[0x41802468ded2]SP_WaitLockIRQ@vmkernel#nover+0x199 stack:0x3b
    2013-06-27T10:19:16.077Z cpu4:8196)0x41220781b4a0:[0x4180247f0253]Sched_TreeLockMemAdmit@vmkernel#nover+0x5e stack:0x20
    2013-06-27T10:19:16.079Z cpu4:8196)0x41220781b4c0:[0x4180247d0100]MemSched_ConsumeManagedKernelMemory@vmkernel#nover+0x1b stack:0x0
    2013-06-27T10:19:16.080Z cpu4:8196)0x41220781b500:[0x418024806ac5]SchedKmem_Alloc@vmkernel#nover+0x40 stack:0x41220781b690...
    2013-06-27T10:19:16.102Z cpu4:8196)0x41220781bbb0:[0x4180247a0b13]vmk_PortOutput@vmkernel#nover+0x4a stack:0x100
    2013-06-27T10:19:16.104Z cpu4:8196)0x41220781bc20:[0x418024c65fb2]L2EchoSendPkt@com.vmware.net.healthchk#1.0.0.0+0x85 stack:0x4100000
    2013-06-27T10:19:16.105Z cpu4:8196)0x41220781bcf0:[0x418024c6648e]L2EchoSendPort@com.vmware.net.healthchk#1.0.0.0+0x4b1 stack:0x0
    2013-06-27T10:19:16.107Z cpu4:8196)0x41220781bfa0:[0x418024c685d9]L2EchoRxWorldFn@com.vmware.net.healthchk#1.0.0.0+0x7f8 stack:0x4122
    2013-06-27T10:19:16.108Z cpu4:8196)0x41220781bff0:[0x4180246b6c8f]vmkWorldFunc@vmkernel#nover+0x52 stack:0x0

    本版本已解决该问题。
  • 未从数据存储上的 .dvsData 目录中清除未用的 vSphere Distributed Switch (VDS) 端口
    在对通过虚拟网卡连接到 VDS 的虚拟机进行 vMotion 的过程中,即使经过一段时间,来自 vMotion 源主机的端口文件依旧存在于 .dvsData 目录中。

    本版本已解决该问题。

  • vCenter 性能图表中 net.throughput.usage 的返回值与 VMkernel 矛盾
    在 vCenter 性能图表中,net.throughput.usage 的相关值以千字节为单位,而 VMkernel 中返回的相同值以字节为单位。这导致 vCenter 性能图表中值的表示不正确。

    本版本已解决该问题。

  • tg3 网卡的 TCP 分段清除 (TSO) 功能可能会导致 ESXi 主机出现故障
    在 tg3 驱动程序上启用 TSO 功能时,tg3 网卡可能会破坏流经它的数据。

    本版本已解决该问题。已在 tg3 网卡上禁用 TSO 功能。
  • 在同一 ESXi 主机和 vSwitch 上两个虚拟机之间,在 esxtop 中错报网络数据包丢失
    如果通过主机上同一 vSwitch 上的 e1000 驱动程序配置两个虚拟机,在 esxtop 中可能会报告这两个虚拟机之间的网络流量出现重大数据包丢失。这是因为在报告过程中,从客户机启用 TSO 时未解释拆分数据包。

    本版本已解决该问题。本版本中已更新 VMXNET3 网络驱动程序。

安全问题

  • 更新 libxslt
    ESXi userworld libxslt 包已更新。
  • 更新到 NTP 守护进程
    NTP守护进程已更新,解决了一个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 已将此问题命名为 CVE-2013-5211
    注意: 知识库文章 2070193 中记录了此问题的解决办法。
  • 更新到 glibc 软件包
    ESXi glibc-2.5 软件包已更新,解决了一个安全问题。
    通用漏洞披露项目 (cve.mitre.org) 分配给此问题的名称为 CVE-2013-4332

服务器配置问题

  • esxtop 命令行工具报告的 CPU 利用率值不一致
    在启用了超线程的计算机上,与使用 esxtop 核心利用率时得到的值相比,vSphere Client 的 CPU 核心利用率值增大一倍。
    本版本已解决该问题。
  • esxcli network nic coalesce get 命令中收到的单位错误
    输入命令 esxcli network nic coalesce get后,输出中收到的单位是毫秒。正确的单位是微秒。

    本版本已解决该问题。
  • 无法访问 VMFS 数据存储或某些文件
    您可能会发现 vCenter Server 的 [数据存储] 选项卡中缺少虚拟机文件系统数据存储,或在 [事件] 选项卡中显示类似于以下内容的事件:

    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX 或在卷 {1} ({2}) 上至少检测到一处损坏的磁盘锁定。该卷的其他区域可能也被损坏 (XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX or At least one corrupt on-disk lock was detected on volume {1} ({2}). Other regions of the volume might be damaged too)。

    在 vmkernel.log文件中记录了以下消息:

    [lockAddr 36149248] Invalid state:Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING:DLX:908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk.Corrupt lock detected at offset 2279800:[type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$

    您还可能会看到 vmkernel.log文件中记录了以下消息:

    2013-07-24T05:00:43.171Z cpu13:11547)WARNING:Vol3:ValidateFS:2267:XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7:Non-zero generation of VMFS3 volume: 1

    本版本已解决该问题。

  • 在 HP 服务器上安装 EMC PowerPath 后,ESXi 本地磁盘不可用
    安装 EMC PowerPath 后,本地数据存储并非由任何多路径插件 (MPP) 声明。运行声明规则时,如果一个路径与某个声明规则匹配,会将该路径提供给 MPP。在 vSphere 5.1 中,如果 MPP 返回错误,则该路径将与其他声明规则匹配,如果存在匹配项,则该路径将提供给这些声明规则中的 MPP。如果一个路径未由任何 MPP 声明,由于统包声明规则,则将该路径提供给 NMP。

    本版本已解决该问题。

  • ESXi 主机显示紫色诊断屏幕,并显示错误消息
    从 userworld 程序 ps 调用 VMkernel 系统信息 (VSI) 时,如果发送到内核的实例列表损坏,VMkernel 会出现错误。如果 numParams过高并且内核尝试访问该索引的阵列,会出现该问题。将显示包含回溯追踪的紫色诊断屏幕,类似以下内容:

    2013-09-06T00:35:49.995Z cpu11:148536)@BlueScreen:#PF Exception 14 in world 148536:ps IP 0x418004b31a34 addr 0x410019463308

    PTEs:0x4064ffe023;0x2080001023;0x100065023;0x0;

    2013-09-06T00:35:49.996Z cpu11:148536)Code start:0x418004800000 VMK uptime:2:11:35:53.448
    2013-09-06T00:35:49.996Z cpu11:148536)0x412250e1bd80:[0x418004b31a34]VSIVerifyInstanceArgs@vmkernel#nover+0xf3 stack:0x410009979570
    2013-09-06T00:35:49.997Z cpu11:148536)0x412250e1bdd0:[0x418004b31bbb]VSI_CheckValidLeaf@vmkernel#nover+0xca stack:0x8c8
    2013-09-06T00:35:49.998Z cpu11:148536)0x412250e1be40:[0x418004b32222]VSI_GetInfo@vmkernel#nover+0xb1 stack:0x4100194612c0
    2013-09-06T00:35:49.999Z cpu11:148536)0x412250e1beb0:[0x418004ca7f31]UWVMKSyscallUnpackVSI_Get@<None>#<None>+0x244 stack:0x412250e27000
    2013-09-06T00:35:50.000Z cpu11:148536)0x412250e1bef0:[0x418004c79348]User_UWVMKSyscallHandler@<None>#<None>+0xa3 stack:0x0
    2013-09-06T00:35:50.001Z cpu11:148536)0x412250e1bf10:[0x4180048a8672]User_UWVMKSyscallHandler@vmkernel#nover+0x19 stack:0xffea48d8
    2013-09-06T00:35:50.001Z cpu11:148536)0x412250e1bf20:[0x418004910064]gate_entry@vmkernel#nover+0x63 stack:0x0
    2013-09-06T00:35:50.004Z cpu11:148536)base fs=0x0 gs=0x418042c00000 Kgs=0x0

    本版本已解决该问题。

  • ESXi 主机变得无响应并与 vCenter Server 断开连接
    ESXi 主机变得无响应并与 vCenter Server 断开连接。此外,由于 Active Directory 环境中的脱机域导致 lsassd 中内存泄露,因此主机的 DCUI 和 SSH 登录不起作用。

    本版本已解决该问题。
  • 允许虚拟机显示物理主机序列号
    虚拟机无法反映 ESXi 物理主机的序列号。

    本版本已解决该问题。
  • ESXi 主机显示的 resourceCpuAllocMax 系统计数器的值错误
    当您尝试检索主机系统的 resourceCpuAllocMax 和 resourceMemAllocMax 系统计数器的值时,ESX 主机返回的值错误。当 vSphere Client 连接到 vCenter Server 时会出现此问题。

    本版本已解决该问题。

  • 光纤通道主机总线适配器 (HBA) 速率显示错误
    在 Managed Object Browser (MOB) 上,某些 ESXi 主机的光纤通道主机总线适配器 (HBA) 速率始终错误地显示为零。

    本版本已解决该问题。

  • 在 vCenter Server 中,多个 ESXi 主机可能会停止响应
    将大量并行的 HTTP GET /folderURL 请求发送到 hostd 时,hostd 服务会失败。这会停止将主机重新添加到 vCenter Server。可能会显示类似以下内容的错误消息:
     
    无法访问指定主机,该主机不存在,服务器软件无响应,或者存在网络问题 (Unable to access the specified host, either it doesn't exist, the server software is not responding, or there is a network problem)。
     
    本版本已解决该问题。
  • 硬件版本低于 10 的虚拟机无法连接到 NVS 网络
    硬件版本低于 10 的虚拟机无法连接到 NVS(NSX 虚拟交换机)网络。但是,硬件版本大于等于 4 的虚拟机可以连接到 NVS 网络。

    本版本已解决该问题。
  • Hostd 会失败,并生成 hostd-worker 转储
    在分离软件 iSCSI 磁盘(与 vDS 上的 vmknic 连接)后,ESXi 5.5 主机可能会生成 hostd-worker 转储。如果尝试检索该主机上的最新信息,则会出现该问题。

    本版本已解决该问题。

  • 当磁盘与其他已打开电源的虚拟机连接(或共享)时,热移除共享非持久磁盘需要很长时间
    将共享非持久只读磁盘添加到虚拟机时,虚拟机的磁盘移除任务操作可能会更耗时。

    本版本已解决该问题。
  • 置备和自定义虚拟机可能会断开网络连接
    在带有极短端口的 vDS 上根据模板置备和自定义虚拟机时,该虚拟机可能会断开网络连接。

    可能会向日志文件中写入类似以下内容的错误消息:

    2013-08-05T06:33:33.990Z| vcpu-1| VMXNET3 user:Ethernet1 Driver Info:version = 16847360 gosBits = 2 gosType = 1, gosVer = 0, gosMisc = 0
    2013-08-05T06:33:35.679Z| vmx| Msg_Post:Error
    2013-08-05T06:33:35.679Z| vmx| [msg.mac.cantGetPortID] Unable to get dvs.portId for ethernet0
    2013-08-05T06:33:35.679Z| vmx| [msg.mac.cantGetNetworkName] Unable to get networkName or devName for ethernet0
    2013-08-05T06:33:35.679Z| vmx| [msg.device.badconnect] Failed to connect virtual device Ethernet0.
    2013-08-05T06:33:35.679Z| vmx|

    本版本已解决该问题。

  • SNMP 代理停止时,会在 ESXi 主机中创建陷阱文件
    当 SNMP 代理停止时,简单网络管理协议 (SNMP) 会在 ESXi 主机的 /var/spool/snmp文件夹中创建陷阱文件 ( .trp)。如果 SNMP 代理停止时未成功删除目录 /var/spool/snmp,hostd 会将陷阱文件 (.trp) 写入 /var/spool/snmp,从而导致主机出现 inode 不足并在 vCenter Server 中显示为断开连接。因此,您可能无法在主机上执行任何任务。

    本版本已解决该问题。

  • 在预启动执行环境 (PXE) 引导的主机上,已打开电源的虚拟机缺少 GuestNicInfo
    已安装并运行 VMware Tools 时,已打开电源的虚拟机上没有 GuestNicInfo 和 GuestStackInfo。

    本版本已解决该问题。

  • 执行 ESXCLI 命令或使用依赖于 SNMP 代理的监控工具时,可能导致与 ESXi 主机的连接断开
    当您执行 ESXCLI 命令,或者如果您使用依赖于来自 ESXi 中 SNMP 代理的数据的监控工具,则可能会由于 hostd 服务出现故障而导致与 ESXi 主机的连接断开。

    本版本已解决该问题。

  • ESXi 主机的 bandwidthCap 和 throughputCap 选项在客户机操作系统上可能不起作用
    在 ESXi 主机上,如果同时设置 bandwidthCap 和 throughputCap,则 I/O 限制选项在虚拟机上可能不起作用。出现这种情况是因为设置 SCSI 调度程序中的限制选项时逻辑比较出错。

    本版本已解决该问题。

  • 启用 SNMP 且服务器上安装了第三方 CIM 提供程序的主机无法接收 SNMP 陷阱
    在已启用 SNMP 并安装第三方 CIM 提供程序的 ESXi 主机中,如果监控的硬件状态发生更改,您可能无法接收 SNMP 陷阱。 syslog文件中将记录类似以下内容的消息:

    2013-07-11T05:24:39Z snmpd:to_sr_type:unable to convert varbind type '71'
    2013-07-11T05:24:39Z snmpd:convert_value:unknown SR type value
    02013-07-11T05:24:39Z snmpd:parse_varbind:invalid varbind with type 0 and value:'2'
    2013-07-11T05:24:39Z snmpd:forward_notifications:parse file '/var/spool/snmp/1373520279_6_1_3582.trp' failed, ignored

    本版本已解决该问题。

  • 尝试在虚拟机上重置 CPUID 掩码时,Hostd 会失败
    尝试在虚拟机上重置 CPUID 掩码时,如果 SetRegisterInfo的值为空或空字符串,hostd 会发生崩溃。

    本版本已解决该问题。

  • ESXi 安装会失败,并显示“UnboundLocalError”错误消息
    ESXi 安装会失败,并显示错误消息:“UnboundLocalError:分配前引用了本地变量 'isLocalOnlyAdapter' (UnboundLocalError: local variable 'isLocalOnlyAdapter' referenced before assignment)”

    本版本已解决该问题。

  • 主机配置文件无法间歇地应用网络连接存储 (NAS) 配置文件
    主机无法应用 NasStorageProfile,并且主机在应用程序故障期间无法离开维护模式。

    本版本已解决该问题。

  • 尝试应用复杂的主机配置文件可能导致超时
    当您应用复杂的主机配置文件(例如,包含大量端口组和数据存储的主机配置文件)时,操作可能会超时,并显示类似下列内容的错误消息:

    2013-04-09T15:27:38.562Z [4048CB90 info 'Default' opID=12DA4C3C-0000057F-ee] [VpxLRO] -- ERROR task-302 -- -- vim.profile.host.profileEngine.HostProfileManager.applyHostConfig:

    vmodl.fault.SystemError:
    --> Result:
    --> (vmodl.fault.SystemError) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> reason = "",
    --> msg = "A general system error occurred:",
    --> }
    hostd 默认超时值为 10 分钟。由于 applyHostConfig 不是一种渐进式任务,因此 hostd 服务无法在 hostd 超时期间区分已失败的任务与长时间运行的任务。因此,hostd 服务将报告 applyHostConfig 已失败。

    本版本已通过在 HostProfileManager Managed Object 中设置 30 分钟的超时值而解决了该问题。但是,当您尝试应用大型主机配置文件,并且任务可能超出 30 分钟的超时限制时,此问题可能仍会发生。要解决此问题,请重新应用主机配置文件。

    注意:实际的超时触发取决于主机配置文件的复杂性。
  • 如果虚拟机监控程序返回无效的计算机页号,则 VMKernel 将失败
    如果 VMX 传递一个 VPN 值以读取页面,VMKernel 将无法找到该 VPN 值的有效计算机页号,这将导致主机出现故障,并显示紫色诊断屏幕。

    本版本已解决该问题。

存储问题

  • esxtop 性能数据的输出可能显示为零
    当 esxtop 性能数据的输出重定向到 CSV 格式的文件时,以批处理模式收集的 esxtop.csv值可能会更改为零。 esxtop.csv文件可能会显示类似以下内容的 I/O 值:

    "09/04/2013 22:00:00","1251.43","4.89","7.12","1839.62","7.19","4.99","1273.05","4.97","7.08""09/04/2013
    22:00:10","1283.92","5.02","7.06","1875.14","7.32","4.89","1290.37","5.04","7.07""09/04/2013
    22:00:20","1286.49","5.03","7.03","1914.86","7.48","4.87","1320.55","5.16","6.90""09/04/2013
    22:00:31","1222.56","4.78","7.44","1775.23","6.93","5.21","1253.87","4.90","7.28""09/04/2013
    22:00:41","1269.87","4.96","7.15","1847.40","7.22","4.97","1267.62","4.95","7.13""09/04/2013
    22:00:51","1291.36","5.04","7.05","1857.97","7.26","4.96","1289.40","5.04","7.08""09/04/2013
    22:01:01","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:11","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:22","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:32","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013 22:01:42","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00"

    默认情况下将 vSCSI 无效消息设置为 True而非 False时,会出现该问题。

    本版本已解决该问题。

Virtual SAN 问题

  • 当由高级主机控制器接口 (AHCI) 驱动程序声明的存储磁盘属于 Virtual SAN 磁盘组时,您无法热拔出这些磁盘
    AHCI 驱动程序声明连接到主板上的 SATA 端口或通过启用了 AHCI 的存储适配器连接的数据或 SSD 存储磁盘。如果这些磁盘由 AHCI 驱动程序声明并且属于 Virtual SAN 磁盘组,则您无法将其从 ESXi 主机热拔出。如果您这样做,在您重新连接这些磁盘后,主机将无法检测到它们。

    本版本已解决该问题。
  • 热拔出 SSD 时,ESXi 主机可能会发生故障。
    当您尝试热拔出 SSD 时,ESXi 主机可能会崩溃并发生故障。

    本版本已解决该问题。
  • Virtual SAN 可能无法检测到您先热拔出再热重新插入的磁盘
    如果您热拔出 SSD 或非 SSD 磁盘,在热重新插入该磁盘后,Virtual SAN 可能无法检测到它。

    本版本已解决该问题。
  • ESXi 主机构成单节点群集,无法加入现有 Virtual SAN 群集
    如果为 Virtual SAN 配置的 vmknic 在启用了 Virtual SAN 时没有 IP 地址,会出现该问题。如果在启用了 Virtual SAN 的 vmknic 获得 IP 地址时 hostd 尚未启动,主机可能会构成单节点群集。

    本版本已解决该问题。
  • 如果 Virtual SAN 群集的当前容量使用率超过 70%,节点无法使用 Full data evacuate选项进入维护模式
    当从群集中删除一个节点导致 Virtual SAN 群集的容量使用率超过 70% 时,会出现该问题。群集容量是指 Virtual SAN 群集中的空间。

    本版本已解决该问题。
  • 克隆带有存储策略的虚拟机时,始终会将存储策略传输到目标虚拟机,即使您不需要时也是如此。
    当您克隆与存储策略关联的虚拟机并选择不将存储策略分配给目标虚拟机时,克隆过程会成功。但是,原始虚拟机的存储策略将用于目标虚拟机的配置。因此,目标虚拟机可能会在 Virtual SAN 数据存储上意外地使用额外资源。

    本版本已解决该问题。

vCenter Server 和 vSphere Web Client 问题

  • 虚拟磁盘吞吐量的性能统计信息计算可能不正确(差 1024 倍)
    计算虚拟磁盘吞吐量的性能统计信息时不正确地以“字节/秒”为单位进行测量。

    本版本已通过将测量单位更改为“千字节/秒”解决了该问题。

虚拟机管理问题

  • 在 BIOS 中禁用旧版软盘时,虚拟机无法从 CD 或 DVD 引导
    如果在 BIOS 中禁用了旧版软盘,则虚拟机可能无法引导。按照下列步骤进行操作时会出现此问题:
    1. 创建没有操作系统的虚拟机。
    2. 使用 [虚拟机设置] 配置 CD 或 DVD 以连接到 ISO 映像文件或物理驱动器来安装客户机操作系统。
    3. 在 BIOS 中禁用旧版软盘。
    在 BIOS 中禁用了旧版软盘后,虚拟机会“嘟嘟”响两声,并且无法引导。

    本版本已解决该问题。
  • 尝试以 OVF 格式导出虚拟机失败,并显示超时错误
    当您尝试以开放虚拟化格式 (OVF) 导出使用 Ext 2或 Ext 3文件系统并且在磁盘(例如,容量为 210 GB 以及更大的空辅助磁盘)上有大量空块的虚拟机时,操作会超时。

    本版本已解决该问题。

VMware HA 和 Fault Tolerance 问题

  • 尝试配置 HA 时可能会失败,并显示错误消息,指出找不到 HA 主代理
    您可能无法配置 High Availability (HA)。可能会向 vpxd.log文件中写入类似以下内容的错误消息:

    vpxd-1967.log:2013-04-06T01:35:02.156+09:00 [07220 warning 'DAS'] [FdmManager::ReportMasterChange] VC couldn't find a master for cluster HA_GD for 120 seconds
    vpxd-1968.log:2013-04-06T05:02:55.991+09:00 [07320 warning 'DAS'] [FdmManager::ReportMasterChange] VC couldn't find a master for cluster HA_ID for 120 seconds

    当 hostd 功能出现会话不足时,会出现该问题。将向 hostd.log文件中写入类似以下内容的错误消息:

    SOAP session count limit reached.

    本版本已解决该问题。

升级和安装问题

  • ESXi 安装失败并显示 UnboundLocalError 错误
    ESXi 安装失败并显示以下错误: UnboundLocalError:在分配之前引用了本地变量“isLocalOnlyAdapter” (UnboundLocalError: local variable 'isLocalOnlyAdapter' referenced before assignment)

    本版本已解决该问题。

VMware Tools 问题

  • 尝试取消注册 VSS 驱动程序可能导致 vCenter 保护代理在 VMware Tools 更新过程中显示警告消息
    当您尝试在 Windows 客户机操作系统上更新 VMware Tools 并取消注册 VSS 驱动程序时,如果该操作系统所使用的 VMware Tools 内部版本包含未签名的 comreg.exe文件,vCenter 保护代理可能会显示类似以下内容的警告消息:

    comreg.exe 试图运行 (comreg.exe was trying to run)

    本版本已通过包含 VMware 签名的 comreg.exe文件解决了该问题。
  • Microsoft Office 无法将文件保存到共享目录中
    在由 VMware vShield Endpoint 和无代理防病毒解决方案保护的虚拟机上,当您要将来自 Microsoft Office 2007 或 Microsoft Office 2010 应用程序的文件保存到共享目录中时,您会看到类似以下内容的错误消息:

    文件当前正在使用。请稍后重试。
    无法将文件保存到该位置 (File is currently in use. Try again later. Cannot save the file to this location)。

    保存到共享中的文件为空,大小为 0 KB。

    本版本已解决该问题。

  • 在 RHEL 6.2 上更新 VMware Tools 时出错
    使用 RPM (Red Hat Package Manager) 在 RHEL 6.2 (Red Hat Linux Enterprise) 虚拟机中从早期版本的 VMware Tools 更新到版本 9.0.5 时,可能会显示类似以下内容的错误消息:

    错误:软件包: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv)
    需要: vmware-tools-vsock-common = 9.0.1
    已安装: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64)
    vmware-tools-vsock-common = 9.0.5-1.el6
    可用: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 8.6.10-1.el6
    可用: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 9.0.1-3(Error: Package: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv) Requires: vmware-tools-vsock-common = 9.0.1 Installed: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64) vmware-tools-vsock-common = 9.0.5-1.el6 Available: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv) vmware-tools-vsock-common = 8.6.10-1.el6 Available: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv) vmware-tools-vsock-common = 9.0.1-3)

    本版本已解决该问题。

  • 使用 --cmd 参数检索虚拟机信息时,VMware Tools Service 失败
    当您运行 vmtoolsd查询(例如, vmtoolsd --cmd "info-get guestinfo.ovfEnv")时,VMware Tools Service 可能会失败。在 VMware Tools 版本 9.0.1 和 9.0.5 上,这是一个已知问题。

    本版本已解决该问题。
  • 缺少 Oracle Linux 5.x 的预建内核模块
    VMware Tools 已更新,可为 Oracle Linux 5.x 提供 2.6.39-200/400预建内核模块。

    本版本已解决该问题。
  • 使用操作系统特定软件包安装 VMware Tools 时,vmware-db.pl.* 文件将填满 /tmp/vmware-root 目录
    使用 OSP 安装 VMware Tools 时,您可能会发现 /tmp/vmware-root目录中的日志文件数量不断增加。SUSE Linux Enterprise Server 11 Service Pack 2 和 RedHat Enterprise Linux 6 中会出现此问题。

    本版本已解决该问题。
  • vSphere Web Client 可能无法识别已为 Linux 客户机操作系统安装了 VMware Tools
    vSphere Web Client 可能无法识别已为 Linux 客户机操作系统安装了 VMware Tools。
    在 vSphere Web Client 中的 [摘要] 选项卡下可能会显示类似以下内容的错误消息:
    该虚拟机上未安装 VMware Tools (VMware Tools is not installed on this virtual machine)。

    本版本已解决该问题。
  • Maxon Cinema 4D 应用程序在 vSGA 模式下可能会失败
    由于 VMware OpenGL 驱动程序中存在问题,当您尝试单击该应用程序的任意 UI 项目时,在虚拟共享图形加速 (vSGA) 模式下 Maxon Cinema 4D 可能会失败。

    本版本已解决该问题。
  • 在虚拟机中运行 Petrel 3D 应用程序时可能会显示与渲染相关的错误
    由于 OpenGL 图形驱动程序中存在问题,在虚拟机中运行 Petrel 3D 应用程序时您可能会看到与渲染相关的错误。

    本版本已解决该问题。
  • 在 VMware Tools 升级过程中, 会强制用户从 Windows 8 和 Windows 8.1 虚拟机注销
    在 Windows 8 和 Windows 8.1 虚拟机中升级 VMware Tools 时,用户会自动从虚拟机注销。

    本版本已解决该问题。

已知问题

之前未记录的已知问题以 * 符号标记。已知问题分为如下类别:

安装问题
  • 在 Windows Server 2012 上运行简单安装失败
    如果操作系统配置为使用 DHCP IP 地址,则在 Windows Server 2012 上运行简单安装失败

    解决办法:将 Windows Server 2012 配置为使用静态 IP 地址。

  • 在软件 iSCSI LUN 上执行安装失败并显示以下错误消息:预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)
    伴随此问题显示的完整错误如下:
    错误(请参见日志以获得更多信息):
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)。

    将第一个网络适配器配置为从 iBFT iSCSI 引导时出现此问题。iBFT IP 设置用于配置所创建的用于访问 iSCSI 引导槽的 VMkernel 网络端口。在这种情况下,该端口为管理网络端口,因为第一个适配器用于管理流量。

    安装大约完成 90% 时,安装程序将重新配置使用 DHCP 的管理接口。因此,iBFT IP 设置将丢失,与 iSCSI 引导目标之间的 TCP 连接将断开。

    解决办法:执行以下操作之一:

    • 如果有多个网络适配器可用,请使用第二个网络适配器访问 iSCSI 引导磁盘。
    • 如果只有一个网络适配器可用,请将 iBFT 配置为使用 DHCP。iSCSI 目标应位于管理网络中。如果 iSCSI 目标位于其他子网中,则默认 VMkernel 网关可以同时路由管理流量和 iSCSI 流量。

     

  • 如果使用保留 VMFS 进行 Auto Deploy 无状态缓存或有状态安装时,则不会创建核心转储分区
    如果使用 Auto Deploy 在空白磁盘上进行无状态缓存或有状态安装,则会创建 MSDOS 分区表。但是,不会创建核心转储分区。

    解决办法:启用 [无状态缓存或有状态安装主机配置文件] 选项时,请选择 [覆盖 VMFS],即使在空白磁盘上安装也是如此。之后,系统将创建 2.5GB 的核心转储分区。

  • 使用脚本进行安装时,即使在 installorupgrade 命令中使用了 --ignoressd 选项,ESXi 仍会安装在 SSD 上
    在 ESXi 5.5 中, installorupgrade命令不支持 --ignoressd选项。如果您在 installorupgrade命令中使用了 --ignoressd选项,安装程序会显示一条警告,指出这是一个无效组合。安装程序将继续在 SSD 上安装 ESXi,而非停止安装并显示一条错误消息。

    解决办法:要在使用脚本安装 ESXi 时使用 --ignoressd选项,请使用 install命令,而不是 installorupgrade命令。

  • 如果 Auto Deploy 缓存清除出现延迟,则可能会应用已删除的主机配置文件
    删除主机配置文件后,该配置文件将立即从 Auto Deploy 中清除。只要该主机配置文件仍保留在缓存中,Auto Deploy 就会继续应用该主机配置文件。仅当从缓存中清除该配置文件后,应用该配置文件的任何规则才会失败。

    解决办法:您可以使用 Get-DeployRuleSetPowerCLI cmdlet 来确定是否有任何规则使用了已删除的主机配置文件。cmdlet 将在该规则的 项目列表中显示字符串 deleted。随后,您可运行 Remove-DeployRulecmdlet 来删除该规则。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:选择另一个磁盘进行无状态缓存,或者将 ESX 软件从磁盘中移除。如果移除 ESX 软件,则该软件将无法使用。

  • 在 Oracle America (Sun) 供应商提供的服务器上安装或引导 ESXi 5.5.0 会失败
    如果在 Oracle America (Sun) 供应商提供的服务器上执行全新 ESXi 5.5.0 安装或引导现有的 ESXi 5.5.0,则在安装过程中或现有的 ESXi 5.5.0 版本引导时,该服务器控制台将显示空白屏幕。Oracle America (Sun) 供应商提供的服务器会在 ACPI FADT表中设置 HEADLESS标记,而无论这些服务器是否为无头平台,因此会出现这种情况。

    解决办法:在安装或引导 ESXi 5.5.0 时,请传递引导选项 ignoreHeadless="TRUE"。

升级问题

  • 修补程序 ID 为 ESXi550-Update01 的修补程序名称显示为“请参见说明 (see description)”*
    当使用 vSphere Update Manager 时,您可能会注意到,ESXi 5.5 Update 1 汇总包的修补程序名称(修补程序 ID 为 ESXi550-Update01)会显示为 “请参见说明 (无知识库) (see description, (No KB))”。
    缺少修补程序名称不会对功能产生任何影响。可以在 知识库文章 2065832 中找到汇总包详细信息。

    解决办法:无
  • 如果使用 ESXCLI 命令升级物理内存小于 4GB 的 ESXi 主机,则升级将成功,但在重新引导时,某些 ESXi 操作将失败
    ESXi 5.5 至少需要 4GB 的物理内存。ESXCLI 命令行界面不会在升级前针对所需的 4GB 内存进行检查。您可以使用 ESXCLI 成功升级内存不足的主机,但在引导至内存小于 4GB 的已升级 ESXi 5.5 主机时,某些操作可能会失败。

    解决办法:无。在升级到版本 5.5 之前,确认 ESXi 主机的物理内存大于 4GB。

  • 从 vCenter Server Appliance 5.0.x 升级到 5.5 后,如果使用外部 vCenter Single Sign-On,则 vCenter Server 将无法启动
    将 vCenter Server Appliance 从 5.0.x 升级到 5.5 时,如果用户选择使用外部 vCenter Single Sign-On 实例,则 vCenter Server 在该升级后将无法启动。在 Appliance 设备管理界面中,vCenter Single Sign-On 列为 [未配置]

    解决办法:执行下列步骤:

    1. 在 Web 浏览器中,打开 vCenter Server Appliance 管理界面(https:// appliance-address:5480)。
    2. 在 [vCenter Server/摘要] 页面中,单击 [停止服务器] 按钮。
    3. 在 [vCenter Server/SSO] 页面中,使用相应的设置完成表单,然后单击 [保存设置]
    4. 返回到 [摘要] 页面,然后单击 [启动服务器]

     

  • 在使用 ESXCLI 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5 之后,所有 VMKernel 端口组的 vMotion 和 Fault Tolerance 日志记录(FT 日志记录)设置都将丢失
    如果使用命令 esxcli software profile update <options>将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5,则升级会成功,但是,所有 VMKernel 端口组的 vMotion 和 FT 日志记录设置都将丢失。因此,vMotion 和 FT 日志记录会还原为默认设置(已禁用)。

    解决办法:执行交互式或脚本式升级,或者使用 vSphere Update Manager 来升级主机。如果使用 esxcli命令,请在升级后手动对受影响的 VMkernel 端口组应用 vMotion 和 FT 日志记录设置。

  • 在将 vSphere 5.0.x 或早期版本升级到版本 5.5 之后,手动设置的系统资源分配值将重置为默认值
    暂时的解决办法是,在 vSphere 5.0.x 及早期版本中,修改系统资源分配用户界面中的设置。如果不完全重新安装 ESXi,则无法将这些设置的值重置为默认值。在 vSphere 5.1 及更高版本中,系统行为会发生变化,因此,保留自定义系统资源分配设置可能会产生使用不安全的值。升级过程会重置所有这些值。

    解决办法:无。

  • 在将 ESX 4.x 升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 设置
    在使用 --forcemigrate选项将已启用 IPv6 的 ESX 4.x 主机升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 地址。

    解决办法:无。

vCenter Single Sign-On 问题
  • 将 vSphere Web Client 从 5.1 Update 1a 升级到 5.5 期间出现错误 29107
    将 vSphere Web Client 从版本 5.1 Update U1a 升级到版本 5.5 期间,如果在升级之前使用的 vCenter Single Sign-On 服务配置为高可用性 Single Sign-On,则会出现错误 29107。

    解决办法:重新执行升级。可以运行安装程序并选择 [自定义安装],以仅升级 vSphere Web Client。

  • 无法从 vSphere Web Client 下拉菜单中更改 administrator@vsphere.local 的密码
    从 vSphere Web Client 登录 vCenter Single Sign-On 服务器时,可以从下拉菜单中执行密码更改操作。以 administrator@vsphere.local 用户身份登录时, [更改密码] 选项会变灰。

    解决办法:

    1. 选择 [管理] 选项卡,然后选择 [vCenter Single Sign-On] > [用户和组]
    2. 右键单击管理员用户,然后单击 [编辑用户]
    3. 更改密码。

     

网络连接问题

  • 重新引导后,与 vmknic 接口和动态 IP 地址关联的静态路由可能无法显示*
    重新引导主机后,与 VMkernel 网络接口 (vmknic) 和动态 IP 地址关联的静态路由可能无法显示。
    此问题是由于在 DHCP 客户端和还原路由命令之间存在争用情况所致。当主机在重新引导过程中尝试还原自定义路由时,DHCP 客户端可能未完成为 vmknic 获取 IP 地址的操作。因此,可能未设置网关,从而未还原路由。

    解决办法:运行 esxcfg-route –r命令可手动还原路由。
  • 在使用 IPv6 地址将 ESXi 主机添加到 vCenter Server 之后,该主机停止响应
    在使用格式为 fe80::/64的 IPv6 链路本地地址将 ESXi 主机添加到 vCenter Server 之后,该主机会在短时间内灰显并停止响应 vCenter Server。

    解决办法:使用非链路本地地址的有效 IPv6 地址。

  • 除物理网卡支持的虚拟功能外,vSphere Web Client 还允许您配置更多虚拟功能,并且不会显示错误消息
    在物理适配器的 SR-IOV 设置中,除适配器支持的虚拟功能外,您还可以配置更多虚拟功能。例如,可以在仅支持 23 个虚拟功能的网卡上配置 100 个虚拟功能,并且不会显示任何错误消息。将显示一条消息,提示您重新引导主机,以便应用 SR-IOV 设置。主机重新引导后,该网卡将配置有该适配器可支持的虚拟功能数(即,此示例中的 23)。提示您重新引导主机的消息仍然存在,而实际不应显示。

    解决办法:无

  • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
    在具有 Intel ixgbe 网卡的 ESXi 5.1 或更高版本主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,则某些虚拟机可能无法启动。
    vmware.log文件包含类似于以下内容的消息:
    2013-02-28T07:06:31.863Z| vcpu-1| I120:Msg_Post:Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings:0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.response] We will respond on the basis of your support entitlement.

    解决办法:减少与受影响的虚拟机关联的虚拟功能的数量并启动该虚拟机。

  • 在 Emulex BladeEngine 3 物理网络适配器上,虚拟功能支持的虚拟机网络适配器无法访问将物理功能用作上行链路的 VMkernel 适配器
    虚拟功能及其物理功能之间无流量流动。例如,在物理功能支持的交换机上,在同一端口上使用虚拟功能的虚拟机无法与同一交换机上的 VMkernel 适配器联系。这是 Emulex BladeEngine 3 物理适配器的一个已知问题。有关信息,请联系 Emulex。

    解决办法:在主机上禁用 Emulex BladeEngine 3 设备的本机驱动程序。有关详细信息,请参见 VMware 知识库文章 2044993

  • ESXi Dump Collector 无法将 ESXi 核心文件发送到远程服务器
    如果将处理 Dump Collector 流量的 VMkernel 适配器配置为将链路聚合组 (LAG) 设置为活动上行链路的分布式端口组,则 ESXi Dump Collector 无法发送 ESXi 核心文件。物理交换机上配置了 LACP 端口通道。

    解决办法:执行以下解决办法之一:

    • 使用 vSphere 标准交换机来配置处理 ESXi Dump Collector 与远程服务器的流量的 VMkernel 适配器。
    • 使用独立的上行链路为配置了 VMkernel 适配器的分布式端口组处理流量。
  • 如果您使用 vSphere Client 对 vSphere Standard Switch 或 vSphere Distributed Switch 在主机上的端口数进行更改,则不会保存更改,即使在重新引导后也是如此
    如果您使用 vSphere Client 对 vSphere Standard Switch 或 vSphere Distributed Switch 在 ESXi 5.5 主机上的端口数进行更改,则端口数不会发生变化,即使在重新引导主机后也是如此。

    重新引导运行 ESXi 5.5 的主机时,该主机会动态地增加或减少虚拟交换机的端口数。端口数基于主机可运行的最大虚拟机数来确定。您无需在此类主机上配置交换机端口数。

    解决办法:在 vSphere Client 中无解决办法。

服务器配置问题

  • 从串行控制台访问直接控制台用户界面时遇到菜单导航问题*
    如果从串行控制台访问直接控制台用户界面,则导航至相应菜单时向上和向下箭头键不起作用,并会强制用户从 DCUI 配置屏幕注销。

    解决办法:停止 DCUI 进程。DCUI 进程将自动重新启动。

  • 将 ESXi 主机升级到 5.5 Update 1 并更改主机配置后,主机配置文件可能错误地显示为合规*
    如果将与主机配置文件合规的 ESXi 主机升级为 ESXi 5.5 Update 1 并随后在主机配置中进行更改,然后重新检查主机与主机配置文件的合规性,则会错误地报告配置文件合规。

    解决办法:
    • 在 vSPhere Client 中,导航到有问题的主机配置文件并运行 [从引用的主机更新主机配置文件]
    • 在 vSPhere Web Client 中,导航到有问题的主机配置文件,单击 [从主机复制设置],选择要从其中复制配置设置的主机并单击 [确定]
  • 对 vSphere Distributed Switch 执行主机配置文件修复失败
    对 vSphere Distributed Switch 应用主机配置文件时,如果启用了 Fault Tolerance 功能的虚拟机在使用该主机配置文件中的 Distributed Switch 的主机上处于已关闭电源状态,则会发生修复错误。

    解决办法:将已关闭电源的虚拟机移至其他主机以使主机配置文件成功修复。

  • 将 Auto Deploy 用于 USB 的无状态缓存或有状态安装后,将显示不合规消息
    编辑主机配置文件以在主机上对 USB 磁盘启用无状态缓存后,该主机配置文件会在尝试修复时收到合规性错误。主机将重新引导并完成缓存。在检查合规性之后,会收到以下合规性错误:
    主机状况不符合规范 (Host state does not match specification)

    解决办法:不需要任何解决办法。此消息不正确。

  • 将 ESX 4.0 或 ESX 4.1 配置文件应用于 ESXi 5.5.x 主机时,主机配置文件收到防火墙设置合规性错误
    如果从 ESX 4.0 或 ESX 4.1 主机提取主机配置文件并尝试将其应用于 ESXi 5.5.x 主机,则配置文件修复成功。合规性检查收到的防火墙设置错误包括以下几项:
    未找到规则集 LDAP (Ruleset LDAP not found)
    未找到规则集 LDAPS (Ruleset LDAPS not found)
    未找到规则集 TSM (Ruleset TSM not found)
    未找到规则集 VCB (Ruleset VCB not found)
    未找到规则集 activeDirectorKerberos (Ruleset activeDirectorKerberos not found)

    解决办法:不需要任何解决办法。这是正常的,因为 ESX 4.0 或 ESX 4.1 主机的防火墙设置不同于 ESXi 5.5.x 主机。

  • 更改 ESXi 主机的 BIOS 设备设置可能会导致设备名称无效
    如果更改 ESXi 主机上的 BIOS 设备设置,而此更改会使分配给该设备的 <segment:bus:device:function> 值发生变化,则可能会导致设备名称无效。例如,如果启用先前已禁用的集成网卡,则可能会改变分配给其他 PCI 设备的 <segment:bus:device:function> 值,从而使 ESXi 更改分配给这些网卡的名称。与先前版本的 ESXi 不同,如果主机 BIOS 提供了具体的设备位置信息,则 ESXi 5.5 会尝试在 <segment:bus:device:function> 发生更改时保留设备名称。由于此功能中的一个缺陷,有时会生成诸如 vmhba1 和 vmnic32 之类的无效名称。

    解决办法:重新引导 ESXi 主机一两次即可清除无效设备名称,而还原为原始名称。不要在生产环境中运行使用无效设备名称的 ESXi 主机。

存储问题

  • 尝试对使用 RDM 磁盘的虚拟机执行实时 Storage vMotion 时可能会失败*
    使用 RDM 磁盘的虚拟机的 Storage vMotion 可能会失败,并显示虚拟机处于电源关闭状态。尝试打开虚拟机的电源时失败,并显示以下错误:

    未能锁定文件 (Failed to lock the file)

    解决办法:无。
  • 重命名的标记在 [编辑虚拟机存储策略] 向导中显示为缺失
    虚拟机存储策略可根据数据存储标记包含相应的规则。如果重命名某个标记,则引用此标记的存储策略不会自动更新此标记,并将其显示为缺失。

    解决办法:从虚拟机存储策略中移除标记为缺失的标记,然后添加该重命名的标记。对所有过期实体重新应用存储策略。

  • 当 Flash Read Cache 块大小设置为 16KB、256KB、512KB 或 1024KB 时,无法打开虚拟机电源
    如果虚拟机配置了 Flash Read Cache,并且块大小为 16KB、256KB、512KB 或 1024KB,则无法打开该虚拟机的电源。Flash Read Cache 支持的最小缓存大小为 4MB,最大缓存大小为 200GB,最小块大小为 4KB,最大块大小为 1MB。打开虚拟机电源时,操作将失败并显示以下消息:

    打开虚拟机电源时从 ESX 主机收到一条错误 (An error was received from the ESX host while powering on VM)。

    无法启动虚拟机。

    打开模块 DiskEarly 电源失败 (Module DiskEarly power on failed)。

    无法配置磁盘 scsi0:0 (Failed to configure disk scsi0:0)。

    无法打开包含未配置的磁盘的虚拟机电源。无法连接 vFlash 缓存:msg.vflashcache.error.VFC_FAILURE (The virtual machine cannot be powered on with an unconfigured disk. vFlash cache cannot be attached: msg.vflashcache.error.VFC_FAILURE)

    解决办法:配置虚拟机 Flash Read Cache 大小和块大小。

    1. 右键单击虚拟机,然后选择 编辑设置
    2. 虚拟硬件选项卡上,展开 硬盘以查看磁盘选项。
    3. 单击 [虚拟 Flash Read Cache] 字段旁边的 [高级]
    4. 增加缓存大小预留或减小块大小。
    5. 单击 确定保存更改。
  • 无法在 vSphere Web Client 中加载已保存的资源池树文件的自定义扩展名
    DRS 错误消息将显示在主机摘要页面上。

    在 vSphere Web Client 中禁用 DRS 时,系统将提示您保存资源池结构,以便将来能够重新加载。该文件的默认扩展名为 .snapshot,但也可以为此文件选择其他扩展名。如果此文件使用自定义扩展名,则尝试加载时会显示为已禁用。该问题仅在 OS X 上出现。

    解决办法:将该扩展名更改为 .snapshot,才能在 OS X 上的 vSphere Web Client 中加载此文件。

  • DRS 错误消息显示在主机摘要页面上
    以下 DRS 错误消息会显示主机摘要页面上:

    无法在主机上应用 DRS 资源设置。在当前状况下不允许执行此操作。这会明显大幅 DRS 的效率 (Unable to apply DRS resource settings on host. The operation is not allowed in the current state. This can significantly reduce the effectiveness of DRS)。

    在某些配置中,争用情况可能会导致在日志中创建无意义或不可操作的错误消息。如果在应用 DRS 资源设置的同时未注册虚拟机,则可能会出现此错误。

    解决办法:忽略该错误消息。

  • 为大于 16TB 的 VMDK 配置虚拟 Flash Read Cache 将导致错误
    虚拟 Flash Read Cache 不支持大于 16TB 的虚拟机磁盘。配置此类磁盘的尝试将失败。

    解决办法:无

  • 重新配置缓存大小后,虚拟机可能会关闭电源
    如果在虚拟机上以错误的方式重新配置虚拟 Flash Read Cache(例如,通过分配无效值),则虚拟机可能会关闭电源。

    解决办法:请遵循《vSphere Storage》  文档中建议的缓存大小准则。

  • 重新配置已启用虚拟 Flash Read Cache 的虚拟机失败,并显示错误: 操作超时 (Operation timed out)
    重新配置操作需要大量 I/O 带宽。如果运行的负载较大,则该操作可能会在完成之前发生超时。如果主机具有处于全部路径异常 (APD) 状态的 LUN,则也可能会看到此行为。

    解决办法:修复所有主机 APD 状态,然后在 LUN 和主机上使用较少的 I/O 负载重试此操作。

  • 为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作
    为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作。

    解决办法:DRS 建议不要对此类虚拟机执行 vMotion 操作,除非出于以下原因:

    • 要撤出用户已请求进入维护模式或待机模式的主机。
    • 要修复 DRS 规则违反问题。
    • 主机资源使用情况处于红色状态。
    • 一个或多个主机使用过度,且未满足虚拟机需求。
      注意:您可以选择设置 DRS 来忽略此理由。
  • 当虚拟机的活动内存较低,而消耗内存较高时,主机处于待机状态
    ESXi 5.5 在 DPM 的默认行为中引入了更改,旨在降低功能的激进程度,从而有助于防止虚拟机在活动内存较低而消耗内存较高时降低性能。DPM 衡量指标为 X%*IdleConsumedMemory + active memory。X% 变量是可调整的,默认情况下设置为 25%。

    解决办法:您可以恢复到 ESXi 早期版本中的激进 DPM 行为,方法是在高级选项下设置 PercentIdleMBInMemDemand=0。

  • 由 DRS 启动的 vMotion 操作可能失败
    当 DRS 建议对具有虚拟 Flash Read Cache 预留的虚拟机执行 vMotion 操作时,vMotion 可能会失败,因为目标主机上没有足够的可用内存 (RAM) 来管理虚拟机的 Flash Read Cache 预留。

    解决办法:请遵循《vSphere Storage》  中的 Flash Read Cache 配置建议。
    如果 vMotion 失败,请执行以下步骤:

    1. 重新配置目标主机上的虚拟机以及入站虚拟机的块大小,以减少目标主机上 VMkernel 内存的整体目标使用量。
    2. 使用 vMotion 手动将虚拟机迁移到目标主机,以确保解决此情况。
  • 无法查看在为单个 SSD 设备配置虚拟闪存期间发生的问题
    配置虚拟闪存资源是对一系列 SSD 设备执行的任务。对所有对象完成此任务后,vSphere Web Client 会将其报告为成功,而可能不会通知您有关配置单个 SSD 设备时出现的问题。

    解决办法:执行以下任务之一。

    • 在 [近期任务] 面板中,双击已完成的任务。
      所有配置故障都将显示在 [任务详细信息] 对话框的 [相关事件] 部分中。
    • 也可以执行以下步骤:
      1. 在清单中选择主机。
      2. 单击 监控选项卡,然后单击 事件
  • 在 ESXi 主机上无法获取 Micron PCIe SSD 的 SMART 信息
    尝试使用 esxcli storage core device smart get -d命令来显示 Micron PCIe SSD 设备的统计信息失败。您会看到以下错误消息:
    获取智能参数时出错:无法打开设备 (Error getting Smart Parameters: CANNOT open device)

    解决办法:无。在此版本中, esxcli storage core device smart命令不支持 Micron PCIe SSD。

  • ESXi 不会应用在虚拟机的配置文件中为 SCSI 虚拟磁盘配置的带宽限制
    可以在虚拟机配置文件 ( .vmx) 中使用一组参数配置 SCSI 虚拟磁盘的带宽和吞吐量限制。例如,对于 scsi0:0 虚拟磁盘,配置文件可能包含以下限制:
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"
    ESXi 不会对 scsi0:0 虚拟磁盘应用 sched.scsi0:0.bandwidthCap限制。

    解决办法:使用 vSphere Web Client 或 esxcli 系统设置高级设置命令来恢复到磁盘 I/O 调度程序的较早版本。

    • 在 vSphere Web Client 中,在主机的 [高级系统设置] 列表中编辑 Disk.SchedulerWithReservation参数。
      1. 导航到主机。
      2. [管理] 选项卡上,选择 [设置],然后选择 [高级系统设置]
      3. 找到 Disk.SchedulerWithReservation参数,例如,使用 [筛选器][查找] 文本框。
      4. 单击 [编辑],然后将参数设置为 0。
      5. 单击 确定
    • 在主机的 ESXi Shell 中,运行以下控制台命令:
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • 如果虚拟机配置有 Flash Read Cache,而该缓存出现错误,则该虚拟机无法从主机迁移
    如果虚拟机配置有 Flash Read Cache,而该缓存处于错误状态且无法使用,则该虚拟机可能会出现迁移错误。此错误会使虚拟机迁移失败。

    解决办法:

    1. 重新配置虚拟机并禁用该缓存。
    2. 执行迁移。
    3. 迁移虚拟机后,重新启用该缓存。

    也可以关闭该虚拟机电源,然后重新打开该虚拟机电源,以更改该缓存错误。

  • 在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷
    在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷。

    解决办法:只有在从 ESXi 5.5 测试版升级到 ESXi 5.5 时才会发生此问题。要避免此问题,请安装 ESXi 5.5 而不是进行升级。如果要从 ESXi 5.5 测试版升级,请在升级之前删除 VFFS 卷。

  • 在安装有旧版 Windows 和 Linux 客户机操作系统的虚拟机上启用虚拟 Flash Read Cache 后,运行时滞后时间不会出现预期的改进
    如果虚拟 Flash Read Cache 的大小与目标工作集匹配,并且客户机文件系统至少与 4KB 边界对齐,则该缓存可提供最佳性能。该 Flash Read Cache 会筛选掉未对齐的块,以避免在该缓存中缓存不完整的块。通常,在为安装有 Windows XP 和早于 2.6 的 Linux 分发版本的虚拟机的 VMDK 配置虚拟 Flash Read Cache 时,才会出现此行为。此时,缓存命中率较低,而且缓存占用也较低,这意味着为这些 VMDK 预留的缓存出现浪费。对于运行 Windows 7、Windows 2008 以及 Linux 2.6 及更高分发版本的虚拟机来说,并不会出现此行为,这些虚拟机会将其文件系统与 4KB 边界对齐以确保性能最佳。

    解决办法:要提高缓存命中率,并以最优方式使用为每个 VMDK 预留的缓存,请确保在 VMDK 上安装的客户机操作文件系统至少与 4KB 边界对齐。

Virtual SAN

  • 尝试向 Virtual SAN 磁盘组添加七个以上磁盘时可能会失败,并显示不正确的错误消息*
    Virtual SAN 磁盘组最多支持一个 SSD 和七个磁盘 (HDD)。尝试添加更多磁盘时可能会失败,并显示类似以下内容的不正确错误消息:

    磁盘数量不足 (The number of disks is not sufficient)。

    解决办法:无
  • 添加 Virtual SAN 磁盘时重新扫描失败*
    添加 Virtual SAN 磁盘时,由于对 non-Virtual SAN 卷的探查失败,导致重新扫描失败,从而导致操作失败。

    解决办法:请忽略该错误,因为所有磁盘都已正确注册。
  • 在移除与其关联的固态驱动器 (SSD) 后移除的硬盘驱动器 (HDD) 可能仍被列为 Virtual SAN 声明的存储磁盘*
    如果在从 Virtual SAN 数据存储移除 SSD 及其关联的 HDD 后运行 esxcli vsan storage list命令,则移除的 HDD 仍然会被列为 Virtual SAN 声明的存储磁盘。如果将 HDD 插回其他主机,则该磁盘可能显示为属于两个不同的主机。

    解决办法:例如,如果将 SSD 和 HDD 从 ESXi x 移除并插入 ESXi y,则执行下列步骤可防止 HDD 显示为同时属于 ESXi x 和 ESXi y:
    1. 将从 ESXi x 移除的 SSD 和 HDD 插入 ESXi y。
    2. 从 ESXi x 取消配置该 SSD。
    3. 运行命令 esxcfg-rescan -A。
    该 HDD 和 SSD 将不再列于 ESXi x 上。
  • 《vSphere Storage》  文档中的 “使用 Virtual SAN”  部分指出,每个磁盘组中 HDD 磁盘的最大数量是六个。但是,允许的最大 HDD 数量是七个。*
  • 在 Virtual SAN 群集中发生故障后,vSphere HA 可能会在重新启动虚拟机之前报告多个事件,产生一些误导*
    当在 Virtual SAN 上运行的虚拟机似乎发生故障后,vSphere HA 主代理会多次尝试重新启动该虚拟机。如果虚拟机无法立即重新启动,主代理会监控群集状态,当状况表明重新启动可能会成功时再次尝试。对于在 Virtual SAN 上运行的虚拟机,vSphere HA 主代理具有特殊的应用逻辑来检测虚拟机对象的可访问性何时可能已发生变化,只要可访问性可能发生变化,便会尝试重新启动。如果主代理未成功打开虚拟机电源,它不会放弃,而是会等待下一次可能的可访问性变化,每次可能的可访问性变化后,它都会进行尝试。

    在每次失败的尝试后,vSphere HA 都会报告一个事件,指出故障转移未成功,五次失败的尝试后,会报告 vSphere HA 停止尝试重新启动虚拟机,因为已达到故障转移的最大尝试次数。但是,即使在报告 vSphere HA 主代理已停止尝试后,可访问性下次可能发生变化时,它仍会尝试。

    解决办法:无。

  • 关闭 Virtual SAN 主机电源会导致 vSphere Web Client 中的 [存储提供程序] 视图刷新时间超过预期*
    如果关闭了 Virtual SAN 主机电源,[存储提供程序] 视图可能显示为空。尽管未显示任何信息,[刷新] 按钮仍会继续旋转。

    解决办法:等待至少 15 分钟,以便重新填充 [存储提供程序] 视图。在您打开主机电源后,该视图也会刷新。

  • Virtual SAN 报告失败的任务已完成*
    尽管某些任务在内部失败,Virtual SAN 仍可能会报告它们已完成。

    以下是错误的条件和相应的原因:

    • 条件:当 Virtual SAN 许可证已过期时,用户尝试创建新磁盘组或向现有磁盘组中添加新磁盘。
      错误堆栈:出现了常规系统错误:无法添加磁盘:VSAN 未在该主机上获得许可。
    • 条件:用户尝试创建的磁盘组中的磁盘数量高于支持的数量。或者他们尝试向现有磁盘组中添加新磁盘,以致总数超过了每个磁盘组支持的磁盘数量。
      错误堆栈:出现了常规系统错误:磁盘过多。
    • 条件:用户尝试向出错的磁盘组中添加磁盘。
      错误堆栈:出现了常规系统错误:无法创建分区表。

    解决办法:确定失败的原因后,纠正原因并再次执行任务。

  • Virtual SAN 数据存储无法存储主机本地和系统交换文件*
    通常,您可以将系统交换或主机本地交换文件放置在数据存储上。但是,Virtual SAN 数据存储不支持系统交换和主机本地交换文件。因此,没有可用于选择 Virtual SAN 数据存储作为系统交换或主机本地交换文件位置的 UI 选项。

    解决办法:在 Virtual SAN 环境中,使用支持的其他选项放置系统交换和主机本地交换文件。

  • 尽管已关闭 vSphere HA 群集中 Virtual SAN 虚拟机的电源,但仍报告它受 vSphere HA 保护*
    当您关闭虚拟机电源,其主对象位于 Virtual SAN 数据存储上,并且主对象不可访问时,可能会出现这种情况。如果在对象变得不可访问后发生 HA 主代理选举,会看到该问题。

    解决办法:

    1. 通过应用指定的存储策略检查对象的合规性,确保主对象重新可访问。
    2. 打开虚拟机电源,然后再次关闭电源。

    状态应更改为不受保护。

  • 即使在触发并成功完成 [重新应用] 操作后,虚拟机对象仍处于 [已过期] 状态*
    如果因新存储要求而编辑现有虚拟机配置文件,关联的虚拟机对象(主机或磁盘)可能会进入 [已过期] 状态。当您的当前环境无法支持重新配置虚拟机对象时,会出现该问题。使用 [重新应用] 操作不会更改这种状态。

    解决办法:向 Virtual SAN 群集中添加更多资源(主机或磁盘),并再次调用 [重新应用] 操作。

  • 如果在启用 Virtual SAN 后为其获得许可,则 Virtual SAN 的自动磁盘声明无法按预期运行*
    如果在自动模式下启用 Virtual SAN,然后分配许可证,则 Virtual SAN 无法声明磁盘。

    解决办法:将模式更改为 [手动],然后再切换回 [自动]。Virtual SAN 将正确地声明磁盘。

  • 对 Virtual SAN 网络分区后,vSphere High Availability (HA) 无法重新启动虚拟机*
    当 Virtual SAN 使用 VMkernel 适配器进行节点间通信,而这些适配器与群集中的其他 VMkernel 适配器位于同一子网上时,会出现该问题。这种配置会导致网络故障并中断 Virtual SAN 节点间通信,而 vSphere HA 节点间通信一直不受影响。

    在这种情况下,HA 主代理可能会检测到虚拟机中的故障,但是无法重新启动虚拟机。例如,当运行主代理的主机无法访问虚拟机的对象时,会发生这种情况。

    解决办法:确保 Virtual SAN 使用的 VMkernel 适配器不与其他用途的 VMkernel 适配器共享一个子网。

  • VM 目录包含重复的交换 (.vswp) 文件*   
    如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

    解决办法:无

vCenter Server 和 vSphere Web Client

  • 无法将 ESXi 主机添加到 Active Directory 域*
    您可能注意到尝试分配权限时 Active Directory 域名称未显示在 [选择用户和组] 选项下的 [域] 下拉列表中。同样,[身份验证服务设置] 选项可能未显示任何信任域控制器,即使 Active Directory 有信任域时也是如此。

    解决办法:
    1. 依次重新启动 netlogond、lwiod 和 lsassd 守护进程。
    2. 使用 vSphere Client 登录到 ESXi 主机。
    3. [配置] 选项卡中,单击 [身份验证服务设置]
    4. 刷新以查看信任域。
虚拟机管理问题
  • 如果虚拟机使用在法语区域设置下运行的 Windows 7 Enterprise(64 位)客户机操作系统,则该虚拟机在克隆操作期间会出现问题
    如果克隆的 Windows 7 Enterprise(64 位)虚拟机正在法语区域设置下运行,则该虚拟机会与网络断开连接,并且不会应用自定义规范。如果虚拟机正在 ESXi 5.1 主机上运行,此时将其克隆到 ESXi 5.5,并将 VMware Tools 版本升级到 5.5 主机提供的最新版本,则会出现此问题。

    解决办法:先将虚拟机兼容性升级到 ESXi 5.5 及更高版本,然后再升级到 VMware Tools 的最新可用版本。

  • 尝试增加正在运行的虚拟机上的虚拟磁盘大小会失败并显示错误
    如果在虚拟机正在运行时增加虚拟磁盘的大小,则操作可能失败并显示以下错误:

    此设备类型不支持此操作 (This operation is not supported for this device type.)

    如果要将磁盘大小扩展到 2TB 或更大,则操作可能会失败。热扩展操作仅支持将磁盘大小增加到小于或等于 2TB 的大小。SATA 虚拟磁盘不支持热扩展操作,无论该磁盘大小是多少。

    解决办法:关闭虚拟机电源,以便将虚拟磁盘扩展到 2TB 或更大。

VMware HA 和 Fault Tolerance 问题
  • 如果在 vSphere HA 群集中选择 ESX/ESXi 4.0 或 4.1 主机来故障切换某个虚拟机,则该虚拟机可能无法按预期重新启动
    当 vSphere HA 在 ESX/ESXi 4.0 或 4.1 主机上重新启动某个虚拟机时,如果该主机与运行该虚拟机的原始主机不同,则会发出一个查询,但该查询不会获得应答。该虚拟机不会在新主机上打开电源,除非从 vSphere Client 中手动应答该查询。

    解决办法:从 vSphere Client 中应答该查询。您也可以等待超时(默认为 15 分钟),然后,vSphere HA 将尝试在其他主机上重新启动该虚拟机。如果该主机运行的是 ESX/ESXi 5.0 或更高版本,则该虚拟机将重新启动。

  • 如果无共享存储的 vMotion 操作在 vSphere HA 群集中失败,则目标虚拟机可能会注册到意外的主机中
    由于目标虚拟机不会收到用于协调两个虚拟机之间控制权转移的握手消息,因此,无共享存储的 vMotion 迁移可能会失败。vMotion 协议会同时关闭源虚拟机和目标虚拟机的电源。如果源主机和目标主机位于同一群集中,并且已启用 vSphere HA,则 vSphere HA 可能会将目标虚拟机注册到另一台主机上,而该主机不是为 vMotion 迁移选择的目标主机。

    解决办法:如果希望保留目标虚拟机并将其注册到特定主机上,则必须将该目标虚拟机重定位到目标主机。最好在打开虚拟机电源之前执行此重定位操作。

受支持硬件问题
  • 风扇、电源、电压和当前传感器的传感器值显示在 vCenter Server [硬件状态] 选项卡的 [其他] 组中
    某些传感器值会在 [其他] 组中列出,而不是在各个值所属的组中。

    解决办法:无。

  • 如果启用了调试直接内存访问 (DMA) 映射程序,则可能会出现 I/O 内存管理单元 (IOMMU) 故障
    此调试映射程序会将设备置于 IOMMU 域中,以便于捕获对未明确映射的地址的设备内存访问。在某些使用旧版固件的 HP 系统上,可能会出现 IOMMU 故障。

    解决办法:从 HP 网站下载固件升级,然后加以应用。

    • 升级 HP iLO2 控制器的固件。
      2011 年 8 月发布的 2.07 版可解决此问题。
    • 升级 HP Smart Array 的固件。
      2012 年 1 月发布的 HP Smart Array P410 5.14 版可解决此问题。

VMware Tools 问题

  • 通过 OSP 安装或卸载 VMware Tools 时会强制用户注销*
    在使用操作系统特定软件包 (OSP) 安装的 RHEL (Red Hat Linux Enterprise) 和 CentOS 虚拟机中安装或卸载 VMware Tools 软件包时,将强制当前用户注销。RHEL 6.5 64 位、RHEL 6.5 32 位、CentOS 6.5 64 位和 CentOS 6.5 32 位虚拟机中会出现此问题。

    解决办法:
    • 使用安全 shell (SSH) 安装或卸载 VMware Tools,
      或者
    • 用户必须再次登录以安装或卸载 VMware Tools 软件包