VMware ESXi 5.1 Update 3 | 2014 年 12 月 04 日 | 内部版本 2323236

上次更新时间:2014 年 12 月 04 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • 支持其他客户机操作系统。 本版本更新了对多个客户机操作系统的支持。
    有关本版本所支持的客户机操作系统的完整列表,请参见 《VMware 兼容性指南》

  • 已解决的问题。本版本也解决了许多已列在 已解决的问题部分中的问题。

ESXi 5.1 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.1 的功能和已知问题。要查看 ESXi 5.1 早期版本的发行说明,请参阅

国际化

VMware vSphere 5.1 Update 3 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文

兼容性和安装

升级 vSphere Client

将 vCenter Server 或 ESXi 主机升级到 vSphere 5.1 Update 3 并尝试使用 5.1 Update 1b 之前的 vSphere Client 版本连接到 vCenter Server 或 ESXi 主机时,系统会提示您将 vSphere Client 升级到 vSphere Client 5.1 Update 3。vSphere Client 升级是强制性的。只能使用升级后的 vSphere Client 访问 vSphere 5.1 Update 3。

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请转到本站点以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 与 vCenter Server 和模块 ZIP 文件打包在一起。您可以通过 VMware vCenter 安装程序向导来安装一个或全部两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.1.3 增加了对 ESXi 5.1 Update 3 和 vCenter Server 5.1 Update 3 版本的支持。有关 VDDK 的详细信息,请参见 http://www.vmware.com/support/developer/vddk/

ESXi 的硬件兼容性

要确定哪些处理器、存储设备、SAN 阵列和 I/O 设备与 vSphere 5.1 Update 3 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 3 的信息。

此版本所支持的处理器的列表有所扩展。要确定哪些处理器与此版本兼容,请参见 《VMware 兼容性指南》

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 ESXi 5.1 Update 3 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 3 的信息。

自 vSphere 5.1 起,对较旧的客户机操作系统的支持级别有所变化。有关每个支持级别的描述,请参见 知识库文章 2015161《VMware 兼容性指南》提供了所有操作系统版本和 VMware 产品版本的详细支持信息。

以下客户机操作系统版本不再受其各自操作系统供应商支持。虽然 vSphere 5.1 Update 3 仍然支持这些客户机操作系统,但未来的 vSphere 版本将不会对其提供支持。

  • Windows NT
  • 所有 16 位 Windows 和 DOS 版本(Windows 98、Windows 95、Windows 3.1)
  • Debian 4.0 和 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • 低于 SP4 的 SUSE Linux Enterprise 9
  • 低于 SP3 的 SUSE Linux Enterprise 10
  • 低于 SP1 的 SUSE Linux Enterprise 11
  • Ubuntu 版本 8.04、8.10、9.04、9.10 和 10.10
  • 所有版本的 Novell Netware
  • 所有版本的 IBM OS/2

 

ESXi 的虚拟机兼容性

ESXi 5.1 Update 3 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不再受支持。要在 ESXi 5.1 Update 3 上使用此类虚拟机,请升级虚拟机硬件版本。请参见 《vSphere 升级》文档。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的信息,请参见 《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。有关具体信息,请阅读以下内容:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.0 与 ESXi 5.1 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义进行升级的信息,请参见 《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.1 Update 3 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.1 Update 3 的兼容性。如果您的主机硬件不兼容,将有紫色屏幕显示关于不兼容信息的消息,并且您将无法安装或升级到 vSphere 5.1 Update 3。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

ESXi 5.1 Update 3 提供以下用于升级 ESX/ESXi 主机的工具:

  • 使用 CD-ROM、DVD 或 USB 闪存驱动器上的 ESXi 安装程序 ISO 映像以交互方式升级。您可以从 CD-ROM、DVD 或 USB 闪存驱动器中运行 ESXi 5.1 Update 3 安装程序来执行交互式升级。此方法适用于少数主机。
  • 执行脚本式升级。通过调用更新脚本(可提供无需人工干预的高效升级),可以将 ESX/ESXi 4.x 主机、ESXi 5.0.x 和 ESXi 5.1.x 主机升级或迁移到 ESXi 5.1 Update 3。脚本式升级还提供了高效的多主机部署方式。您可以从 CD-ROM 或 DVD 驱动器或通过 PXE 引导安装程序使用脚本来升级 ESXi。

  • vSphere Auto Deploy。如果您的 ESXi 5.x 主机是使用 vSphere Auto Deploy 部署的,则可以使用 Auto Deploy 重新置备该主机,方法是通过包含 ESXi 升级的新映像配置文件重新引导该主机。

  • ESXCLI。可以使用 ESXCLI 命令行实用程序更新修补程序并将其应用到 ESXi 5.0.x 和 ESXi 5.1.x 主机。有两种方式可完成此操作,一是使用 vmware.com 上的下载库,二是使用 VMware 合作伙伴准备的库的 ZIP 下载文件。您不能使用 esxcli 将 ESX 或 ESXi 主机从低于 5.0 版的 ESX/ESXi 版本升级到 5.1.x 版。

支持升级到 ESXi 5.1 Update 3 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.1 Update 3 的升级途径

ESX/ESXi 4.0
包括
ESX/ESXi 4.0 Update 1
ESX/ESXi4.0 Update 2

ESX/ESXi4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
包括
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

 

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1:
包括
ESXi 5.1 Update 1
ESXi 5.1 Update 2

VMware-VMvisor-Installer-5.1.0.update03-2323236.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

update-from-esxi5.1-5.1_update03.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

是*

使用从 VMware 门户(联机)下载的修补程序定义

带有修补程序基准的 VMware vCenter Update Manager

* 注意:仅 ESXCLI 支持使用 update-from-esxi5.1-5.1_update03.zip从 ESXi 5.0.x 升级到 ESXi 5.1 Update 3。需要运行 esxcli software profile update --depot=<depot_location> --profile=<profile_name> 命令执行升级。有关详细信息,请参见《vSphere 升级指南》中的“ESXi 5.1.x 升级选项”    主题。

VMware vSphere 5.1 Update 3 的开源组件

可从 http://www.vmware.com/download/open_source.html 获取适用于在 vSphere 5.1 Update 3 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新通用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Client。在 vSphere 5.1 中,所有新 vSphere 功能只能通过 vSphere Web Client 使用。传统的 vSphere Client 将继续运行,支持与 vSphere 5.0 相同的功能集,但不显示 vSphere 5.1 中的任何新功能。

    vSphere 5.1 及其后续更新和修补程序版本是包含 vSphere Client 的最后版本。未来的 VMware vSphere 主要版本中将只包括 vSphere Web Client。

    对于 vSphere 5.1,传统 vSphere Client 的缺陷修复限于安全问题或重大问题。重大缺陷是指定产品功能中的偏差,如果没有可实施的解决办法,则会导致数据损坏、数据丢失、系统崩溃或重大客户应用程序停机。

  • VMware Toolbox。vSphere 5.1 是支持 VMware Tools 图形用户界面(即 VMware Toolbox)的最新版本。VMware 将继续更新和支持 Toolbox 命令行界面 (CLI) 来执行所有 VMware Tools 功能。

  • VMI 准虚拟化。vSphere 4.1 是支持 VMI 客户机操作系统准虚拟化接口的最新版本。有关迁移启用了 VMI 的虚拟机以使虚拟机能够在以后发布的 vSphere 版本上运行的信息,请参见 知识库文章 1013842

  • Windows 客户机操作系统自定义。vSphere 5.1 是支持 Windows 2000 客户机操作系统自定义的最新版本。VMware 将继续支持 Windows 客户机更高版本的自定义。

  • VMCI 套接字。在 vSphere 5.1 版本中,虚拟机之间的客户机到客户机通信已弃用。下一个主要版本中将移除此功能。VMware 将继续支持主机到客户机通信。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi510-Update03 包含以下各公告:

ESXi510-201412201-UG:更新 ESXi 5.1 esx-base vib
ESXi510-201412202-UG:更新 ESXi 5.1 tools-light vib
ESXi510-201412203-UG:更新 ESXi 5.1 scsi-megaraid-sas vib

修补程序版本 ESXi510-Update03 Security-only 包含下列各公告:

ESXi510-201412101-SG:更新 ESXi 5.1 esx-base vib

修补程序版本 ESXi510-Update03 包含以下映像配置文件:

ESXi-5.1.0-20141202001-standard
ESXi-5.1.0-20141202001-no-tools

修补程序版本 ESXi510-Update03 Security-only 包含以下映像配置文件:

ESXi-5.1.0-20141201001s-standard
ESXi-5.1.0-20141201001s-no-tools

有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

备份

  • 使用备份软件时,返回的已分配磁盘扇区列表可能不正确,增量备份可能显示为损坏或缺失
    使用利用 Virtual Disk Development Kit (VDDK) API 调用 QueryChangedDiskAreas()的备份软件时,返回的已分配磁盘扇区列表可能不正确,增量备份可能显示为损坏或缺失。 vmware.log中写入类似于以下内容的消息:
    DISKLIB-CTK: Resized change tracking block size from XXX to YYY
    有关详细信息,请参见 知识库文章 2090639
    本版本已解决该问题。
  • 打开网络文件系统挂载时 VMware Tools 可能会停止响应
    在 Linux 虚拟机上生成静默快照时,打开网络文件系统 (NFS) 挂载的过程中 VMware Tools 可能会停止响应,导致客户机操作系统上的所有文件系统活动均停止。此时会显示类似于以下内容的错误消息,同时虚拟机停止响应:
    保存快照时出错:msg.snapshot.error-QUIESCINGERROR (An error occurred while saving the snapshot: msg.snapshot.error-QUIESCINGERROR)
    本版本已解决该问题。
  • 尝试还原虚拟机可能失败并显示错误
    使用 vSphere Data Protection 在 ESXi 主机上尝试还原虚拟机可能失败并显示一条错误消息。
    将显示类似于以下内容的错误消息:
    重新配置过程中收到意外的异常 (Unexpected exception received during reconfigure)
    本版本已解决该问题。
  • 更改块跟踪在 Storage vMotion 之后被重置
    对 vSphere 5.x 执行 Storage vMotion 操作将重置更改块跟踪 (CBT)。
    有关详细信息,请参见 知识库文章 2048201
    本版本已解决该问题。
  • 生成静默快照时 Red Hat Enterprise Linux 虚拟机可能会停止响应
    生成静默快照以备份运行 Red Hat Enterprise Linux (RHEL) 的已打开电源的虚拟机时,这些虚拟机可能会停止响应,不重新引导可能无法恢复。当您运行某些 VIX 命令时,在执行静默快照操作的过程中将出现此问题。
    本版本已解决该问题。

CIM 和 API

  • vSphere Client 的 [硬件状态] 选项卡中出现无效警报
    在 HP DL980 G7 上完成 Integrated Lights Out (iLO) 固件的升级后,vSphere Client 的 [硬件状态] 选项卡中将出现无效警报。
    /var/log/syslog.log文件中可能会记录类似于以下内容的错误消息:
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]:IpmiIfruInfoAreaLength:Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]:IpmiIfcFruChassis:Reading FRU Chassis Info Area length for 0x0 FAILED
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]:IpmiIfcFruBoard:Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]:IpmiIfruInfoAreaLength:Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]:IpmiIfcFruProduct:Reading FRU product Info Area length for 0x0 FAILED
    2014-10-17T08:51:14Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:data length mismatch req=19,resp=3
    2014-10-17T08:51:15Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0001,resp=0002
    2014-10-17T08:51:17Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0002,resp=0003
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0003,resp=0004
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0004,resp=0005
    2014-10-17T08:51:20Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0005,resp=0006
    2014-10-17T08:51:21Z sfcb-vmware_raw[68712]:IpmiIfcSelReadEntry:EntryId mismatch req=0006,resp=0007
    本版本已解决该问题。
  • hrSWRunPerfCPU 的返回值报告不正确
    在启用了 SNMP 的 ESXi 主机上, hrSWRunPerfCPU的值报告不正确。
    本版本已解决该问题。
  • 使用 EMC PowerPath 时,查询 CIM_System 的操作失败
    当 PowerPath 在 /VMware/esxv2/下查询 CIM_System 时,操作会失败并且 CIM 服务器会报告错误。错误消息类似以下内容:
    线程池 --- 无法将请求加入队列。排队的请求已经过多: vmwaLINUX
    线程池 --- 无法将请求加入队列。排队的请求已经过多: vmware_base, active 5, queued 11 .\TreeViewHostDiscovery.cpp 611 (ThreadPool --- Failed to enqueue request. Too many queued requests already: vmwaLINUX ThreadPool --- Failed to enqueue request. Too many queued requests already: vmware_base, active 5, queued 11 .\TreeViewHostDiscovery.cpp 611)
    本版本已解决该问题。
  • 更新传感器数据时发现从以太网提供程序转储核心
    在 IBM x3650M3 服务器上的 [硬件状态] 选项卡中更新传感器数据时,发现轻量级 CIM 代理程序 (SFCB) 从以太网提供程序转储核心。即使在多次尝试后, [硬件状态] 选项卡仍无法显示数据。
    本版本已解决该问题。
  • 使用 Auto Deploy 重新引导 ESXi 主机时 CIM 指示可能会失败
    如果 sfcbd 服务停止运行,则主机配置文件中的 CIM 指示将无法成功应用。
    本版本通过在应用主机配置文件时确保 CIM 指示不依赖于 sfcbd 服务的状态,已将该问题解决。
  • 某些情况下 sfcbd 服务可能停止或重新启动
    当您停止并启动硬件监控服务 (sfcbd)(负责提供 ESXi 主机的硬件状态信息)时,该过程可能会停止并将类似于以下内容的错误写入 syslog 文件,并可能无法重新启动:
    sfcbd: Sending TERM signal to sfcbd
    sfcbd-watchdog:Sleeping for 20 seconds
    sfcbd:Sending TERM signal to sfcbd
    sfcbd-watchdog:Sleeping for 20 seconds
    sfcbd-watchdog:Waited for 3 20 second intervals, SIGKILL next
    sfcbd:Stopping sfcbd
    sfcbd-watchdog:Sleeping for 20 seconds
    sfcbd-watchdog:Providers have terminated, lets kill the sfcbd.
    sfcbd-watchdog:Reached max kill attempts. watchdog is exiting
    因此,当您尝试从 vCenter Server 查看硬件状态时,可能会显示类似于以下内容的错误消息:
    esx 主机上的监控服务没有响应或不可用 (The monitoring service on the esx host is not responding or not available)。
    本版本已解决该问题。
  • 当您尝试监控已启用 IPv6 的 ESXi 主机的硬件运行状况时,基于 Web 的企业管理 (WBEM) 查询可能会失败
    当您尝试监控使用 IPv6 的 ESXi 主机的硬件运行状况时,WBEM 查询可能会失败。将向 syslog 文件中写入类似于以下内容的错误消息:
    Timeout error accepting SSL connection exiting.
    为了解决该问题,已添加一个允许您设置超时值的新配置参数 httpSelectTimeout。
  • ESXi 可能会向管理软件发送重复事件
    在 ESXi 主机上触发智能平台管理界面 (IPMI) 传感器事件后,ESXi 可能会向管理软件发送重复事件。
    本版本已解决该问题。
  • ESXi 主机可能会将电源信息显示为未知
    当您尝试通过直接连接 ESXi 主机或管理 ESXi 主机的 vCenter Server 来查看 ESXi 主机的硬件状态时,电源信息可能会显示为未知。
    本版本已解决该问题。
  • 类 CIM_NetworkPort 查询可能报告不一致的结果
    尝试将类 Class CIM_NetworkPort 查询与 CIM 或 WBEM 服务配合使用来监控硬件时,在 ESXi 5.1 和 ESXi 5.5 上可能会报告不一致的值。
    本版本已解决该问题。
  • 使用 Dell OpenManage 监控 ESXi 5.1 主机时可能由于 openwsmand 错误而失败
    使用 Dell OpenManage 监控 ESXi 5.1 主机时可能由于 openwsmand 错误而失败。可能会在 syslog.log中报告类似以下内容的错误消息:
    Failed to map segment from shared object:No space left on device
    本版本已解决该问题。
  • 硬件运行状况监控可能无法响应
    硬件运行状况监控可能无法响应,CIM 提供程序可能显示类似于以下内容的错误消息:
    2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 无法 dlopen(/lib/security/$ISA/pam_passwdqc.so): /lib/security/../../lib/security/pam_passwdqc.so: 无法打开共享的对象文件: 打开的文件太多 2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 正在添加故障模块: /lib/security/$ISA/pam_passwdqc.so2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 无法 dlopen(/lib/security/ (2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM unable to dlopen(/lib/security/$ISA/pam_passwdqc.so): /lib/security/../../lib/security/pam_passwdqc.so: cannot open shared object file: Too many open files2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM adding faulty module: /lib/security/$ISA/pam_passwdqc.so2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM unable to dlopen(/lib/security/)
    SFCB 服务可能也停止响应。
    本版本已解决该问题。
  • 查看 ESXi 主机的运行状况时,Hostd 可能无响应
    将 vSphere Client 连接到 ESXi 主机以查看运行状况并执行刷新操作时,hostd 服务可能无响应。将向 hostd.log中写入类似于以下内容的消息:
    YYYY-MM-DDThh:mm:ss.344Z [5A344B90 verbose \\\'ThreadPool\\\'] usage :total=22 max=74 workrun=22 iorun=0 workQ=0 ioQ=0 maxrun=30 maxQ=125 cur=W
    本版本已解决该问题。
  • ESXi 主机可能会遇到 I/O 滞后时间较长的情况
    当大量 CIM 请求发送至 ESXi 主机上的 LSI SMI-S 提供程序时,可能会在 ESXi 主机上出现 I/O 滞后时间较长的情况,这将导致存储性能下降。
    本版本已解决该问题。
  • sfcb 可能会使用错误的方法提供程序进行响应
    在 ESXi 主机上,如果将两个不同的方法提供程序注册到具有不同命名空间的同一 CIM 类,sfcb 在收到请求时将始终使用最接近 providerRegister 顶部的提供程序进行响应。使用的可能是不正确的方法提供程序。
    本版本已解决该问题。
  • 通过 CIM 接口加载内核模块可能会失败
    当使用 CIM 接口客户端加载内核模块时, LoadModule命令可能会失败。将显示类似于以下内容的错误消息:
    VMkernel 访问控制策略已拒绝访问 (Access denied by VMkernel access control policy)。
    本版本已解决该问题。
  • 如果调用了 PowerStateChangeRequest CIM 方法但未向任何参数传递值,则 ESXi 主机可能不会按预期对此更改请求进行响应
    在 ESXi 5.1 主机上,如果调用了 PowerStateChangeRequest CIM 方法但未向任何参数传递值,则 ESXi 主机可能不会对此更改请求进行响应,且可能不会重新启动。
    本版本已解决该问题。
  • 在 vSphere Client 上查询硬件状态可能会失败,并显示错误
    尝试在 vSphere Client 上查询硬件状态可能会失败。类似于以下内容的错误消息将在 ESXi 主机中的 /var/log/syslog.log文件中显示:
    TIMEOUT DOING SHARED SOCKET RECV RESULT (1138472) Timeout (or other socket error) waiting for response from provider Header Id (16040) Request to provider 111 in process 4 failed.Error:Timeout (or other socket error) waiting for response from provider Dropped response operation details -- nameSpace:root/cimv2, className:OMC_RawIpmiSensor, Type:0
    本版本已解决该问题。
  • 某些磁盘的状态可能显示为 UNCONFIGURED GOOD 而不是 ONLINE
    在 ESXi 5.1 主机上,某些磁盘的状态可能显示为 UNCONFIGURED GOOD 而不是 ONLINE。LSI 控制器使用 LSI CIM 提供程序时会出现此问题。
    本版本已解决该问题。

客户机操作系统

  • 在 ESXi 主机上使用磁盘实用程序在 MAC OS X 客户机操作系统中增加磁盘分区大小可能会失败
    无法在 ESXi 主机上使用磁盘实用程序在 MAC OS X 客户机操作系统中增加磁盘分区大小。如果尝试使用 VMware Fusion 增加大小,则不会出现该问题。
    此版本已解决该问题,方法是在增加磁盘大小后更改 GUID 分区表 (GPT) 中的标题。
  • 当客户机操作系统尝试访问 8 字节 PCI MMIO 配置空间时,虚拟机可能会发生故障
    如果为虚拟机上的图形处理单元 (GPU) 配置了一个直接直通,则当客户机操作系统尝试访问 8 字节 PCI MMIO 配置空间时,虚拟机可能会发生故障。
    本版本已解决该问题。
  • 当使用虚拟 IDE 设备启动虚拟机时,客户机操作系统可能变得无响应
    当使用虚拟 IDE 设备启动虚拟机时,客户机操作系统可能变得无响应。 vmware.log中写入类似于以下内容的错误消息:
    vcpu-0| W110:MONITOR PANIC:vcpu-0:NOT_IMPLEMENTED devices/vide/iovmk/videVMK-vmkio.c:1492.
    本版本已解决该问题。

其他

  • ESXi 主机可能会进入堆内存耗尽状态并导致故障
    在某些情况下,userworld 程序可能不会如预期工作并可能导致系统中累积大量僵尸进程。因此,globalCartel 堆可能耗尽而导致 vMotion 和 SSH 等操作失败,因为 ESXi 主机处于堆内存耗尽状态时无法派生新进程。在重新引导 ESXi 主机之前,ESXi 主机可能不会退出此状态。
    可能会在 VMkernel 日志中写入类似于以下内容的警告消息:
    2014-07-31T23:58:01.400Z cpu16:3256397)WARNING:Heap:2677: Heap globalCartel-1 already at its maximum size.Cannot expand.
    2014-08-01T00:10:01.734Z cpu54:3256532)WARNING:Heap:2677: Heap globalCartel-1 already at its maximum size.Cannot expand.
    2014-08-01T00:20:25.165Z cpu45:3256670)WARNING:Heap:2677: Heap globalCartel-1 already at its maximum size.Cannot expand.
    本版本已解决该问题。
  • 控制台和 vmkwarnings 中的 VMware ESXi 5.1 主机引导警示
    在某些时刻,仅在当前或曾经连接到 HA 群集的主机上启用 switchToSwapMode时将显示警示。将显示类似于以下内容的警示消息:
    警示:执行 switchToSwapMode 时发生错误:内存最大值小于由子项已预留的内存 (ALERT: Error while executing switchToSwapMode: Memory max less than memory already reserved by children)

    有关详细信息,请参见 知识库文章 2056609

    本版本已解决该问题。
  • 运行 vm-support 可能导致 VMkernel 日志文件中产生过多日志记录
    运行 vm-support 可能导致类似于以下内容的消息重复写入 vmkernel.log:
    VSI_ParamListAddString failed with Out of memory (ok to retry)
    在具有大虚拟地址空间映射的 ESXi 主机上运行 vm-support 时会出现此问题。
    本版本已解决该问题。
  • 部署带 GPU 虚拟化的虚拟机可能导致 ESXi 发生故障并显示紫色屏幕
    由于虚拟地址空间中内存较低,尝试部署带 GPU 虚拟化的虚拟机可能导致 ESXi 发生故障并显示紫色诊断屏幕。此时将显示类似于以下内容的警告消息:
    WARNING:HeapMgr:没有剩余 XMap 空间
    警示: 错误vmk_MapVA 失败 (WARNING: HeapMgr: No XMap space left ALERT: ERROR vmk_MapVA failure)
    本版本已解决该问题。
  • 使用 USB 设备导致系统缓存主机配置文件的合规性失败
    使用 USB 设备完成主机配置文件应用程序时,或应用配置文件后,可能会导致系统缓存主机配置文件的失败。
    将显示类似于以下内容的消息:
    主机不存在规范状况: 需要将设备 datastore 状态设置为 on (device 'datastore' state needs to be set to 'on')。
    本版本已解决该问题。
  • ESXi 主机可能会发生故障并显示紫色诊断屏幕,指出 PCPU 未接收到检测信号
    ESXi 主机可能会发生故障并显示紫色诊断屏幕,指出 PCPU 未接收到检测信号。将显示类似以下内容的回溯追踪:
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)Code start:0xnnnnnnnnnnnnn VMK uptime:98:23:15:54.570
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)Saved backtrace from:pcpu 6 Heartbeat
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]SP_WaitLockIRQ@vmkernel#nover+0xnnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]LPage_ReapPools@vmkernel#nover+0xnnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]MemDistributeNUMAPolicy@vmkernel#nover+0xnnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x41802644483a]MemDistributeAllocateAndTestPages@vmkernel#nover+0xnnn stack:0xnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x418026444d63]MemDistributeAllocAndTestPagesLegacy@vmkernel#nover+0xaa stack:0xnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0xnnnnnnnnnnnnn]MemDistribute_AllocUserWorldPages@vmkernel#nover+0xnn stack:0xnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]UserMemAllocPageInt@vmkernel#nover+0xnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]UserMem_HandleMapFault@vmkernel#nover+0xnnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]User_Exception@vmkernel#nover+0xnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]Int14_PF@vmkernel#nover+0xnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)0xnnnnnnnnnnnnn:[0x]gate_entry@vmkernel#nover+0xnn stack:0xnnnnnnnnnnnnn
    YYYY-MM-DDThh:mm:ss.uuZ cpu14:4110)base fs=0x0 gs=0xnnnnnnnnnnnnn Kgs=0x0
    当 ESXi 主机由于突发内存分配请求而经历内存过载时会出现此问题。
    本版本已通过使用大页面 (lpage) 内存池时优化内存分配路径解决了该问题。
  • VMkernel 远程 syslog 消息可能与严重性级别日志消息不匹配
    VMkernel 远程 syslog 消息可能与严重性级别日志消息不匹配。
    本版本已通过使用相应严重性级别消息标记以下 VMkernel syslog 消息解决了该问题:
    system alerts ->'alert'
    warnings ->'warning'
    others ->'informational'
    注意: vmkwarning.log文件将包含“警告”和“警示”严重性级别的 syslog 消息。
  • 内存不足时 Rx Ring #2 可能导致接收方数据包丢弃
    Rx Ring #2 运行内存不足时,在 VMXNET3 设备上启用大型接收卸载 (LRO) 功能的 Linux 虚拟机可能会发生接收方数据包丢弃。当虚拟机处理 LRO 生成的数据包时会出现此问题。Rx Ring#2 的大小可以使用 Linux 客户机操作系统进行配置。
    本版本已解决该问题。
  • 从 ESXi 主机克隆启用了虚拟机模板的 CBT 可能会失败
    尝试从两台不同 ESXi 5.1 主机同时克隆启用了虚拟机模板的 CBT 可能会失败。将显示类似于以下内容的错误消息:
    未能打开 VM_template.vmdk:无法打开/创建更改跟踪文件 (2108) (Failed to open VM_template.vmdk: Could not open/create change tracking file (2108))。
    本版本已解决该问题。
  • ESXi 主机可能会报告不支持的 ioctl 错误
    特定 vSCSI 过滤器查询虚拟磁盘时,ESXi 主机可能会报告错误消息。如果基础设备不支持 unmap 或 ioctl,则 vmkernel.log文件中显示的警告消息无效。
    可能会报告类似于以下内容的错误:
    WARNING:VSCSIFilter:1452: 未能发送 ioctl 以获取 unmap 读回类型:不受支持 (WARNING: VSCSIFilter: 1452: Failed to issue ioctl to get unmap readback type: Not supported)。
    有关详细信息,请参见 知识库文章 2058568
    本版本已解决该问题。
  • vSphere 5.1 上的 VMkernel 接口绑定可能会失败
    在启用了 FT VMkernel 接口绑定并且重新引导系统后,vSphere 5.1 上的 vMotion VMkernel 接口绑定可能会失败。将显示类似于以下内容的警告消息:
    cpu10:4656)WARNING:MigrateNet:601: VMotion 服务器接受套接字未能绑定到 vmknic“vmk1”(如 /Migrate/Vmknic 所指定)
    cpu8:4699)警告:VMKStateLogger:9260: 未能使用 sock 0x410024035eb0 vmk3 的 SO_BINDTOVMK:操作不受支持 (cpu10:4656)WARNING: MigrateNet: 601: VMotion server accept socket failed to bind to vmknic 'vmk1', as specified in /Migrate/Vmknic cpu8:4699)WARNING: VMKStateLogger: 9260: Failed to use SO_BINDTOVMK of sock 0x410024035eb0 vmk3: Operation not supported)
    本版本已解决该问题。
  • 具有对 MSCS 节点用作 RDM 的 LUN 的访问权限的 ESXi 5.x 主机可能需要很长时间引导
    重新引导具有对 MSCS 节点使用的裸设备映射 (RDM) LUN 的访问权限的 ESXi 5.x 主机时,使用 Auto Deploy 选项部署的主机可能需要很长时间引导。即使将永久保留标记传递到使用主机配置文件的 LUN 时也会发生此问题。发生此问题的时间取决于连接到 ESXi 主机的 RDM 数量。 有关永久保留标记的详细信息,请参见 知识库文章 1016106
    本版本已解决该问题。
  • 使用 AMD Opteron 6300 Series 处理器的 ESXi 5.x 主机可能会发生故障,并显示紫色诊断屏幕
    使用 Series 63xx AMD Opteron(根据 AMD 勘误号 815)处理器的 ESXi 5.5 主机可能会无法响应,并显示紫色屏幕。紫色屏幕显示了 IDT_HandleInterrupt 或 IDT_VMMForwardIntr 文本,然后显示异常函数。如 知识库文章 2061211 中所述。
    本版本已解决该问题。
  • 如果将 BAR 大小小于 4 KB 的 PCI 设备添加为直通设备,则无法打开虚拟机电源
    如果将基本地址寄存器 (BAR) 大小小于 4 KB 的 PCI 设备添加为直通设备,则无法打开虚拟机电源。 vmware.log文件中写入类似于以下内容的消息:
    PCIPassthru:Device 029:04.0 barIndex 0 type 2 realaddr 0x97a03000 size 128 flags 0
    PCIPassthru:Device 029:04.0 barIndex 1 type 2 realaddr 0x97a01000 size 1024 flags 0
    PCIPassthru:Device 029:04.0 barIndex 2 type 2 realaddr 0x97a02000 size 128 flags 0
    PCIPassthru:Device 029:04.0 barIndex 3 type 2 realaddr 0x97a00000 size 1024 flags 0
    PCIPassthru:029:04.0 : barSize:128 is not pgsize multiple
    PCIPassthru:029:04.0 : barSize:1024 is not pgsize multiple
    PCIPassthru:029:04.0 : barSize:128 is not pgsize multiple
    PCIPassthru:029:04.0 : barSize:1024 is not pgsize multiple
    本版本已解决该问题。

网络连接

  • vCenter 性能图表中 virtualDisk.throughput.usage 的返回值与 esxtop 矛盾
    在 vCenter 性能图表中, virtualDisk.throughput.usage的相关值以字节为单位,而 esxtop 工具中返回的相同值以千字节为单位。
    本版本已解决该问题。
  • 尝试在已使用大量 dvPort 的主机上打开虚拟机的电源可能会失败,并显示错误消息
    在已使用大量 dvPort 的主机上使用 dvPort 打开虚拟机的电源,将向 hostd.log中写入类似于以下内容的错误:
    Unable to Get DVPort list ; Status(bad0014)= Out of memory
    同时还会向 vmkernel.log 中写入类似于以下内容的警告:
    WARNING:Heap:2757: Heap dvsLargeHeap (132993984/134217728):Maximum allowed growth (1224704) too small for size (9269248)
    本版本已通过添加配置选项解决了此问题。如果遇到该问题,请从 vCenter Server 将新增选项 Net.DVSLargeHeapInitSize的值更改为 50M,然后重新启动 ESXi 主机。
  • 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机可能导致 Microsoft Windows 部署服务 (WDS) 失败
    尝试使用 Microsoft Windows 部署服务 (WDS) 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机时可能会失败,并显示类似以下内容的消息:
    Windows 无法启动。可能的原因是,最近发生硬件或软件更改。要解决该问题,请执行以下步骤:1. 插入 Windows 安装光盘,然后重新启动计算机。
    2. 选择语言设置,然后单击 [下一步]。
    3. 单击 [修复计算机]。
    如果您没有光盘,请与系统管理员或计算机制造商联系以寻求帮助。 状态:0xc0000001 信息:由于无法访问所需设备,引导选择失败。
    本版本已解决该问题。
  • 由于 vDS 或标准 vSwitch 上的队列大小有限,可能会丢弃由应用程序发送的数据包突发
    在 vNetwork Distributed Switch (vDS) 或已启用流量调整的标准 vSwitch 上,由于队列大小有限,可能会丢弃由应用程序发送的数据包突发。
    本版本已解决该问题。
  • 主机配置文件合规性检查可能失败,并显示消息 /etc/hosts 文件中找不到 ip x.x.x.x 的映射 (did not find mapping for ip x.x.x.x in /etc/hosts file)
    由于合规性失败,所以即使成功应用了主机配置文件,尝试在 ESXi 5.1 上应用主机配置文件也可能失败。
    将显示类似于以下内容的错误消息:
    主机不可用于检查合规性。
    本版本已解决该问题。
  • 使用 Auto Deploy 选项引导 ESXi 5.1 主机可能失败
    尝试使用 Auto Deploy 选项引导 ESXi 5.1 主机可能失败。主机尝试下载 ESXi 映像,iPXE 进入循环以及要下载 ESXi 映像的进程停止时将出现此故障。
    本版本已解决该问题。
  • Ethtool 实用程序报告的 Emulex 10Gb 以太网 (10GbE) 554FLR-SFP 适配器线缆类型可能不正确
    Ethtool 实用程序报告的 Emulex 10Gb 以太网 (10GbE) 554FLR-SFP 适配器线缆连接类型可能不正确。这是因为 ethtool 可能不支持直接连接铜缆 (DAC) 端口类型。
    本版本已解决该问题。
  • 执行 vSphere Distributed Switch (VDS) 运行状况检查时可能会报告不正确的结果
    尝试查看 VDS Web Client 运行状况检查以监控 VLAN、MTU 和成组策略的运行状况时,可能会报告不正确的结果。
    本版本已解决该问题。

安全

  • 对 glibc 软件包的更新解决了多个安全问题
    ESXi glibc-2.5 软件包已经过更新,可解决多个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 分配给这些问题的名称为 CVE-2013-0242、 CVE-2013-1914CVE-2013-4332
  • 对 libxml2 库的更新解决了多个安全问题
    ESXi userworld libxml2 库经过更新,可解决多个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 分配给这些问题的名称为 CVE-2013-2877CVE-2014-0191
  • 对 libcurl 库的更新解决了多个安全问题
    ESXi userworld libcurl 库已经过更新,可解决多个安全问题。
    常见漏洞与暴露方案 (cve.mitre.org) 分配的名称为 CVE-2014-0015CVE-2014-0138
  • ESXi 5.1 和 ESXi 5.5 中已启用 vmx.log.rotateSize 参数
    之前的 ESXi 版本中已禁用 vmx.log.rotateSize参数,但是此参数在 ESXi 5.1 和 ESXi 5.5 中已由 VMX 启用。 vmx.log.rotateSize参数用于控制 vmware.log文件大小。
  • 对透明页共享 (TPS) 管理功能的更新以及新的默认行为
    在 ESXi 5.1 Update 3 中,默认情况下会启用先前修补程序版本中引入的透明页共享 (TPS) 管理功能的 PShare 盐。这意味着,TPS 仅适用于单个虚拟机且虚拟机间 TPS 处于禁用状态,除非管理员选择重新启用它。
    有关详细信息,请参见 知识库文章 2097593
  • 更新 Likewise Kerberos 堆栈
    包含 Kerberos v5-1.6.3 版本的 Likewise 5.3 堆栈已更新。

服务器配置

  • 重新引导在 VMware ESXi 5.1.x 中列出的 NMP 设备配置不一致的主机时,主机配置文件合规性检查可能会失败
    重新引导 ESXi 主机后会以任意顺序列出本机多路径插件 (NMP) 设备信息。由于主机配置文件合规性检查程序需要对设备顺序进行排序,因此具有此类配置的主机上的合规性检查可能会失败。将显示以下合规性错误消息:
    主机不存在规范状况: 需要更新设备 naa.xxxx 的 SATP 配置 (Specification state absent from host: SATP configuration for device naa.xxxx needs to be updated)
    有关详细信息,请参见 知识库文章 2032822
    本版本已解决该问题。
  • 尝试在 iSCSI 远程 LUN 上安装 ESXi 可能会失败
    尝试在 iSCSI 远程 LUN 上安装 ESXi 可能会失败,并显示以下错误:
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)
    本版本已解决该问题。
  • 从 SAN 磁盘引导 ESXi 主机后,在 ESXi 5.1.x 中应用主机配置文件可能会失败并出现错误
    如果从 SAN 磁盘引导 ESXi 主机,则在 ESXi 5.1 中应用存储主机配置文件可能会失败。将显示类似以下内容的错误消息:
    主机状况不符合规范:需重置设备“naa.xxxxxxx”参数 (Host state doesn't match specification: device 'naa.xxxxxxx' parameters needs to be reset)
    主机状况不符合规范:设备“naa.xxxxxx”路径选择策略需要设置为默认值来声明 SATP (Host state doesn't match specification: device 'naa.xxxxxx' Path Selection Policy needs to be set to default for claiming SATP)
    主机不存在规范状况:设备“naa.XXX”参数需要设置为: 是否永久保留 =“false”(Specification state absent from host: device naa.XXX parameters needs to be set to Is Perennially Reserved = "false")
    主机不存在规范状况:需要将设备“naa.XXX”参数设置为: 状态 =“打开”,队列完整示例大小 =“0”(Specification state absent from host: device naa.XXX parameters needs to be set to State = "on" Queue Full Sample Size = "0")
    队列完整阈值 =“0”... (Queue Full Threshold = "0"...)
    注意: 两台主机上的引导 LUN 在供应商名称或型号等属性中本应一致,并声明 SATP 需要修复才能正常工作。
    本版本已解决该问题。
  • 主机配置文件可能无法将 SNMP 设置应用到目标主机
    如果为 syslocation 指定的值在源主机上包含空格,那么从源主机创建的主机配置文件可能无法将 SNMP 设置应用到目标主机。
    本版本已解决该问题。
  • 实时 CPU 性能图表中报告的内核利用率值不一致
    在已启用超线程的 ESXi 主机上,通过 vSphere Client 或 vCenter Server 查看时,CPU 性能图表中报告的内核利用率值是通过 esxtop 内核利用率报告的值的两倍。
    本版本已解决该问题。
  • 如果有多个目标侦听不同端口上的指示,sfcb 服务可能无法打开 ESXi 防火墙进行 CIM 指示传输
    sfcb 服务器只能为目标侦听 CIM 指示的端口创建一条动态防火墙规则。如果多个目标侦听不同端口上的指示,则 sfcb 服务器无法打开 ESXi 防火墙进行 CIM 指示传输。因此,只有一个目标能够接收 CIM 指示。
    本版本通过为每个端口创建一条防火墙规则来解决此问题。
  • 由于存储负载很重,ESXCLI 命令在 Cisco UCS 刀片服务器上可能会失败
    由于存储负载很重,ESXCLI 命令在 Cisco UCS 刀片服务器上可能会失败。可能会向 hostd.log文件中写入类似于以下内容的错误消息:
    2013-12-13T16:24:57.402Z [3C5C9B90 verbose 'ThreadPool'] usage :total=20 max=62 workrun=18 iorun=2 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:57.403Z [3C5C9B90 verbose 'ThreadPool'] usage :total=20 max=62 workrun=18 iorun=2 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:57.404Z [3BEBEB90 verbose 'ThreadPool'] usage :total=21 max=62 workrun=18 iorun=3 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:58.003Z [3BEBEB90 verbose 'ThreadPool'] usage :total=21 max=62 workrun=18 iorun=3 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    2013-12-13T16:24:58.282Z [3C9D4B90 verbose 'ThreadPool'] usage :total=22 max=62 workrun=18 iorun=4 workQ=78 ioQ=0 maxrun=31 maxQ=79 cur=I
    本版本已解决该问题。
  • 虚拟机不显示物理主机序列号
    虚拟机不显示 ESXi 主机的序列号。
    本版本已解决该问题。
  • vim-cmd 命令运行时 DCUI 可能变为无响应状态
    如果运行的 vim-cmd 命令需要较长时间才能完成,则直接控制台用户界面 (DCUI) 可能变为无响应状态。
    本版本通过为需要较长时间才能完成的 vim-cmd 命令实施超时机制来解决此问题。
  • LSI MegaRaid 磁盘的状态更改可能无法显示或者出现延迟显示
    如果在 ESXi 5.x 主机上结合使用 LSI SMI-S 提供程序与 MegaRaid SAS 设备驱动程序,当您运行 enum_instances LSIESG_PhysicalDrive lsi/lsimr13命令时,可能无法显示或者可能会延迟显示 LSI MegaRaid 磁盘的状态更改。
    以下示例指出,修改 LSI MegaRaid 磁盘的节电模式后,PowerState 的值未更改或更改有延迟:
    LSILSIESG_PhysicalDrive.Tag="500605B004F93CF0_252_36",CreationClassName="LSIESG_PhysicalDrive"
    CreationClassName = LSIESG_PhysicalDrive
    Tag = 500605B004F93CF0_252_36
    UserDataBlockSize = 512
    PiType = 0
    PiEligible = 0
    PiFomatted = 0
    PowerState = 0 ---> No change in status
    Vendor = (NULL)
    FRUNumber = (NULL)
    DiskDrive_DeviceID = 252_36
    本版本已解决该问题。
  • 对 ESXi 主机执行合规性检查可能会导致出现错误消息
    对 ESXi 主机执行主机配置文件合规性检查时,可能会在 vSphere Client 中显示类似于以下内容的错误消息:
    在本地系统上找到发送到目标 u'https://IP:port' 的查询 u'select * from CIM_AlertIndication' 的额外 CIM-XML 指示订阅 (Found extra CIM-XML Indication Subscription on local system for query u'select * from CIM_AlertIndication' sent to destination u'https://IP:port')
    本版本已解决该问题。
  • 执行 Veeam 备份后 ESXi 主机可能与 vCenter Server 断开连接
    执行 Veeam 备份后,ESXi 主机可能与 vCenter Server 断开连接。
    Veaam 尝试创建虚拟机的快照时,会出现该问题。
    将向 hostd.log文件中写入类似于以下内容的错误消息:
    --> Crash Report build=1312873
    --> Signal 11 received, si_code -128, si_errno 0
    --> Bad access at 735F6572
    本版本已解决该问题。
  • 重新引导 ESXi 主机后 AD 用户或组的权限可能不会保留
    在具有主机配置文件的 ESXi 主机上为 Active Directory (AD) 用户或组设置权限时,通过 Auto Deploy 重新引导 ESXi 主机后,这些权限可能不会保留。
    本版本已解决该问题。
  • vCenter Server 中的 [硬件状态] 选项卡可能报告内存警告和内存警示消息
    如果 Assert或 Deassert条目作为内存 DIMM 检测的一部分记录到 IPMI 系统事件日志 (SEL) 的 [检测到内存存在]行,vCenter Server 中的 [硬件状态] 选项卡可能报告内存警告和内存警示消息。
    本版本已解决该问题。
  • 在 IBM 服务器上应用 ESXi 5.1 修补程序后,ESXi 主机可能无法加载 IBM vusb 网卡
    在 IBM 服务器上应用 ESXi 5.1 修补程序之后,ESXi 主机可能无法加载 IBM vusb 网卡。这是因为 ESXi 主机无法识别 vusb 设备。运行 Esxcfg-nics �l命令时,将显示以下输出:
    vusb0 Pseudo cdc_ether Up 10Mbps Half 6e:ae:8b:30:1d:53 1500 Unknown Unknown
    本版本已解决该问题。
  • 对于大型文件系统,SNMP 的管理系统报告的 ESXi 卷大小可能不正确
    使用 SNMP 或依赖于 SNMP 的管理软件监控 ESXi 时,SNMP 的管理系统在检索大型文件系统的卷大小时报告的 ESXi 卷大小可能不正确。
    本版本已解决该问题。本版本中引入了支持大型文件系统的新交换机。

存储器

  • 重新引导主机时 NFS 卷会从 ESXi 主机卸载
    当您尝试重新引导 ESXi 主机,并且主 DNS 服务器不可用而辅助服务器可用时,由于解析 NFS 服务器主机名 (FQDN) 出现延迟,因此 NFS 卷可能无法还原。
    本版本已解决该问题。
  • 使用 PVSCSI 适配器的虚拟机可能间歇性停止响应
    在 ESXi 5.1 主机上,具有使用 PVSCSI 控制器连接的磁盘的虚拟机可能间歇性停止响应。
    在具有大量 PCPU 和高 I/O 负载的 ESXi 主机上会出现此问题。
    本版本已解决该问题。
  • 在 ESXi 主机上,支持 SAS 控制器的基于 SATA 的 SSD 设备可能错误地显示为非本地
    支持 SAS 控制器的基于 SATA 的 SSD 设备可能被错误地标记为非本地,而且可能影响仅为 vFlash 数据存储考虑本地 SSD 设备的虚拟闪存功能。
    本版本已解决该问题。支持 SAS 控制器的所有基于 SATA 的 SSD 设备都显示为本地设备。
  • ESXi 5.1 主机连接到 SES 设备时,VMkernel 日志中可能会出现 SCSI Mode 感知命令失败 (0x1a) 相关的错误消息
    在连接到 SCSI Enclosure 设备的 ESXi 5.1 主机上,每隔五分钟可能会在 vmkernel.log文件中记录一次类似于以下内容的错误消息:
    2014-03-04T19:45:29.289Z cpu12:16296)NMP:nmp_ThrottleLogForDevice:2319:Cmd 0x1a (0x412440c73140, 0) to dev "mpx.vmhba0:C0:T13:L0" on path "vmhba0:C0:T13:L0" Failed:H:0x0 D:0x2 P:0x0 Valid sense data:0x5 0x24 0x0.Act:NONE
    2014-03-04T19:50:29.290Z cpu2:16286)NMP:nmp_ThrottleLogForDevice:2319:Cmd 0x1a (0x412440c94940, 0) to dev "mpx.vmhba0:C0:T13:L0" on path "vmhba0:C0:T13:L0" Failed:H:0x0 D:0x2 P:0x0 Valid sense data:0x5 0x24 0x0.Act:NONE
    2014-03-04T19:55:29.288Z cpu22:16306)NMP:nmp_ThrottleLogForDevice:2319:Cmd 0x1a (0x412480c51340, 0) to dev
    本版本已解决该问题。
  • 在内存过载的情况下执行 SCSI I/O 操作时,虚拟机可能会发生故障
    在 ESXi 主机上,执行 SCSI I/O 操作时虚拟机可能会发生故障。 vmware.log文件可能包含类似于以下内容的消息:
    LSI:ProcessSDRMessage:Unhandled Doorbell Message 0x2
    ASSERT bora/devices/lsilogic/lsilogic.c:4856 bugNr=56949
    虚拟机经历内存过载时可能会出现此问题。
    本版本已解决该问题。
  • 使用 6.506.51.00.1vmw 之前版本的 LSI MegaRAID SAS 驱动程序时,ESXi 5.x 主机会发生故障
    使用 6.506.51.00.1vmw 之前版本的 LSI MegaRAID SAS 驱动程序时,ESXi 5.x 主机会发生故障,并显示紫色诊断屏幕。您会看到类似于以下内容的回溯追踪:
    @BlueScreen:#PF Exception 14 in world 4795:helper31-5 IP 0x41800b4e2eef addr 0xce8
    Code start:0x41800ae00000 VMK uptime:156:04:02:21.485
    0x41224aec7eb0:[0x41800b4e2eef]megasas_reset_fusion@#+0x1e stack:0x0
    0x41224aec7f60:[0x41800b2ea697]vmklnx_workqueue_callout@com.vmware.driverAPI#9.2+0x11a stack:0x0
    0x41224aec7ff0:[0x41800ae3e129]helpFunc@vmkernel#nover+0x568 stack:0x0
    0x41224aec7ff8:[0x0] stack:0x0
    本版本已解决该问题。
  • 虚拟机可能会遇到 I/O 响应过慢的问题
    在启用了默认 I/O 调度程序的 ESXi 主机上,如果一个或多个虚拟机长时间利用设备的最大 I/O 带宽,由于 ESXi 默认 I/O 调度程序中标识的争用情况,会出现 IOPS 不平衡。
    本版本已通过确保 IOPS 在 ESXi 主机上的所有虚拟机之间保持一致解决了该问题。
  • 创建 vFAT 分区时,vmkernel.log 文件中出现警告消息
    在 ESXi 5.1 Update 2 主机上创建 vFAT 分区时, /var/log/vmkernel.log文件中会记录以下警告消息:
    WARNING:VFAT:4346: Failed to flush file times:Stale file handle
    本版本已解决该问题。
  • 重新扫描具有多数据区的 VMFS 数据存储时,VMkernel 日志文件中可能会显示错误的 PE 更改消息
    重新扫描具有多数据区的 VMFS 数据存储时,即使未出现存储连接问题,VMkernel 日志中也可能会写入以下日志消息:
    Number of PEs for volume changed from 3 to 1. A VMFS volume rescan may be needed to use this volume.
    本版本已解决该问题。
  • 数据存储浏览器视图中可能报告 Eagerzeroedthick 虚拟磁盘不正确的虚拟磁盘使用情况
    数据存储浏览器视图中可能报告 vSphere Client 和 vSphere Web Client 的 eagerzeroedthick 虚拟磁盘不正确的虚拟磁盘使用情况。
    本版本已解决该问题。
  • esxtop 性能数据的输出可能显示为零
    当 esxtop 性能数据的输出重定向到 CSV 格式的文件时,以批处理模式收集的 esxtop.csv 值可能会更改为零。esxtop.csv 文件可能会显示类似于以下内容的 I/O 值:
    "09/04/2013
    22:00:00","1251.43","4.89","7.12","1839.62","7.19","4.99","1273.05","4.97","7.08""09/04/2013
    22:00:10","1283.92","5.02","7.06","1875.14","7.32","4.89","1290.37","5.04","7.07""09/04/2013
    22:00:20","1286.49","5.03","7.03","1914.86","7.48","4.87","1320.55","5.16","6.90""09/04/2013
    22:00:31","1222.56","4.78","7.44","1775.23","6.93","5.21","1253.87","4.90","7.28""09/04/2013
    22:00:41","1269.87","4.96","7.15","1847.40","7.22","4.97","1267.62","4.95","7.13""09/04/2013
    22:00:51","1291.36","5.04","7.05","1857.97","7.26","4.96","1289.40","5.04","7.08""09/04/2013
    22:01:01","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:11","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:22","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:32","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00""09/04/2013
    22:01:42","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00","0.00"
    本版本已解决该问题。
  • 在 HA 故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp 文件可能会保留在存储上
    在 High Availability 故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp文件可能会保留在存储上。当多次出现这种故障切换或崩溃时,存储容量可能会变满。
    本版本已解决该问题。
  • 在软件 iSCSI 协议中,发送和接收路径中出现争用情况可能会导致数据损坏
    连续从虚拟机到 RDM LUN 或虚拟磁盘 (VMDK) 执行读写 I/O 操作时,读取的数据有时可能会损坏。损坏是由于发送和接收路径逻辑中的争用情况所致。
    本版本已解决该问题。

支持的硬件

  • 由于缓冲区溢出,ESXi 主机可能会发生故障并显示紫色诊断屏幕
    如果在 ESXi 5.1 主机上连接了超过 512 个外围设备,则由于缓冲区溢出,ESXi 主机可能会发生故障并显示紫色诊断屏幕以及类似于以下内容的错误消息:
    ASSERT bora/vmkernal/core/vmkapi_device.c:1840
    本版本已解决该问题。设备事件日志缓冲区大小将增加到 1024。
  • ESXi 主机可能无法检测到直接位于 PCI 根网桥下的 PCI 设备
    如果已映射内存 I/O 大于 4 GB 的 PCI 设备的基本地址寄存器标记为不可预取,则即使设备直接位于 PCI 根网桥下,ESXi 5.1 主机也可能无法检测到该 PCI 设备。
    本版本已解决该问题。
  • Microsoft Windows 2008 R2 和 Solaris 10 64 位虚拟机可能会显示蓝色诊断屏幕或内核严重错误消息
    在运行 Microsoft Windows 2008 R2 或 64 位 Solaris 10 的虚拟机上启用 Intel 扩展页表 (EPT) 时,将显示蓝色诊断屏幕或内核严重错误消息。
    有关详细信息,请参见 知识库文章 2073791
    本版本已解决该问题。

升级和安装

  • 更改 vCenter Server SSL 证书后无法使用 vCenter Server 重新注册 Auto Deploy 服务
    更改 vCenter Server SSL 证书后,vSphere Auto Deploy 服务无法启动。 autodeploy.log文件包含类似于以下内容的条目:
    异常:Server has wrong SHA1 thumbprint
    在安装 Auto Deploy 并将其注册到 vCenter Server 后更改 vCenter Server SSL 证书时会出现此问题。Auto Deploy 无法启动的原因是 Auto Deploy 数据库中存储的 SSL 证书指纹与新 vCenter Server SSL 证书不再匹配。而且 autodeploy-register 命令无法与新 vCenter Server 证书指纹配合使用。
    本版本已解决该问题。
  • 尝试使用无状态缓存映像引导 ESXi 主机可能会发生故障并显示错误消息
    Auto Deploy 无法引导主机时,您可能无法使用无状态缓存映像引导 ESXi 主机。
    主机尝试使用缓存映像引导时,将显示类似于以下内容的错误消息:
    未找到文件。Fatal error: 15 (未找到) (file not found. Fatal error : 15 (Not found))
    将 Auto Deploy 从 ESXi 5.0 升级到 ESXi 5.x 并且在新的 Auto Deploy 环境中使用同一个映像时,会出现此问题。
    本版本已解决该问题。
  • 执行 ESXi 5.1 或更高版本的脚本式安装可能会将 ESXi 安装在 SSD 而非本地驱动器上
    使用 install firstdisk=local命令执行 ESXi 5.1 的脚本式安装可能会将 ESXi 安装在 SSD 而非所选的本地驱动器上。要避免 ESXi 安装在 SSD 上,请在命令中包含 firstdisk=local --ignoressd开关。
    注意:当配合 autopartition=TRUE使用 --ignoreSSD命令时,将保留 SSD 不进行格式化。
    本版本已解决该问题。
  • 将主机从 ESX 升级到 ESXi 时,nsswitch.conf 可能为空
    将主机从 ESX 升级到 ESXi 时, nsswitch.conf文件的迁移可能不正确。因此, nsswitch.conf文件可能为空。
    本版本已解决该问题。
  • ESXi 5.1 主机从 autodeploy 无状态缓存引导时,引导屏幕上出现错误消息
    ESXi 5.1 主机从 autodeploy 无状态缓存引导时,引导屏幕上出现错误消息和回溯追踪。出现此错误的原因是 syslog network.py脚本中存在意外的少于四字符的短消息。
    将报告类似于以下内容的错误消息:
    IndexError:字符串索引超出范围 (IndexError: string index out of range)
    本版本已解决该问题。

vCenter Server、vSphere Client 和 vSphere Web Client

  • vCenter 性能图表中与运行 esxtop 命令时显示的 CPU 使用情况矛盾
    vCenter 性能图表中可能显示高 CPU 使用情况,而同一时间运行带 -c 选项的 esxtop命令可能不会显示这样的高值。仅当 ESXi 主机上启用超线程时会出现此问题。
    本版本已解决该问题。
  • 虚拟机打开电源、关闭电源或取消注册操作可能导致 hostd 进程失败,因此 ESXi 主机可能从 vCenter Server 断开连接
    hostd 进程失败后,ESXi 主机可能从 vCenter Server 断开连接并且可能无法重新连接。当取消注册虚拟机后 VmStateListener::VmPowerStateListener函数调用 VirtualMachineImpl::GetSummary函数时会出现此问题。由于这会导致“未找到受管对象”异常,因此 hostd 会失败并且 ESXi 主机会从 vCenter Server 断开连接。
    本版本已解决该问题。
  • CPU 使用情况平均值可能会大于处理器频率与处理器数量的乘积
    由 PowerCLI 显示的 CPU 使用情况平均值可能会大于处理器频率与处理器数量相乘所得到的值。
    本版本已解决该问题,方法是正确设置 CPU 使用情况平均值的最大限制。

虚拟机管理

  • 向虚拟机热添加 CPU 后,虚拟机可能变得无法响应
    在 ESXi 5.1 主机上,向虚拟机热添加 CPU 后,Windows Server 2008 R2 虚拟机可能变得无法响应。
    本版本已解决该问题。
  • 运行使用 AdvStats 参数的自定义脚本时,ESXi 主机可能会出现故障并显示紫色屏幕
    运行使用 AdvStats 参数的自定义脚本来检查磁盘使用情况时,ESXi 主机可能会出现故障并显示紫色屏幕。可能会向 vmkernel.log 文件中写入类似于以下内容的错误消息:
    VSCSI:231: Creating advStats for handle 8192, vscsi0:0
    The host reports a backtrace similar to:
    Histogram_XXX
    VSCSIPostIOCompletion
    AsyncPopCallbackFrameInt
    本版本已解决该问题。
  • 创建静默快照时虚拟机可能会发生故障当 vSphere Replication 或其他服务启动静默快照时,虚拟机可能会发生故障。

    本版本已解决该问题。
  • 重复生成快照时,客户机操作系统可能无法响应
    客户机操作系统生成数据的速度快于整合速度时,客户机操作系统可能无法响应。例如,异步整合开始的运行时间为 5 分钟,然后是 10 分钟、20 分钟、30 分钟,以此类推。9 次迭代之后,每个周期将变为 60 分钟。在这些尝试的过程中,将在不关闭虚拟机的情况下执行整合操作。达到最大迭代次数后,将在关闭虚拟机并执行整合的位置强制进行同步整合。
    当客户机操作系统无法响应时,您将在 vmware.log中看到类似于以下内容的条目:
    SnapshotVMXNeedConsolidateIteration:Took maximum permissible helper snapshots, performing synchronous consolidate of current disk.
    通过引入新的配置选项 snapshot.asyncConsolidate.forceSync = "FALSE" 以禁用同步整合,并允许虚拟机在超过最大异步整合迭代次数之后仍能继续运行,从而解决了该问题。如果必需同步整合,则此新选项将导致整合失败。
  • hostd 失败时 ESXi 主机可能会从 vCenter Server 断开连接
    在 vCenter Server 上使用 vim.VirtualMachine.reconfigure接口注册或更改虚拟机配置时,hostd 可能会失败并显示类似于以下内容的消息:
    2014-01-19T16:29:49.995Z [26241B90 info 'TaskManager' opID=ae6bb01c-d1] 任务已创建:VMware ESX 的 haTask-674- vim.VirtualMachine.reconfigure-222691190 部分,pid=487392、版本=5.0.0、内部版本=build-821926、选项=释放 (2014-01-19T16:29:49.995Z [26241B90 info 'TaskManager' opID=ae6bb01c-d1] Task Created : haTask-674- vim.VirtualMachine.reconfigure-222691190 Section for VMware ESX, pid=487392, version=5.0.0, build=build-821926, option=Release)
    2014-01-19T16:33:02.609Z [23E40B90 info 'ha-eventmgr'] 事件 1:/sbin/hostd 已崩溃 (目前 1 次),可能已在 /var/core/hostd-worker-zdump.000 创建核心文件 (2014-01-19T16:33:02.609Z [23E40B90 info 'ha-eventmgr'] Event 1 : /sbin/hostd crashed (1 time(s) so far) and a core file might have been created at /var/core/hostd-worker-zdump.000)。
    本版本已解决该问题。

vMotion 和 Storage vMotion

  • 包含超过 10 个快照的虚拟机的 Storage vMotion 可能会失败并出现错误消息
    即使目标数据存储的存储空间足够,包含 10 个快照以上的虚拟机的 Storage vMotion 可能会失败并出现以下错误消息:
    数据存储 <datastore name> 上的磁盘空间不足 (Insufficient space on the datastore <datastore name>)。
    本版本已解决该问题。
  • 尝试对使用 RDM 磁盘的虚拟机执行实时 Storage vMotion 时可能会失败
    使用 RDM 磁盘的虚拟机的 Storage vMotion 可能会失败,并导致虚拟机处于电源关闭状态。尝试打开虚拟机的电源时可能会失败,并显示以下错误消息:
    无法锁定文件 (Failed to lock the file)
    本版本已解决该问题。
  • 执行 vMotion 操作可能会导致 VMware Tools 自动升级,并且虚拟机可能会重新引导
    如果启用在重新启动时升级 VMware Tools,然后执行从具有 no-tools 映像配置文件的 ESXi 主机到具有更新 VMware Tools ISO 映像的其他 ESXi 主机的 vMotion,VMware Tools 可能会自动升级,并且虚拟机可能会重新引导。
    本版本已解决该问题。
  • 迁移具有 RDM 磁盘的已关闭电源虚拟机可能会失败并显示错误消息
    如果将 RDM 磁盘转换为精简置备磁盘,则尝试迁移具有 RDM 磁盘的已关闭电源虚拟机可能会失败并显示以下错误消息:
    为设备“0”指定了不兼容的设备备用 (Incompatible device backing specified for device '0')。
    本版本已解决该问题。
  • 执行 vMotion 期间,hostd 进程可能会失败且虚拟机可能无法打开电源
    如果同时启用 ctkEnabled 和 writeThrough 参数,因 vMotion 或 Storage vMotion 而发生的虚拟机打开电源操作可能会失败。
    本版本已解决该问题。
  • 在 ESXi 主机上使用 XvMotion 功能时,可能会发生页面故障
    在数据存储块大小为 1MB 的 ESXi 主机上使用 XvMotion 功能时,如果启用所有优化,则可能会发生页面故障。将显示包含类似以下内容的消息的紫色屏幕:
    PSOD @BlueScreen:#PF Exception 14 in world 1000046563:helper14-2 IP 0x4180079313ab addr 0x4130045c3600
    本版本已解决该问题。
  • 取消 Storage vMotion 可能会导致虚拟机突然重新引导
    取消 Storage vMotion 任务时,虚拟机可能变得无响应且意外重新引导。
    本版本已解决该问题。

VMware HA 和 Fault Tolerance

  • 打开虚拟机电源失败并出现配置无效的错误
    群集中所有主机全面断电之后打开虚拟机电源可能会失败并导致出现类似于以下内容的错误消息:
    设备 0 的配置无效 (Invalid Configuration for Device 0)
    本版本已解决该问题。

VMware Tools

  • 与 VMware Tools 一同安装并包含多个 RDP 连接的 Windows 客户机操作系统可能会在事件查看器中显示警告消息
    安装 VMware Tools 之后,如果尝试使用 RDP 连接 Windows 虚拟机,则某些插件可能会向 Windows 事件日志中写入警告消息。该警告消息指示将远程过程调用发送到主机失败。
    本版本已解决该问题。
  • 在 Linux 虚拟机上,关闭期间 vmtoolsd 可能会失败
    在 Linux 虚拟机上,关闭客户机操作系统时,VMware Tools 服务 vmtoolsd可能会失败。
    本版本已解决该问题。
  • 在西班牙语区域设置的 Windows 客户机操作系统上安装 VMware Tools 可能会导致 Windows 事件查看器显示警告消息
    安装 VMware Tools 后,Windows 事件查看器会显示类似于以下内容的警告:
    无法从“C:\Program Files\VMware\VMware Tools\messages\es\hgfsUsability.vmsg”读取行:转换输入中的字节序列无效 (Unable to read a line from 'C:\Program Files\VMware\VMware Tools\messages\es\hgfsUsability.vmsg': Invalid byte sequence in conversion input)。
    如果在西班牙语区域设置的操作系统上安装 VMware Tools,则该问题尤其明显。
    本版本已解决该问题。
  • 安装 VMware Tools 后无法在 Windows 8 或 Windows Server 2012 客户机操作系统上打开 telnet
    在 Windows 8 或 Windows Server 2012 客户机操作系统上安装完 VMware Tools 后,尝试使用 start telnet://xx.xx.xx.xx命令打开 telnet 失败并出现以下错误消息:
    请确保虚拟机的配置允许客户机打开主机应用程序 (Make sure the virtual machine's configuration allows the guest to open host applications)
    本版本已解决该问题。
  • 安装 VMware Tools 时具有 Linux 客户机操作系统的虚拟机可能报告内核严重错误
    在包含多个内核的 Linux 客户机操作系统上安装 VMware Tools 时,虚拟机可能会报告内核严重错误并在引导时停止响应。
    在运行内核版本 2.6.13 或更高版本的 Linux 虚拟机上,当您运行 vmware-config-tools.pl 为其他内核重新配置 VMware Tools 时,将出现此问题。
    本版本已解决该问题。
  • 使用 RHEL OSP RPM 更新 VMware Tools 时出错
    在 RHEL 6.2 虚拟机上使用 RHEL OSP RPM(可从 http://packages.vmware.com/tools 下载)将 VMware Tools 从早期版本更新到版本 9.0.5 时,可能显示类似于以下内容的错误消息:
    错误:软件包: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv)
    需要: vmware-tools-vsock-common = 9.0.1
    已安装: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64)
    vmware-tools-vsock-common = 9.0.5-1.el6
    可用: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 8.6.10-1.el6
    可用: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv)
    vmware-tools-vsock-common = 9.0.1-3 (Error: Package: kmod-vmware-tools-vsock-9.3.3.0-2.6.32.71.el6.x86_64.3.x86_64 (RHEL6-isv) Requires: vmware-tools-vsock-common = 9.0.1 Installed: vmware-tools-vsock-common-9.0.5-1.el6.x86_64 (@/vmware-tools-vsock-common-9.0.5-1.el6.x86_64) vmware-tools-vsock-common = 9.0.5-1.el6 Available: vmware-tools-vsock-common-8.6.10-1.el6.x86_64 (RHEL6-isv) vmware-tools-vsock-common = 8.6.10-1.el6 Available: vmware-tools-vsock-common-9.0.1-3.x86_64 (RHEL6-isv) vmware-tools-vsock-common = 9.0.1-3)
    本版本已解决该问题。
  • 某些驱动程序在 Solaris 11 虚拟机上可能工作不正常
    在 ESXi 5.1 主机上,Solaris 11 客户机操作系统上安装的某些驱动程序可能来自 Solaris 10,因此这些驱动程序可能无法正常工作。
    本版本已解决该问题。
  • 在 ESXi 主机上执行 traceroute命令可能会失败,并显示一条消息指出已找到多个接口
    在 ESXi 主机上指定 traceroute命令时, traceroute option -i可能会失败并显示一条警告消息。
    将显示类似于以下内容的警告消息:
    警告:已找到多个接口 (通过 ESXi 的行为不一致) (Warning: Multiple interfaces found (Inconsistent behavior through ESXi))
    本版本已解决该问题。
  • 升级到 VMware Tools 5.x 可能会导致 VMX 日志文件中的日志涌出
    当两个或更多个用户从本地或从 Windows 或 Linux 客户机操作系统上的远程终端登录图形控制台时,升级到 VMware Tools 5.x 可能会导致将类似以下内容的多个日志条目记录到 VMX 日志文件中:
    Error in the RPC receive loop:RpcIn:Unable to send
    本版本已解决该问题。
  • 尝试在 Windows 2000 虚拟机上升级 VMware Tools 可能会失败
    尝试在 Windows 2000 虚拟机上升级 VMware Tools 可能会失败。 vmmsi.log中写入类似于以下内容的错误消息:
    Invoking remote custom action.DLL:C:\WINNT\Installer\MSI12.tmp, Entrypoint:VMRun
    VM_CacheMod.Return value 3.
    PROPERTY CHANGE:Deleting RESUME property.Its current value is '1'.
    INSTALL.Return value 3. 
    本版本已解决该问题。
  • Process Explorer 显示错误的句柄计数
    当 HGFS 模块在运行 vSphere Client 的 ESXi 主机与客户机操作系统的控制台之间传输大量文件或传输较大的文件时,由于句柄泄漏,Process Explorer 显示错误的句柄计数。
    本版本已解决该问题。
  • 在 Linux、FreeBSD 或 Solaris 客户机中安装 VMware Tools 工具后,尝试取消或停止安装进程可能会失败
    在 Linux、FreeBSD 或 Solaris 虚拟机上成功安装 VMware Tools 后,VMware Tools 安装可能仍显示为正在进行中。尝试在虚拟机上停止 VMware Tools 安装可能会失败。
    本版本已解决该问题。

已知问题

之前未记录的已知问题以 * 符号标记。已知问题分为如下类别。

备份问题

  • 冷迁移期间虚拟 RDM 磁盘的更改块跟踪被重置*
    在已关闭电源的虚拟机的迁移期间,虚拟 RDM 磁盘的更改块跟踪 (CBT) 被重置。

    注意:如果虚拟机已打开电源,则不会发生此问题。

安装和升级问题

  • 升级使用 Postgres 数据库配置的 vCenter Server Appliance 之后,清单对象可能会不可见
    将使用 Postgres 数据库配置的 vCenter Server Appliance 从 5.0 Update 2 升级到 5.1 Update 1 后,升级之前存在的数据中心、vDS 等清单对象可能会不可见。使用 vSphere Web Client 连接到 vCenter Server Appliance 时将出现该问题。

    解决办法:升级 vCenter Server Appliance 后重新启动 Inventory Service。

  • 对于 Auto Deploy 有状态安装,如果系统已在 USB 上安装了 ESX/ESXi,将无法在这类系统上使用 ESX 的 firstdisk 参数
    您可以为要设置使用 Auto Deploy 进行有状态安装的主机配置主机配置文件。在配置过程中,选择 USB 作为磁盘,然后指定 esx 作为第一个参数。主机当前已在 USB 上安装 ESX/ESXi。Auto Deploy 在本地磁盘上安装 ESXi,而不是在 USB 上安装 ESXi。

    解决办法:无。

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 和 Set-DeployRule 需要对象作为输入内容
    您运行 Copy-DeployRule或 Set-DeployRulecmdlet 并传入映像配置文件或主机配置文件名称后,会出现错误。

    解决办法:传入映像配置文件或主机配置文件对象。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:从该磁盘中移除 ESX 软件,或选择其他磁盘用于无状态缓存。

  • 托管 Auto Deploy 服务器的计算机的 IP 地址更改后,vSphere Auto Deploy 不再运行
    您在 vCenter Server 之外的其他计算机上安装 Auto Deploy,并更改托管 Auto Deploy 服务器的计算机的 IP 地址。更改后,Auto Deploy 命令不再运行。

    解决办法:重新启动 Auto Deploy 服务器服务。
    net start vmware-autodeploy-waiter
    如果重新启动该服务未解决问题,您可能需要重新注册 Auto Deploy 服务器。运行以下命令,指定所有选项。
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • 在 HP DL980 G7 上,使用板载网卡时,ESXi 主机不通过 Auto Deploy 引导
    如果 HP DL980 G7 系统使用板载 (LOM Netxen) 网卡进行 PXE 引导,则您无法使用 Auto Deploy 引导该系统。

    解决办法:在该主机上安装经 HP 批准的附加网卡(例如 HP NC3 60T),然后使用该网卡进行 PXE 引导。

  • 使用 esxcli 的实时更新失败,并显示 Vib 下载失败 (VibDownloadError)
    用户依次执行以下两次更新。

    1. 使用 esxcli software profile update 或 esxclivib update 命令进行的实时安装更新。
    2. 需要重新引导的更新。

    第二个事务会失败。一个常见的故障是签名验证,只有在下载 VIB 后才能对其进行检查。

    解决办法:分两步解决问题。

    1. 重新引导 ESXi 主机以清理其状态。
    2. 再次执行实时安装。

     

  • 当计算机未连接任何网卡时,ESXi 脚本式安装在 CD-ROM 驱动器上找不到 kickstart (ks) 文件
    当 kickstart 文件位于未连接到任何网卡的系统中的 CD-ROM 驱动器上时,安装程序会显示错误消息: 在路径为 < path_to_ks_file> 的 CD-ROM 上找不到 kickstart 文件 (Can't find the kickstart file on cd-rom with path < path_to_ks_file>)。

    解决办法:重新连接网卡以建立网络连接,然后重新尝试安装。

  • SWFCoE LUN 上的脚本式安装失败
    ESXi 安装程序使用 kickstart (ks) 文件调用安装后,直到安装开始,所有 FCoE LUN 仍未经扫描和填充。这会导致任意 LUN 上的脚本式安装失败。使用 https、 http或 ftp协议访问 kickstart 文件时会出现该故障。

    解决办法:在 kickstart 文件的 %pre部分中,包含两分钟的休眠:
    %pre --interpreter=busybox
    sleep 120

  • 如果您升级 vCenter Server 但不升级 Auto Deploy 服务器,会存在潜在问题
    升级 vCenter Server 后,vCenter Server 会在每台 ESXi 主机上用新代理替换 5.0 vSphere HA 代理 (vmware-fdm)。ESXi 主机每次重新引导时都会进行该替换。如果 vCenter Server 不可用,ESXi 主机则无法加入群集。

    解决办法:如果可能,请升级 Auto Deploy 服务器。
    如果无法升级 Auto Deploy 服务器,则可以使用 vSphere PowerCLI 中包含的 Image Builder PowerCLI cmdlet 来创建包含新 vmware-fdm VIB 的 ESXi 5.0 映像配置文件。可以将该映像配置文件提供给您的主机。

    1. 添加 ESXi 5.0 软件库,并添加包含新 vmware-fdm VIB 的软件库。
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 克隆现有映像配置文件,并添加 vmware-fdm VIB。
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 创建可将新映像配置文件分配给主机的新规则,并将该规则添加到规则集。
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 为主机执行测试并修复合规性操作。
      Test-DeployRuleSetCompliance Host_list

     

  • 如果已打开无状态缓存,并且 Auto Deploy 服务器不可用,则主机可能无法使用存储的映像进行自动引导
    在某些情况下,如果 Auto Deploy 服务器不可用,为配合使用无状态缓存与 Auto Deploy 而设置的主机不会从包含存储的映像的磁盘自动引导。即使在逻辑引导顺序中,您需要的引导设备位于下一个,仍可能发生这种情况。发生的准确情况取决于服务器供应商 BIOS 设置。

    解决办法:手动选择包含缓存映像的磁盘作为引导设备。

  • 通过 ESXCLI 从 ESXi 5.0 主机升级到 ESXi 5.1 的过程中,vMotion 和 Fault Tolerance (FT) 日志记录设置会丢失
    在 ESXi 5.0 主机上,要为端口组启用 vMotion 和 FT。通过运行 esxcli software profile update 命令升级主机。作为成功升级的一部分,vMotion 设置和 Fault Tolerance 的日志记录设置将返回到默认设置,即返回到已禁用。

    解决办法:使用 vSphere Upgrade Manager 升级主机,或手动将 vMotion 和 Fault Tolerance 返回到升级前的设置。

网络连接问题
  • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
    在具有 Intel ixgbe 网卡的 ESXi 5.1 主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,某些虚拟机可能无法启动。
    vmware.log 文件中将显示类似以下内容的消息:
    2013-02-28T07:06:31.863Z| vcpu-1| I120:Msg_Post:Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings:0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.response] We will respond on the basis of your support entitlement.

    解决办法:减少与受影响的计算机关联的虚拟功能的数量并重新启动该虚拟机。

  • 当通过 Auto Deploy 置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应
    当通过 Auto Deploy 在使用最新开源 gPXE 的 Emulex 10GbE NC553i FlexFabric 双端口上置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应。

    Emulex 10GbE PCI-E 控制器属于内存映射的控制器。在 PXE TFTP/HTTP 传输期间,在此控制器上运行的 PXE/UNDI 堆栈必须从真实模式切换为大真实模式,为超过 1 MB 的特定于设备的寄存器设定程序,以通过网络发送和接收数据包。在此过程中,无意中启用了 CPU 中断,当在 CPU 模式切换期间生成其他设备中断时,导致系统停止响应。

    解决办法:将网卡固件升级到版本 4.1.450.7 或更高版本。

  • 在重新引导主机之前,对标准虚拟交换机上的端口数所做的更改不会生效
    对标准虚拟交换机上的端口数进行更改后,在重新引导主机之前更改不会生效。这一点与分布式虚拟交换机的行为不同,在分布式虚拟交换机中对端口数的更改会立即生效。

    对标准虚拟交换机上的端口数进行更改时,请确保主机上的总端口数(包括标准交换机和分布式交换机)不超过 4096。

    解决办法:无。

  •  

  • 物理网卡的管理状态未正确地报告为关闭
    以管理方式将物理网卡状态设置为关闭不符合 IEEE 标准。如果通过虚拟交换机命令将物理网卡设置为关闭,会造成两个已知问题:
    • ESXi 会经历无法应对的流量增加,这将浪费位于 ESXi 前面的物理交换机中的网络资源和 ESXi 自身的资源。

    • 网卡的行为方式异常。操作员预期看到网卡电源已关闭,但网卡显示仍处于活动状态。

    VMware 建议使用 ESXCLI 网络关闭 -n vmnicN 命令,具有以下局限:
    • 此命令仅关闭驱动程序,而不关闭网卡电源。从位于 ESXi 系统前面的物理交换机的管理界面查看 ESXi 物理网络适配器时,标准交换机上行链路仍显示处于活动状态。

    • 网卡的管理状态在 ESXCLI 或 UI 中不可见。您必须记住在调试时通过检查 /etc/vmware/esx.conf 来核对状态。

    • SNMP 代理将报告管理状态,但如果在操作状态本来为关闭时将网卡设置为关闭,则该代理将错误地报告管理状态。如果在操作状态为活动时将网卡设置为关闭,则该代理会正确地报告管理状态。

     

    解决办法:将位于 ESXi 系统前面的物理交换机的管理状态更改为关闭,而不要使用虚拟交换机命令。

  • Linux 驱动程序支持变更
    VMXNET2 或 VMXNET(可变)虚拟网卡的设备驱动程序不适用于运行 Linux 内核 3.3 版及更高版本的虚拟机。

    解决办法:为运行 Linux 内核 3.3 版及更高版本的虚拟机使用 VMXNET3 或 e1000 虚拟网卡。

  • vSphere 5.0 Network I/O Control 带宽分配在多个上行链路之间分配不公平
    在 vSphere 5.0 中,如果在使用 Network I/O Control 的情况下为资源池设置网络带宽限制,则此限制会在主机级别的一组上行链路中实施。此带宽上限由令牌分布算法实施,该算法并未设计为在多个上行链路之间公平分配带宽。

    解决办法:vSphere 5.1 Network I/O Control 限制已缩小至基于每个上行链路。

  • [镜像数据包长度] 设置可能导致远程镜像源会话无法运行
    在配置已设置 [镜像数据包长度] 选项的远程镜像源会话时,目标无法收到部分镜像数据包。但如果您禁用该选项,即可再次收到这些数据包。
    如果已设置 [镜像数据包长度] 选项,超过指定长度的数据包会被截断,并且数据包会被丢弃。较低的层代码将不会为丢弃的数据包执行碎片和重新计算校验和。两种情况可能导致数据包被丢弃:

    • [镜像数据包长度] 大于最大传输单元 (MTU)
      如果您的环境中已启用 TSO,原始数据包可能很大。被 [镜像数据包长度] 截断后,它们仍大于 MTU,因此会被物理网卡丢弃。

    • 中间交换机执行 L3 检查
      部分截断的数据包的数据包长度和校验和可能是错误的。部分高级物理交换机会检查 L3 信息并丢弃无效数据包。目标不会收到这些数据包。

    解决办法

    • 如果已启用 TCP 分段卸载 (TSO),请禁用 [镜像数据包长度] 选项。

    • 您可以在部分交换机(例如 Cisco 的 4500 系列交换机)上启用或禁用 L3 检查。如果这些交换机正在使用中,请禁用 L3 检查。对于无法配置的交换机,请禁用 [镜像数据包长度] 选项。
  • 启用的 VMkernel 网络适配器超过 16 个会导致 vMotion 失败
    vSphere 5.x 具有一项限制,即为每个主机的 vMotion 启用的 VMkernel 网络适配器不得超过 16 个。如果为给定主机上的 vMotion 启用的 VMkernel 网络适配器超过 16 个,则该主机上的 vMotion 迁入或迁出可能会失败。ESXi 上 VMkernel 日志中的错误消息显示为 Refusing request to initialize 17 stream ip entries,其中的数字指示为 vMotion 启用的 VMkernel 网络适配器的数目。

    解决办法:禁用 vMotion VMkernel 网络适配器,直到总共只为 vMotion 启用 16 个。

  • 在 VLAN 环境中使用 nx_nic 驱动程序时,vSphere 网络核心转储不起作用
    在属于 VLAN 的主机上配置网络核心转储时,如果网卡使用 QLogic 智能以太网适配器驱动程序 (nx_nic),则网络核心转储会失败。如果上行链路适配器使用 nx_nic,收到的网络核心转储数据包无法使用正确的 VLAN 标记进行标记。

    解决办法:在 VLAN 中配置网络核心转储时,请使用采用其他驱动程序的另一个上行链路适配器。

  • 如果脚本式安装的 kickstart 文件调用已在使用的网卡,安装会失败
    如果您在安装后使用 kickstart 文件设置管理网络,并且您从 kickstart 文件调用已在使用的网卡,您会看到以下错误消息: 操作返回的状态的 Sysinfo 错误: 忙碌。有关详细错误信息,请参见 VMkernel 日志 (Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information)。

    当您在一个包含以下两个网卡的系统上启动脚本式安装时,会遇到该错误:一个配置用于 SWFCoE/SWiSCSI 的网卡,和一个配置用于网络连接的网卡。如果您通过在引导选项中提供 netdevice=<nic>BOOTIF=<MAC of the NIC> 来使用网络网卡启动脚本式安装,kickstart 文件会使用网络线路中的其他网卡 netdevice=<nic configured for SWFCoE / SWiSCSI> 来配置管理网络。

    安装(对磁盘进行分区)成功,但安装程序在尝试使用 kickstart 文件提供的网络参数为主机配置管理网络时会失败,因为 SWFCoE/SWiSCSI 已在使用该网卡。

    解决办法:在安装后使用 kickstart 文件中的可用网卡设置管理网络。

  • 当运行 ESX 的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃
    当运行 ESX 作为客户机的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃,因为对于 VMXNET3 的支持处于实验阶段。ESX 虚拟机的默认网卡是 e1000,因此仅当您替代默认值并选择 VMXNET3 时,才会遇到该问题。

    解决办法:使用 e1000 或 e1000e 作为 ESX 虚拟机的 pNIC。

  • 当大量 dvPort 处于使用中时,显示错误消息
    当您在大量 dvPort 处于使用中的主机上打开具有 dvPort 的虚拟机电源时,将显示 内存不足 (Out of memory)或 资源不足 (Out of resources)错误消息。当您使用 esxcli 命令列出主机上的交换机时,也会显示此错误消息。

    解决办法:增加 dvsLargeHeap 大小。

    1. 更改主机的高级配置选项:
      • esxcli 命令: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
      • vCenter:浏览到 [主机配置] -> [软件] 面板 -> [高级设置] -> 在 [净值] 下,将 DVSLargeHeapMaxSize 值从 80 更改为 100。
      • vSphere 5.1 Web Client:浏览到 [管理主机] -> [设置] -> [高级系统设置] -> [过滤器]。将 DVSLargeHeapMaxSize 值从 80 更改为 100。
    2. 从主机捕获主机配置文件。将配置文件与主机相关联并更新应答文件。
    3. 重新引导主机,确认已应用该值。

    注意:/Net/DVSLargeHeapMaxSize 的最大值为 128。

    在大型部署期间,如果在将 /Net/DVSLargeHeapMaxSize 更改为 128 后,您遇到问题并且日志显示以下任一错误消息,请联系 VMware 支持:

    Unable to Add Port; Status(bad0006)= Limit exceeded

    Failed to get DVS state from vmkernel Status (bad0014)= Out of memory

  • 使用 Emulex BladeEngine-3 10G 网卡(be2net 驱动程序)时,ESXi 发生故障
    当使用 VMware vCloud Director 配置 vCDNI 支持的网络池时,ESXi 在具有 Emulex BladeEngine-3 10G 网卡的系统上可能会发生故障。当使用该设备配置网络池时,您必须从 Emulex 获得经过更新的设备驱动程序。

    解决办法:无。

存储问题

  • RDM LUN 与从 VMFS 数据存储迁移到 NFS 数据存储的虚拟机分离
    如果您使用 vSphere Web Client 将具有 RDM LUN 的虚拟机从 VMFS 数据存储迁移到 NFS 数据存储,迁移操作完成且不提示任何错误或警告消息,但 RDM LUN 在迁移后与虚拟机分离。但是,迁移操作将创建一个与 NFS 数据存储上的 RDM LUN 具有相同大小的 vmdk 文件,以替换 RDM LUN。
    如果您使用 vSphere Client,迁移向导的兼容性部分中将显示一条相应的错误消息。

    解决办法:无
  • 您使用 EMC Symmetrix VMAX/VMAXe 存储阵列时,VMFS5 数据存储创建可能失败
    如果您的 ESXi 主机连接到 VMAX/VMAXe 阵列,则可能无法在从该阵列提供的 LUN 上创建 VMFS5 数据存储。如果是这种情况,则将显示以下错误: 主机配置过程中出错 (An error occurred during host configuration)。造成该错误的原因是 Symmetrix Enginuity Microcode (VMAX 5875.x) 的 ATS (VAAI) 部分阻止之前未写入的 LUN 上的新数据存储。

    解决办法

    1. 在 ESXi 主机上禁用硬件加速锁定。
    2. 创建 VMFS5 数据存储。
    3. 在主机上重新启用硬件加速锁定。

    使用以下任务禁用和重新启用硬件加速锁定参数。

    在 vSphere Web Client 中

    1. 在 vSphere Web Client 导航器中,浏览到主机。
    2. 依次单击 管理选项卡和 设置
    3. 在“系统”下,单击 高级系统设置
    4. 选择 [VMFS3.HardwareAcceleratedLocking],然后单击 [编辑] 图标。
    5. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
      • 0 已禁用
      • 1 已启用

    在 vSphere Client 中

    1. 在 vSphere Client 清单面板中,选择主机。
    2. 单击 [配置] 选项卡,然后单击 [软件] 下的 [高级设置]
    3. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
      • 0 已禁用
      • 1 已启用

     

  • 使用 Storagesystem::updateDiskPartitions()时,尝试在空磁盘上创建 GPT 分区失败
    您可以使用 Storagesystem::computeDiskPartitionInfoAPI 检索磁盘规范,然后使用该磁盘规范标记磁盘并通过 Storagesystem::updateDiskPartitions()创建分区。但是,如果磁盘最初为空,并且目标磁盘格式为 GPT,您尝试创建分区时可能失败。

    解决办法:改为使用 DatastoreSystem::createVmfsDatastore标记空磁盘并对其进行分区,并创建 VMFS5 数据存储。

  •  

  • 尝试在 GPT 磁盘上创建诊断分区可能失败
    如果 GPT 磁盘没有任何分区或磁盘的尾随分区为空,您可能无法在该磁盘上创建诊断分区。

    解决办法:避免将 GPT 格式化的磁盘用于诊断分区。如果您必须将现有空 GPT 磁盘用于诊断分区,请将该磁盘转换为 MBR 格式。

    1. 在该磁盘上创建 VMFS3 数据存储。
    2. 移除数据存储。

    磁盘格式将从 GPT 更改为 MBR。

     

  • ESXi 无法从大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE LUN 中引导
    您在大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE 引导 LUN 上安装 ESXi 时,安装可能成功。但当您尝试引导 ESXi 主机时,引导将失败。您会看到以下错误消息: 错误:没有适合此磁盘容量的几何形状 (ERROR: No suitable geometry for this disk capacity)和 错误: 无法连接到配置的任何磁盘 (ERROR: Failed to connect to any configured disk)(在 BIOS 时)。

    解决办法:如果大于 2 TB 的 FCoE LUN 连接到配置用于 FCoE 引导的 Intel FCoE 网卡,请勿在该 FCoE LUN 上安装 ESXi。在小于 2 TB 的 FCoE LUN 上安装 ESXi。

服务器配置问题

 

  • 升级到 ESX 5.1 Update 3 后,主机配置文件合规性检查可能会失败*
    将 ESXi 5.1.x 升级到 ESXi 5.1 Update 3 后,本机多路径插件 (NMP) 设备信息可能不会包含在主机配置文件合规性检查中。所有现有主机配置文件的主机配置文件合规性检查可能都会失败。将显示以下合规性错误消息:
    主机不存在规范状况: 需要更新设备 naa.xxxx 的 SATP 配置 (Specification state absent from host: SATP configuration for device naa.xxxx needs to be updated)

    解决办法:要解决此问题,请参见 知识库文章 2032822
  • 通过控制台访问 VMFS 文件夹时,应用主机配置文件可能失败
    如果用户通过控制台访问 VMFS 数据存储文件夹,同时为主机应用主机配置文件,则修复或应用任务可能失败。在主机配置文件上启用无状态缓存时,或进行 Auto Deploy 安装时,会出现此故障。

    解决办法:修复主机配置文件时,请勿通过控制台访问 VMFS 数据存储。

  • 登录横幅中开头的空格会导致主机配置文件合规性故障
    如果您编辑主机配置文件并更改 [登录横幅 (今日消息)] 选项的文本,但在横幅文本的开头添加了空格,则应用该配置文件时会出现合规性错误。此时会显示合规性错误 登录横幅已修改 (Login banner has been modified)。

    解决办法:编辑主机配置文件并从 [登录横幅] 策略选项中移除开头的空格。

  • 从 ESXi 5.0 主机中提取的主机配置文件无法应用到启用了 Active Directory 的 ESX 5.1 主机
    将最初从 ESXi 5.0 主机提取并启用了 Active Directory 的主机配置文件应用到 ESX 5.1 主机时,应用任务将失败。为 likewise 系统资源池设置内存最大值可能导致出现错误。启用 Active Directory 后,likewise 系统资源池中的服务占用的内存量会超过在 ESXi 5.0 主机配置文件中捕获的 ESXi 5.0 的默认内存大小上限。因此,在尝试将内存大小上限设置为 ESXi 5.0 级别的过程中,应用 ESXi 5.0 主机配置文件会失败。

    解决办法:执行以下操作之一:

    • 手动编辑该主机配置文件,以提高 likewise 组的内存大小上限。
      1. 从主机配置文件编辑器导航到 [资源池] 文件夹,然后查看 host/vim/vmvisor/plugins/likewise
      2. [内存最大值 (MB)] 设置从 20(ESXi 5.0 默认值)修改为 25(ESXi 5.1 默认值)。
    • 为 likewise 组禁用子配置文件。执行以下操作之一:
      • 在 vSphere Web Client 中,编辑主机配置文件并取消选中 [资源池] 文件夹的复选框。此操作会禁用所有资源池管理。您可以专为 [资源池] 文件夹下的 host/vim/vmvisor/plugins/likewise 项目禁用此项。
      • 在 vSphere Client 中,右键单击主机配置文件并从菜单中选择 [启用/禁用配置文件配置...]

     

  • ESXi 5.0.x 主机配置文件重新应用到有状态 ESXi 5.1 主机后,主机网关会被删除并出现合规性故障
    ESXi 5.0.x 主机配置文件应用于全新安装的 ESXi 5.1 主机后,主机合规性状态为不合规。再次应用同一配置文件后,它会删除主机的网关 IP,并且合规性状态会继续显示为不合规,并显示 IP 路由配置不符合规范 (IP route configuration doesn't match the specification)状态消息。

    解决办法:执行以下解决办法之一:

    • 通过 DCUI 登录主机,并使用以下 esxcli命令手动添加默认网关:
      esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
    • 应用一次 ESX 5.0 主机配置文件后,从 ESX 5.1 主机提取一个新主机配置文件。将 ESX 5.1 主机迁移到基于 ESX 5.1 的新主机配置文件。

     

  • 在 USB 磁盘上启用无状态缓存后,可能出现合规性错误
    在主机配置文件上启用到 USB 磁盘的无状态缓存时,在修复后可能出现合规性错误。重新引导主机以便应用修复的更改后,无状态缓存会成功,但合规性故障仍存在。

    解决办法:没有解决办法。

  • 在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时
    在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时。

    解决办法:使用 vSphere Client 增加超时值:

    1. 选择 [系统管理] > [vCenter Server 设置]
    2. 选择 [超时设置]
    3. 将 [正常操作] 和 [长时间操作] 的值更改为 3600 秒。

       

  • 在 vmknic 上禁用 IPv4 后,无法从主机提取主机配置文件
    如果您移除所有 vmknic 中的所有 IPv4 地址,则无法从该主机提取主机配置文件。此操作对使用 Auto Deploy 置备的主机影响最大,因为主机配置文件是在此环境中保存主机配置的唯一方法。

    解决办法:为一个 IPv4 地址至少分配一个 vmknic。

  • 在 ESXi 5.1 主机上应用从 ESXi 4.1 主机提取的主机配置文件时,应用主机配置文件会失败
    如果您通过 ESXi 4.1 设置主机,从此主机提取主机配置文件(通过 vCenter Server)并尝试将配置文件附加到 ESXi 5.1 主机,则当您尝试应用该配置文件时,操作会失败。您可能收到以下错误消息: NTP 服务已关闭 (NTP service turned off)。

    即使在 ESXi 4.1 的 /etc/ntp.conf中未提供 NTP 服务器,NTPD 服务仍可能正在运行(打开状态)。ESXi 5.1 需要明确的 NTP 服务器,该服务才能运行。

    解决办法:通过在 /etc/ntp.conf中添加有效的 NTP 服务器来打开 NTP 服务,在 5.1 主机上重新启动 NTP 守护进程。确认该服务在重新引导后仍保留。此操作可确保为主机和将应用于该主机的配置文件同步 NTP 服务。

  • 成功应用配置文件后,主机配置文件显示不合规
    从 ESXi 5.0 主机提取主机配置文件并将其应用于包含本地 SAS 设备的 ESXi 5.1 主机时,会出现此问题。即使主机配置文件修复成功,主机配置文件合规性仍显示为不合规。

    您可能收到类似以下内容的错误消息:

    • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 路径选择策略设置为 VMW_PSP_FIXED (Specification state absent from host: device naa.500000e014ab4f70 Path Selection Policy needs to be set to VMW_PSP_FIXED)
    • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 参数设置为: 状态 =“打开”,队列完整示例大小 =“0”,队列完整阈值 =“0”(Specification state absent from host: device naa.500000e014ab4f70 parameters needs to be set to State = on" Queue Full Sample Size = "0" Queue Full Threshold = "0")

     

    ESXi 5.1 主机配置文件存储插件会为 PSA 和 NMP 设备配置筛选出本地 SAS 设备,而 ESXi 5.0 包含此类设备配置。这会造成在将旧版本主机配置文件应用于新版本主机时缺少设备。

    解决办法:手动编辑主机配置文件,并为所有本地 SAS 设备移除 PSA 和 NMP 设备配置条目。您可以通过输入以下 esxcli 命令来确定设备是否为本地 SAS:
    esxcli storage core device list

    如果返回以下行,则该设备为本地 SAS:
    Is Local SAS Device

  • 默认系统服务始终在使用 Auto Deploy 置备的 ESXi 主机上启动
    对于使用 Auto Deploy 置备的 ESXi 主机,关联的主机配置文件的 [服务配置] 部分中的服务启动策略不会被完全接受。特别是,如果 ESXi 上默认打开的某一项服务的启动策略值为 off,则在引导时,该服务仍会在使用 Auto Deploy 置备的 ESXi 主机上启动。

    解决办法:引导 ESXi 主机后,手动停止该服务。

  • snmpd 重新启动后,无法从 VMWARE-VMINFO-MIB 正确地检索信息
    您从 ESXi Shell 使用 /etc/init.d/snmpd restart重新启动 snmpd 守护进程后,VMWARE-VMINFO-MIB 中的部分信息可能在 SNMPWalk 期间丢失。

    解决办法:请勿使用 /etc/init.d/snmpd restart。必须使用 esxcli system snmp set --enable命令启动或停止 SNMP 守护进程。如果使用了 /etc/init.d/snmpd restart从 ESXi Shell 重新启动 snmpd,从 DCUI 或从 ESXi Shell 使用 /etc/init.d/hostd restart重新启动 Hostd。

vCenter Server 和 vSphere Client 问题
  • 启用或禁用 View Storage Accelerator 可能使 ESXi 主机丢失与 vCenter Server 的连接
    如果使用 vSphere 5.1 部署 VMware View,且 View 管理员启用或禁用桌面池中的 View Storage Accelerator,则 ESXi 5.1 主机可能会丢失与 vCenter Server 5.1 的连接。

    View Storage Accelerator 功能也称为基于内容的读缓存。在 View 5.1 View Administrator 控制台中,此功能被称为主机缓存。

    解决办法:请勿在部署 vSphere 5.1 的 View 环境中启用或禁用 View Storage Accelerator。

虚拟机管理问题
  • 从 ESX 3.x 和更高版本(VM 版本 4)升级虚拟机兼容性错误地将 Windows 虚拟机可变适配器配置为 Windows 系统默认驱动程序
    如果您的 Windows 客户机操作系统具有配置为 VMware Accelerated AMD PCnet 适配器驱动程序的可变网络适配器,则当您将虚拟机兼容性从 ESX 3.x 和更高版本(VM 版本 4)升级到诸如 ESXi 4.x 和更高版本(VM 版本 7)等任何更高兼容性设置时,Windows 会将该可变适配器配置为 Windows AMD PCNET Family PCI 以太网适配器默认驱动程序。
    发生此错误配置的原因在于 VMware Tools 驱动程序未签名,而 Windows 获取了已签名的默认 Windows 驱动程序。在兼容性升级之前存在的可变适配器网络设置会丢失,并且网卡的网络速度将从 1Gbps 变为 10Mbps。

    解决办法:升级虚拟机的兼容性后,将可变网络适配器配置为使用来自 Windows 客户机操作系统的 VMXNET 驱动程序。如果您的客户机是使用 ESXi5.1 VMware Tools 更新的,VMXNET 驱动程序将安装在以下位置:C:\Program Files\Common Files\VMware\Drivers\vmxnet\。

  • 您在虚拟机上安装 VMware Tools 并重新引导后,网络将不可用
    在使用 CentOS 6.3 操作系统或 Oracle Linux 6.3 操作系统的虚拟机上,成功安装 VMware Tools 并重新引导虚拟机后,网络将不可用。您尝试从 DHCP 服务器手动获取 IP 地址或从命令行设置静态 IP 地址时,会显示错误 无法分配内存 (Cannot allocate memory)。
    问题在于默认使用的可变网络适配器不是适用于这些操作系统的明智选择。

    解决办法:将网络适配器从可变网络适配器更改为 E1000 或 VMXNET 3,如下所示:

    1. 运行 vmware-uninstall-tools.pl命令以卸载 VMware Tools。
    2. 关闭虚拟机电源。
    3. 在 vSphere Web Client 中,右键单击虚拟机,然后选择 [编辑设置]
    4. 单击 [虚拟硬件],然后单击 [移除] 图标将当前网络适配器移除。
    5. 添加新网络适配器,并选择适配器类型 E1000 或 VMXNET 3。
    6. 打开虚拟机电源。
    7. 重新安装 VMware Tools。

     

  • ESXi 上涉及非 VMFS 虚拟磁盘的克隆或迁移操作会失败,并显示错误消息
    无论您使用 vmkfstools 命令还是客户端来对托管格式的虚拟磁盘执行克隆、复制或迁移操作,操作都会失败,并显示以下错误消息: 系统找不到指定的文件 (The system cannot find the file specified)。

    解决办法:要对托管格式的虚拟磁盘执行克隆、复制或迁移操作,您需要将 VMkernel 多数据区模块加载到 ESXi 中。

    1. 登录 ESXi Shell 并加载多数据区模块。
      # vmkload_mod multiextent
    2. 检查您的虚拟机磁盘中是否有些属于托管类型。托管磁盘以 -s00x.vmdk扩展名结尾。
    3. 将托管格式的虚拟磁盘转换成某一种 VMFS 格式。
      1. 将源托管磁盘 test1.vmdk 克隆到 test2.vmdk。
        # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
      2. 成功克隆后删除托管磁盘 test1.vmdk。
        # vmkfstools -U test1.vmdk
      3. 将克隆的 vmfs 类型磁盘 test2.vmdk 重命名为 test1.vmdk。
        # vmkfstools -E test2.vmdk test1.vmdk
    4. 卸载该多数据区模块。
      #vmkload_mod -u multiextent

     

  • 虚拟机没有分配的 IP 地址,并且可能无法运行
    该问题是由于从客户机操作系统启动 LUN 重置请求引起的。该问题特定于在 ESXi 主机中配置有软件 FCoE 的 IBM XIV 光纤通道阵列。驻留在 LUN 上的虚拟机显示以下问题:

    • 未分配给虚拟机 IP 地址。
    • 无法打开或关闭虚拟机电源。
    • 在控制台中未显示鼠标光标。因此,无法控制客户机操作系统中受影响的虚拟机或者与其进行交互。

     

    解决办法:从 ESXi 主机,重置遇到问题的虚拟机所驻留的 LUN。

    1. 运行以下命令以获取 LUN 信息:
      # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
    2. 在输出中搜索以下行以获取 LUN 的 UID:
      Partitions spanned (on 'lvm'):eui.001738004XXXXXX:1
      eui.001738004XXXXXX是设备 UID。
    3. 运行以下命令以重置 LUN:
      # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
    4. 如果无响应的虚拟机驻留在具有多个关联 LUN(如添加的数据区)的数据存储上,则将针对所有数据存储数据区执行 LUN 重置。

     

迁移问题
  • 尝试使用 Storage vMotion 迁移多个链接克隆的虚拟机将失败
    该失败通常会影响链接克隆的虚拟机。当增量磁盘的大小为 1MB,且在 ESXi 主机中启用了基于内容的读缓存 (CBRC) 功能时,会发生该问题。您会看到以下错误消息: 源虚拟机检测到目标虚拟机无法恢复。

    解决办法:可使用下列方法之一来避免 Storage vMotion 出现失败:

    • 使用 4KB 作为增量磁盘的大小。

    • 不使用 Storage vMotion,而是将已关闭电源的虚拟机迁移到新的数据存储。

VMware HA 和 Fault Tolerance 问题
  • 在 vCenter Server 内部测试版上设置为记录统计信息时,容错虚拟机会崩溃
    vmx*3 功能支持用户运行 stats vmx 来收集性能统计信息用于调试支持问题。在 vCenter Server 内部测试版上启用 Fault Tolerance 后,stats vmx 不兼容。

    解决办法:启用 Fault Tolerance 后,请确保在 vCenter Server 内部测试版上虚拟机未设置为记录统计信息。

受支持硬件问题
  • PCI [未知未知]状态显示在 Apple Mac Pro 服务器上的 vCenter Server 中
    vSphere 5.1 中的 [硬件状态] 选项卡为 Apple Mac Pro 上的部分 PCI 设备显示 [未知未知]。这是因为 Apple Mac Pro 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

    解决办法:无。

  • PCI [未知未知]状态显示在 AMD PileDriver 上的 vCenter Server 中
    vSphere 5.1 中的 [硬件状态] 选项卡为 AMD PileDriver 上的部分 PCI 设备显示 [未知未知]。这是因为 AMD PileDriver 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

    解决办法:无。

  • Apple Mac Pro 服务器上不支持 DPM
    vSphere 5.1 分布式电源管理 (DPM) 功能在 Apple Mac Pro 上不受支持。请勿将 Apple Mac Pro 添加到已启用 DPM 的群集中。如果主机进入“待机”状态,则发出打开电源命令后该主机无法退出待机状态,并显示 操作已超时 (operation timed out)错误。将主机置于待机状态后,Apple Mac Pro 无法从 vSphere 使用的软件关闭电源命令中唤醒。

    解决办法:如果 Apple Mac Pro 主机进入“待机”状态,您必须手动按电源按钮来打开主机电源。

  • Apple Mac Pro 服务器上不支持 IPMI
    vSphere 5.1 中的 [硬件状态] 选项卡无法显示正确的数据,或 Apple Mac Pro 上的部分硬件组件缺少数据。这是因为 Apple Mac Pro 上不支持 IPMI。

    解决办法:无。

其他问题
  • 网络或存储中断后,TCP 上的 syslog、SSL 上的 syslog 和存储日志记录不会自动重新启动
    网络或存储中断后,在特定配置中 syslog 服务不会自动重新启动。这些配置包括 TCP 上的 syslog、SSL 上的 syslog 和中断存储日志记录。

    解决办法:运行以下命令,明确地重新启动 syslog:
    esxcli system syslog reload您还可以配置可自动重新启动的 UDP 上的 syslog。