VMware ESXi 5.1 Update 1 | 2013 年 4 月 25 日 | 内部版本 1065491

上次更新时间:2013 年 4 月 25 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • 支持其他客户机操作系统 本版本更新了对许多客户机操作系统的支持。
    有关本版本所支持的客户机操作系统的完整列表,请参见 《VMware 兼容性指南》

  • 已解决的问题 本版本还提供了许多已在 已解决的问题部分记录的缺陷修复。

ESXi 5.1 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.1 的功能和已知问题。要查看 ESXi 5.1 早期版本的发行说明,请参见 VMware vSphere 5.1 发行说明

国际化

VMware vSphere 5.1 Update 1 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与先前版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看本站点以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 与 vCenter Server 和模块 ZIP 文件打包在一起。您可以通过 VMware vCenter™ 安装程序向导来安装一个客户端,或者安装所有这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.1.1 增加了对 ESXi 5.1 Update 1 和 vCenter Server 5.1 Update 1 版本的支持。有关 VDDK 的更多详细信息,请访问 http://www.vmware.com/support/developer/vddk/

ESXi 的硬件兼容性

要确定哪些处理器、存储设备、SAN 阵列和 I/O 设备与 vSphere 5.1 Update 1 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 1 的信息。

此版本所支持的处理器的列表有所扩展。要确定哪些处理器与此版本兼容,请参见 《VMware 兼容性指南》

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 ESXi 5.1 Update 1 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.1 Update 1 的信息。

自 vSphere 5.1 起,对较旧的客户机操作系统的支持级别有所变化。有关每个支持级别的描述,请参见 知识库文章 2015161《VMware 兼容性指南》提供了所有操作系统版本和 VMware 产品版本的详细支持信息。

以下客户机操作系统版本不再受其各自操作系统供应商支持,已弃用。虽然 vSphere 5.1 Update 1 仍然支持这些客户机操作系统,但未来的 vSphere 版本将不会对其提供支持。

  • Windows NT
  • 所有 16 位 Windows 和 DOS 版本(Windows 98、Windows 95、Windows 3.1)
  • Debian 4.0 和 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • 低于 SP4 的 SUSE Linux Enterprise 9
  • 低于 SP3 的 SUSE Linux Enterprise 10
  • 低于 SP1 的 SUSE Linux Enterprise 11
  • Ubuntu 版本 8.04、8.10、9.04、9.10 和 10.10
  • 所有版本的 Novell Netware
  • 所有版本的 IBM OS/2

ESXi 的虚拟机兼容性

ESXi 5.1 Update 1 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不再受支持。要在 ESXi 5.1 Update 1 上使用此类虚拟机,请升级虚拟机兼容性。请参见 《vSphere 升级》文档。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的分步指导,请阅读 《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。有关具体信息,请阅读以下内容:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.0 与 ESXi 5.1 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义进行升级的信息,请参见 《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.1 Update 1 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.1 Update 1 的兼容性。如果您的主机硬件不兼容,将有紫色屏幕显示关于不兼容信息的消息,并且您将无法安装或升级到 vSphere 5.1 Update 1。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

ESXi 5.1 Update 1 提供以下用于升级 ESX/ESXi 主机的工具:

  • 使用 CD-ROM、DVD 或 USB 闪存驱动器上的 ESXi 安装程序 ISO 映像以交互方式升级。您可以从 CD-ROM、DVD 或 USB 闪存驱动器中运行 ESXi 5.1 Update 1 安装程序来执行交互式升级。此方法适用于少数主机。
  • 执行脚本式升级。通过调用更新脚本(可提供无需人工干预的高效升级),可以将 4.x 版 ESX/ESXi 主机、ESXi 5.0.x 和 ESXi 5.1 主机升级或迁移到 ESXi 5.1 Update 1。脚本式升级还提供了高效的多主机部署方式。您可以从 CD-ROM 或 DVD 驱动器或通过 PXE 引导安装程序使用脚本来升级 ESXi。

  • vSphere Auto Deploy。如果您的 ESXi 5.x 主机是使用 vSphere Auto Deploy 部署的,则可以使用 Auto Deploy 重新置备该主机,方法是通过包含 ESXi 升级的新映像配置文件重新引导该主机。

  • esxcli。您可以使用 esxcli 命令行实用程序升级 ESXi 5.1.x 主机并对其应用修补程序,方法是使用 vmware.com 上的下载库或者 VMware 合作伙伴准备的库的 ZIP 下载文件。您不能使用 esxcli 将 ESX 或 ESXI 主机从低于 5.1 版的 ESX/ESXI 版本升级到 5.1.x 版。

支持升级到 ESXi 5.1 Update 1 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.1 Update 1 的升级途径

ESX 4.0
包括
ESX 4.0 Update 1
ESX4.0 Update 2

ESX4.0 Update 3
ESX 4.0 Update 4

ESXi 4.0
包括
ESXi 4.0 Update 1
ESXi 4.0 Update 2

ESXi 4.0 Update 3
ESXi 4.0 Update 4

ESX 4.1:
包括
ESX 4.1 Update 1
ESX 4.1 Update 2

ESX 4.1 Update 3

 

ESXi 4.1
包括
ESXi 4.1 Update 1

ESXi 4.1 Update 2
ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2

ESXi 5.1

VMware-VMvisor-Installer-5.1.0.update01-xxxxxx.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

update-from-esxi5.1-5.1_update01.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

使用从 VMware 门户(联机)下载的修补程序定义

带有修补程序基准的 VMware vCenter Update Manager

VMware vSphere 5.1 Update 1 的开源组件

可从 http://www.vmware.com/download/vsphere/open_source.html[开放源代码] 选项卡上获取适用于 vSphere 5.1 Update 1 中分发的开放源软件组件的版权声明和许可证。您还可以下载 vSphere 最新通用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Client。在 vSphere 5.1 中,所有新 vSphere 功能只能通过 vSphere Web Client 使用。传统的 vSphere Client 将继续运行,支持与 vSphere 5.0 相同的功能集,但不显示 vSphere 5.1 中的任何新功能。

    vSphere 5.1 及其后续更新和修补程序版本是包含传统 vSphere Client 的最后版本。未来的 VMware vSphere 主要版本中将只包括 vSphere Web Client。

    对于 vSphere 5.1,传统 vSphere Client 的缺陷修复限于安全问题或重大问题。重大缺陷是指定产品功能中的偏差,如果没有可实施的解决办法,则会导致数据损坏、数据丢失、系统崩溃或重大客户应用程序停机。

  • VMware Toolbox。vSphere 5.1 是支持 VMware Tools 图形用户界面(即 VMware Toolbox)的最新版本。VMware 将继续更新和支持 Toolbox 命令行界面 (CLI) 来执行所有 VMware Tools 功能。

  • VMI 准虚拟化。vSphere 4.1 是支持 VMI 客户机操作系统准虚拟化接口的最新版本。有关迁移启用了 VMI 的虚拟机以使虚拟机能够在以后发布的 vSphere 版本上运行的信息,请参见 知识库文章 1013842

  • Windows 客户机操作系统自定义。vSphere 5.1 是支持 Windows 2000 客户机操作系统自定义的最新版本。VMware 将继续支持 Windows 客户机更新版本的自定义。

  • VMCI 套接字。在 vSphere 5.1 版本中,客户机到客户机通信(虚拟机到虚拟机)已弃用。下一个主要版本中将移除此功能。VMware 将继续支持主机到客户机通信。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi510-Update01 包含以下各公告:

ESXi510-201304201-UG:更新 ESXi 5.1 esx-base vib
ESXi510-201304202-UG:更新 ESXi 5.1 tools-light vib
ESXi510-201304203-UG:更新 ESXi 5.1 net-ixgbe vib
ESXi510-201304204-UG:更新 ESXi 5.1 ipmi-ipmi-si-drv vib
ESXi510-201304205-UG:更新 ESXi 5.1 net-tg3 vib
ESXi510-201304206-UG:更新 ESXi 5.1 misc-drivers vibs
ESXi510-201304207-UG:更新 ESXi 5.1 net-e1000e vib
ESXi510-201304208-UG:更新 ESXi 5.1 net-igb vib
ESXi510-201304209-UG:更新 ESXi 5.1 scsi-megaraid-sas vib
ESXi510-201304210-UG:更新 ESXi 5.1 net-bnx2 vib


修补程序版本 ESXi510-Update01 Security-only 包含以下各公告:

ESXi510-201304101-SG:更新 ESXi 5.1 esx-base vib
ESXi510-201304102-SG:更新 ESXi 5.1 tools-light vib
ESXi510-201304103-SG - 更新 ESXi 5.1 net-bnx2x vib
ESXi510-201304104-SG - 更新 ESXi 5.1 esx-xserver vib


修补程序版本 ESXi510-Update01 包含以下映像配置文件:

ESXi-5.1.0-20130402001-standard
ESXi-5.1.0-20130402001-no-tools

修补程序版本 ESXi510-Update01 Security-only 包含以下映像配置文件:

ESXi-5.1.0-20130401001s-standard
ESXi-5.1.0-20130401001s-no-tools


有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中以下几个主题方面的已解决的问题:

CIM 和 API

  • ESXi 5.1 主机报告的 SMBIOS UUID 可能与实际 SMBIOS UUID 不同
    如果 ESXi 5.1 系统的 SMBIOS 版本为版本 2.6 或更高版本,则 ESXi 5.1 主机报告的 SMBIOS UUID 可能与实际 SMBIOS UUID 不同。UUID 前 3 个字段的字节顺序不正确。

    本版本已解决该问题。
  • ESXi 5.x 主机在 vCenter Server 中显示为断开连接,并在 vpxa.log 文件中记录“ramdisk (root) is full”的消息
    如果简单网络管理协议 (SNMP) 无法处理 ESXi 的 /var/spool/snmp文件夹中的 SNMP 陷阱文件 ( .trp) 的数量,主机可能在 vCenter Server 中显示为断开连接。您可能无法在主机上执行任何任务。
    vpxa.log中包含几个类似以下内容的条目:
    WARNING:VisorFSObj:1954: Cannot create file
    /var/run/vmware/f4a0dbedb2e0fd30b80f90123fbe40f8.lck for process vpxa because the inode table of its ramdisk (root) is full.
    WARNING:VisorFSObj:1954: Cannot create file
    /var/run/vmware/watchdog-vpxa.PID for process sh because the inode table of its ramdisk (root) is full.

    本版本已解决该问题。
  • vCenter Server 或 vSphere Client 无法监控主机硬件 RAID 控制器的状态
    如果您安装了第三方主机硬件 RAID 控制器 (HHRC) CIM 提供程序(如 LSI CIM 提供程序),当封装的 HHRC CIM 提供程序中出错时,sfcb-hhrc 进程将失败。

    本版本通过提高 HHRCWrapperProvider 的错误处理能力和稳定性,解决了该问题。

客户机操作系统

  • 使用硬件版本 9 创建虚拟机时,[Mac OS X 10.8 64 位] 选项不可用
    在 vSphere 5.1 中使用硬件版本 9 创建虚拟机时,客户机操作系统下拉菜单中不显示 [Mac OS X 10.8 64 位] 操作系统选项。

    本版本已解决该问题(如果您使用 NGC Client 连接到 vSphere 5.1 Update 1)。
  • Solaris 10 虚拟机的时间戳计数器 (TSC) 未正确校准
    本版本已解决该问题。
    为了在网络时间协议 (NTP) 的容差范围内纠正 TSC 校准,为 Solaris 10 客户机操作系统增加了客户机计时器校准支持。
  • 在 ESXi 5.1 主机上,虚拟机可能会变得无响应并出现 vCPU 忙碌问题
    在 ESXi 5.1 主机上,运行于虚拟机硬件版本 7 的虚拟机可能会变得无响应并出现 vCPU 忙碌问题。如果虚拟机所运行的客户机操作系统使用高级可编程中断控制器 (APIC) 逻辑目的地模式,则虚拟机将受此问题影响。如果虚拟机所运行的客户机操作系统使用物理目的地模式,则不受影响。

    本版本已解决该问题。

  • CreateTemporaryFile InGuest() 功能可能会导致 GuestPermissionDeniedFault 异常
    在重新配置已打开电源的虚拟机来添加 SCSI 控制器并尝试在客户机操作系统中创建临时文件时,操作可能会失败,并显示 GuestPermissionDeniedFault异常。

    本版本已解决该问题。

其他

  • 使用 invoke-vmscript 命令时显示错误
    在虚拟机上使用 invoke-vmscriptPowerCLI 命令脚本时,脚本失败并显示以下错误消息:

    无法联系客户机操作代理 (The guest operations agent could not be contacted)。

    本版本已解决该问题。
  • 尝试通过 USB 端口插拔键盘或鼠标时,ESXi 主机将失败,并显示紫色诊断屏幕
    尝试通过 USB 端口插拔键盘或鼠标时,ESXi 主机将失败,并显示以下错误消息:
    PCPU## 已锁定。无法确认 TLB 失效 (PCPU## locked up. Failed to ack TLB invalidate)。

    有关详细信息,请参见 知识库文章 2000091

    本版本已解决该问题。
  • 使用 vSphere Authentication Proxy 服务(CAM 服务)首次尝试将 ESXi 主机加入域时,可能会因 DC 复制延迟而失败
    首次使用 vSphere Authentication Proxy 服务(CAM 服务)添加 ESXi 主机的自动过程可能会失败,并显示类似以下内容的错误消息:

    由于用户名或密码不正确,无法完成登录 (Cannot complete login due to an incorrect user name or password)

    当 Authentication Proxy 服务在一个域控制器上创建了帐户、而 ESXi 主机与另一个域控制器通信导致域控制器复制发生延迟时,会出现该问题。这种情况下,ESXi 主机将无法使用新创建的帐户连接到域控制器 (DC)。
    如果 ESXi 主机是直接添加到 Active Directory 域而未使用 Authentication Proxy 服务,则不会出现该问题。

    本版本已解决该问题。
  • 已向 hostd 日志级别增添了基于组件的日志记录功能和高级配置
    为了避免在发生问题期间难以获得适当的日志,本版本通过将日志记录器划分为不同的组并为它们添加前缀,增添了基于组件的日志记录功能。此外,新增的高级配置让您无需重新启动即可更改 hostd 日志的日志级别。

    本版本已解决该问题
  • 在具有 vShield Endpoint 的 ESXi 主机上运行 64 位 Windows 2003 R2 客户机操作系统的虚拟机可能失败,并显示蓝色诊断屏幕
    在某些情况下,vShield Endpoint 驱动程序 vsepflt.sys中的 API 调用错误可能会导致运行 64 位 Windows 2003 R2 客户机操作系统的虚拟机失败,并显示蓝色诊断屏幕。

    本版本已解决该问题。
  • VMware Ondisk Metadata Analyser (VOMA) 失败并显示分段错误
  • VMware Ondisk Metadata Analyser(VOMA) 因为 VMFSCK 模块而失败并显示分段错误。
    本版本已解决该问题。
  • vSphere 网络核心转储无法收集完整数据
    如果磁盘转储由于转储插槽大小不足而无法收集某些数据,则 vSphere 网络核心转储将无法收集完整数据。

    本版本已解决该问题。由于磁盘转储插槽大小而引起的任何故障不再影响网络核心转储。

  • 如果 hostd-worker 线程占用 100% 的 CPU 资源,ESXi 主机可能会发生故障
    ESXi 主机的工作负载足够高时,hostd-worker 线程在提取 vCloud Director UI 的虚拟机屏幕快照文件时可能发生阻塞,致使 CPU 占用达到 100%。该问题可能导致 ESXi 主机发生故障。

    本版本已解决该问题。

网络连接

  • 长时间运行 vMotion 操作可能会导致出现大量单播操作
    在 vSphere 5 中使用多网卡 vMotion 功能时,如果 vMotions 操作持续很长时间,则在物理交换机的所有接口上将会出现大量的单播操作。如果 vMotion 的时效比 MAC 地址表的时效长,则源主机和目标主机将开始接收大量网络流量。

    本版本已解决该问题。

  • 将主机配置文件成功应用到主机后,ESXi 主机可能会显示一个合规性失败错误
    成功将主机配置文件应用到 ESXi 主机后,该主机可能不再合规,并显示一条类似以下内容的错误消息:
    IPv4 路由不匹配 (IPv4 routes did not match)

    当两个或多个 VMkernel 端口组使用同一个子网时,可能出现此问题。

    本版本已解决该问题。

  • 使用 VMXNET 3 vNIC 网络适配器的虚拟机可能在 hostd 日志文件中显示错误消息
    使用 VMXNET 3 vNIC 网络适配器的虚拟机可能在 hostd 日志文件中显示类似于以下内容的错误消息:

    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]:convert to UNKNOWN.
    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]:convert to UNKNOWN.
    2012-06-12T07:09:03.351Z [5E342B90 error 'NetworkProvider'] Unknown port type [0]:convert to UNKNOWN.

    取消设置端口类型时会出现此问题。这是正常行为。因此,可以忽略此消息。

    本版本已解决该问题。

  • ESXi 主机在 arpresolve 期间停止响应并显示紫色诊断屏幕
    ESXi 主机在 arpresolve 期间可能会停止响应,并显示紫色的诊断屏幕以及以下消息:

    2012-08-30T14:35:11.247Z cpu50:8242)@BlueScreen:#PF Exception 14 in world 8242:idle50 IP 0x4180280056ad addr 0x1
    2012-08-30T14:35:11.248Z cpu50:8242)Code start:0x418027800000 VMK uptime:7:14:19:29.193
    2012-08-30T14:35:11.249Z cpu50:8242)0x412240c87868:[0x4180280056ad]arpresolve@ # +0xd4 stack:0x412240c878a8
    2012-08-30T14:35:11.249Z cpu50:8242)0x412240c878e8:[0x418027ff69ba]ether_output@ # +0x8d stack:0x412240c87938
    2012-08-30T14:35:11.250Z cpu50:8242)0x412240c87a28:[0x4180280065ad]arpintr@ # +0xa9c stack:0x41003eacd000
    2012-08-30T14:35:11.251Z cpu50:8242)0x412240c87a68:[0x418027ff6f76]ether_demux@ # +0x1a1 stack:0x41003eacd000
    2012-08-30T14:35:11.252Z cpu50:8242)0x412240c87a98:[0x418027ff72c4]ether_input@ # +0x283 stack:0x412240c87b50
    2012-08-30T14:35:11.253Z cpu50:8242)0x412240c87b18:[0x418027fd338f]TcpipRx@ # +0x1de stack:0x2
    2012-08-30T14:35:11.254Z cpu50:8242)0x412240c87b98:[0x418027fd2d9b]TcpipDispatch@ # +0x1c6 stack:0x410008ce6000
    2012-08-30T14:35:11.255Z cpu50:8242)0x412240c87c48:[0x4180278ed76e]WorldletProcessQueue@vmkernel#nover+0x3c5 stack:0x0
    2012-08-30T14:35:11.255Z cpu50:8242)0x412240c87c88:[0x4180278edc79]WorldletBHHandler@vmkernel#nover+0x60 stack:0x2
    2012-08-30T14:35:11.256Z cpu50:8242)0x412240c87ce8:[0x41802781847c]BHCallHandlers@vmkernel#nover+0xbb stack:0x100410000000000
    2012-08-30T14:35:11.257Z cpu50:8242)0x412240c87d28:[0x41802781896b]BH_Check@vmkernel#nover+0xde stack:0x4a8a29522e753
    2012-08-30T14:35:11.258Z cpu50:8242)0x412240c87e58:[0x4180279efb41]CpuSchedIdleLoopInt@vmkernel#nover+0x84 stack:0x412240c87e98
    2012-08-30T14:35:11.259Z cpu50:8242)0x412240c87e68:[0x4180279f75f6]CpuSched_IdleLoop@vmkernel#nover+0x15 stack:0x62
    2012-08-30T14:35:11.260Z cpu50:8242)0x412240c87e98:[0x41802784631e]Init_SlaveIdle@vmkernel#nover+0x13d stack:0x0
    2012-08-30T14:35:11.261Z cpu50:8242)0x412240c87fe8:[0x418027b06479]SMPSlaveIdle@vmkernel#nover+0x310 stack:0x0
    2012-08-30T14:35:11.272Z cpu50:8242)base fs=0x0 gs=0x41804c800000 Kgs=0x0

    本版本已解决该问题。
  • 使用 VMXNET3 网络适配器的 Solaris 11 虚拟机可能会每 30 秒向 /var/adm/messages 写入消息
    使用 VMXNET3 网络适配器的 Solaris 11 虚拟机可能向 /var/adm/messages写入消息。系统日志中可能会显示类似以下内容的错误消息:
    vmxnet3s:[ID 654879 kern.notice] vmxnet3s:1:getcapab(0x200000) -> no
    该问题每隔 30 秒重复一次。
    本版本已解决该问题。
  • ESXi 主机可能会因为清理传输环期间出错而停止响应,并显示紫色诊断屏幕
    ESXi 主机可能会停止响应,并显示紫色诊断屏幕以及类似以下内容的消息:

    @BlueScreen:#PF Exception 14 in world 4891:vmm0:HQINTSQ IP 0x41800655ea98 addr 0xcc
    41:11:55:21.277 cpu15:4891)Code start:0x418006000000 VMK uptime:41:11:55:21.277
    41:11:55:21.278 cpu15:4891)0x417f818df948:[0x41800655ea98]e1000_clean_tx_irq@esx:nover+0x9f stack:0x4100b5610080
    41:11:55:21.278 cpu15:4891)0x417f818df998:[0x418006560b9a]e1000_poll@esx:nover+0x18d stack:0x417f818dfab4
    41:11:55:21.279 cpu15:4891)0x417f818dfa18:[0x41800645013a]napi_poll@esx:nover+0x10d stack:0x417fc68857b8
    41:11:55:21.280 cpu15:4891)0x417f818dfae8:[0x4180060d699b]WorldletBHHandler@vmkernel:nover+0x442 stack:0x417fc67bf7e0
    41:11:55:21.280 cpu15:4891)0x417f818dfb48:[0x4180060062d6]BHCallHandlers@vmkernel:nover+0xc5 stack:0x100410006c38000
    41:11:55:21.281 cpu15:4891)0x417f818dfb88:[0x4180060065d0]BH_Check@vmkernel:nover+0xcf stack:0x417f818dfc18
    41:11:55:21.281 cpu15:4891)0x417f818dfc98:[0x4180061cc7c5]CpuSchedIdleLoopInt@vmkernel:nover+0x6c stack:0x410004822dc0
    41:11:55:21.282 cpu15:4891)0x417f818dfe68:[0x4180061d180e]CpuSchedDispatch@vmkernel:nover+0x16e1 stack:0x0
    41:11:55:21.282 cpu15:4891)0x417f818dfed8:[0x4180061d225a]CpuSchedWait@vmkernel:nover+0x20d stack:0x410006108b98
    41:11:55:21.283 cpu15:4891)0x417f818dff28:[0x4180061d247a]CpuSched_VcpuHalt@vmkernel:nover+0x159 stack:0x4100a24416ac
    41:11:55:21.284 cpu15:4891)0x417f818dff98:[0x4180060b181f]VMMVMKCall_Call@vmkernel:nover+0x2ba stack:0x417f818dfff0
    41:11:55:21.284 cpu15:4891)0x417f818dffe8:[0x418006098d19]VMKVMMEnterVMKernel@vmkernel:nover+0x10c stack:0x0
    41:11:55:21.285 cpu15:4891)0xfffffffffc058698:[0xfffffffffc21d008]__vmk_versionInfo_str@esx:nover+0xf59cc9f7 stack:0x0
    41:11:55:21.297 cpu15:4891)FSbase:0x0 GSbase:0x418043c00000 kernelGSbase:0x0

    如果在清理传输环期间,CPU 被安排执行其他任务,而同时另一 CPU 负责清理传输环,则第一个 CPU 将错误地再次清理传输环,并最终导致逆向引用空的 SKB。这种情况下,会出现该错误。

    本版本已解决该问题。
  • 使用 VMXNET3 时 IPv6 虚拟机上的网络连接不起作用
    当一个 VMXNET3 接口上配置了超过 32 个 IPv6 地址时,与其中某些地址的单播和多播连接将丢失。

    本版本已解决该问题。
  • tg3 驱动程序更新至版本 3.123b.v50.1
    ESXi 5.1 Update 1 随附的 tg3 内置驱动程序版本为 3.123b.v50.1。
  • 主机配置文件可能无法在目标主机的 vSwitch 上应用 MTU 值
    在应用仅修改标准 vSwitch 的 MTU 值的主机配置文件时,新的 MTU 配置不会在新目标主机的 vSwitch 上应用。
    本版本已解决该问题。
  • 在对 vNetwork Distributed Switch 环境进行 vMotion 操作后,虚拟机可能会失去与外部环境的网络连接
    在对 vNetwork Distributed Switch 环境进行 vMotion 操作后,虚拟机可能会失去与外部环境的网络连接。
    当以下所有情况同时发生时,会出现此问题:
    • 虚拟机网络端口组已在 vNetwork Distributed Switch 上配置。
    • 虚拟机配置了 VMXNET2(增强型)或可变 (VMXNET) 网卡。
    • 虚拟机网络端口组的安全设置配置为 [拒绝 MAC 地址更改]

    本版本已解决该问题。

  • 使用 Broadcom bnx2x 异步驱动程序版本 1.61.15.v50.1 的 ESX/ESXi 主机可能失败,并显示紫色诊断屏幕
    当 bnx2x 异步驱动程序在 VMkernel 中将 TCP 分段卸载 (TSO) 的最大分段大小设置为零时,使用 Broadcom bnx2x 异步驱动程序版本 1.61.15.v50.1 的 ESX/ESXi 主机可能会失败,并显示紫色的诊断屏幕。

    本版本已解决该问题。

  • 如果设置了相同的速度和双工,则无法使用主机配置文件将物理网卡的设置由 [自动协商] 更改为 [固定]
    将针对物理网卡的速度和双工进行主机配置文件合规性检查。如果 ESXi 主机中的物理网卡的速度和双工与主机配置文件中的相匹配,则即使物理网卡设置为 [自动协商] 且主机配置文件设置为 [固定],ESXi 主机也将显示为合规。如果 ESXi 主机的速度和双工设置与主机配置文件的完全相同,则同样无法使用主机配置文件将物理网卡的设置由 [自动协商] 更改为 [固定]。

    本版本已解决该问题。
  • 启用了信标探测的 ESXi 5.1 主机在重新引导时可能失败,并显示紫色的屏幕
    如果重新引导启用了信标探测的 ESXi 5.1 主机,该主机可能失败,并显示紫色屏幕以及类似以下内容的错误消息:
    2012-09-12T13:32:10.964Z cpu6:4578)@BlueScreen:#PF Exception 14 in world 4578:helper34-0 IP 0x41803c0dbf43 addr 0x200 2012-09-12T13:32:10.964Z cpu6:4578)Code start:0x41803ba00000 VMK uptime:0:00:10:57.178 2012-09-12T13:32:10.965Z cpu6:4578)0x41220789ba70:[0x41803c0dbf43]NCPGetUplinkBeaconState@ # +0x1e stack:0x410003000000 2012-09-12T13:32:10.966Z cpu6:4578)0x41220789bf40:[0x41803c0dcc5d]NCPHealthChkTicketCB@ # +0x258 stack:0x0 2012-09-12T13:32:10.967Z cpu6:4578)0x41220789bf60:[0x41803c0a991d]NHCTicketEventCB@com.vmware.net.healthchk#1.0.0.0+0x3c stack:0x0 2012-09-12T13:32:10.968Z cpu6:4578)0x41220789bff0:[0x41803ba483df]helpFunc@vmkernel#nover+0x52e stack:0x0

    本版本已解决该问题。

  • Intel I350 千兆位网络适配器为 ESXi 主机生成的 MAC 地址错误
    在 ESXi 主机上,为嵌入式 Intel I350 千兆位网络适配器分配错误的或重复的 MAC 地址会导致包丢失的几率增高。

    本版本已解决该问题。

  • iSCSI LUN 在从 APD 状况恢复后不启动
    在从全部路径异常 (APD) 状况恢复后,iSCSI LUN 在主机重新引导之前不启动。此问题发生在针对 iSCSI 配置的 Broadcom iSCSI 启用卸载的适配器上。
     
    本版本已解决该问题。

安全

  • 对 libxml2 库的更新解决了多个安全问题
    ESXi userworld libxml2 库已经过更新,以解决多个安全问题。通用漏洞披露项目 (cve.mitre.org) 为这些问题指定的名称为 CVE-2011-3102CVE-2012-2807CVE-2012-5134

服务器配置

  • ESXi 主机停止响应并显示紫色诊断屏幕
    ESXi 主机因 IPMI 驱动程序中的无序锁定解除而停止响应,并显示紫色诊断屏幕。将显示类似于以下内容的错误消息并带有 ipmi_request_settime和 i_ipmi_request回溯追踪:

    无法确认 TLB 失效 (Failed to ack TLB invalidate)

    本版本已解决该问题。
  • ESXi 主机在同时为两个电平触发中断提供服务时可能会停止响应。
    当同一设备或驱动程序在 ESXi 主机的两个不同 CPU 中调用了电平触发中断、并且两个中断同时运行时,ESXi 主机将停止响应,并显示紫色诊断屏幕和类似以下任一内容的消息:
    • mpt2sas_base_get_smid_scsiio
    • 在 vmkdrivers/src_9/vmklinux_9/vmware/linux_scsi.c:2221 失败 -- 未能访问 (Failed at vmkdrivers/src_9/vmklinux_9/vmware/linux_scsi.c:2221 -- NOT REACHED)

    本版本已通过改进级别触发中断的中断处理机制解决了该问题。

  • vCenter Server 和 ESXi 主机显示的 Dell H310 系列卡的名称不正确
    Dell H310 系列 PCI 卡的 ID 未添加到 megaraid_sas 驱动程序。因此,vCenter Server 和 ESXi 主机显示的 Dell H310 系列卡的名称不正确。

    本版本已解决该问题。

  • 尝试应用主机配置文件时可能会失败,并显示错误消息提示无法删除 CIM 指示订阅
    CIM 指示订阅存储在存储库中,并在内存中留有一份副本。如果您在存储库与内存不同步时尝试应用主机配置文件,删除操作可能会失败。类似以下内容的错误消息将写入 var/log/syslog.log:
    Error deleting indication subscription.The requested object could not be found

    本版本中已解决该问题。
  • Red Hat Enterprise Linux 4.8(32 位)虚拟机在 ESXi 5.x 上显示的平均负载可能高于在 ESX 4.0 上显示的平均负载
  • 运行 RedHat Enterprise Linux 4.8(32 位)客户机的虚拟机在工作负载大部分时间为空闲、只是间歇性同时唤醒多个任务的情况下,在 ESX 5.x 上显示的平均负载可能比在 ESX 4.0 上显示的平均负载高。
    本版本已解决该问题。
  • [硬件状态] 选项卡可能会停止显示主机的健康状况
    在 ESXi 5.1 主机上,轻量级 CIM 代理守护进程 ( sfcbd) 可能会频繁失败并显示 CIM 错误。因此, [硬件状态] 选项卡可能停止显示主机健康状况,并且 syslog.log 中可能显示类似以下内容的错误消息:
    Timeout (or other socket error) sending request to provider.

    本版本已解决该问题。

存储器

  • 如果在分配过程中 SCSI 命令的数据方向未初始化,ESXi 主机可能发生故障并显示紫色诊断屏幕
    如果第三方模块创建了自定义小型计算机系统接口 (SCSI) 命令结构但未使用 VMKernel API,并且运行此 SCSI 命令结构,ESXi 主机可能会发生故障并显示紫色诊断屏幕。
    如果 SCSI 命令需要进行直接内存访问 (DMA) 传输,但 SCSI 命令结构中的数据方向未初始化,即会出现该问题。
    本版本已解决该问题。
  • 在设备发现过程中可能会记录与 ScsiDeviceIO 相关的错误消息
    在设备发现过程中,如果在某些情况下可选的 SCSI 命令失败,ESXi 5.1 主机可能会将失败的可选 SCSI 命令记录到日志。可能会在 vmkernel.log中写入类似以下内容的错误消息:
    2011-10-03T15:16:21.785Z cpu3:2051)ScsiDeviceIO:2316: Cmd(0x412400754280) 0x12, CmdSN 0x60b to dev "naa.600508e000000000f795beaae1d28903" failed H:0x0 D:0x2 P:0x0 Valid sense data:0x5 0x24 0x0.

    本版本已解决该问题。
  • 尝试在 Intel 82599EB 千兆位以太网控制器上启用流量控制失败
    尝试在 Intel 82599EB 千兆位以太网控制器上启用流量控制时,ixgbe 驱动程序会将流量控制模式错误地设置为基于优先级的流量控制,在这种模式下,流量控制始终处于禁用状态。因此,在尝试启用流量控制时,会显示错误消息 无法设置设备暂停参数: 参数无效 (Cannot set device pause parameters: Invalid argument)。

    本版本已解决该问题。
  • 尝试在空白磁盘或 GPT 分区磁盘上创建诊断分区可能会失败
    如果您试图在空白磁盘(没有分区表的磁盘)或末尾有可用空间的 GPT 分区磁盘上创建诊断分区,尝试使用 vSphere Client 创建诊断分区可能会失败。
    尝试在空白磁盘上创建诊断分区时,会显示类似以下内容的错误消息:
    不支持未知的分区格式 (Partition format unknown is not supported)
    尝试在末尾有可用空间的 GPT 分区磁盘上创建诊断分区时,会显示类似以下内容的错误消息:
    主机配置过程中出错 (error occurred during host configuration)。

    本版本已解决该问题。
  • 将一个或多个文件移至 VMFS 目录后,无法从该目录中删除文件
    将一个或多个文件移至目录后,尝试删除该目录或该目录中的任何文件都可能失败。在这种情况下, vmkernel.log文件将包含类似于以下内容的条目:
    2012-06-25T21:03:29.940Z cpu4:373534)WARNING:Fil3:13291: newLength 85120 but zla 2
    2012-06-25T21:03:29.940Z cpu4:373534)Fil3:7752: Corrupt file length 85120, on FD <281, 106>, not truncating

    本版本已解决该问题。

  • 从 disklib 运行 ioctl IOCTLCMD_VMFS_QUERY_RAW_DISK 时,ESXi 主机可能会显示紫色诊断屏幕
    当类 SCSI_CLASS_RAID(0xc)的一个伪 LUN(其 naa.id 与虚拟机中的物理原始设备映射 (pRDM) 所使用的 naa.id 相同)显示为新 LUN 并执行重新扫描时,ESXi 主机将停止响应并显示紫色诊断屏幕。

    本版本已解决该问题。
  • 无法确定发出 READ10/WRITE10 警告消息的虚拟机
    出现 READ10/WRITE 10 警告时,难以确定发出这些命令的虚拟机,这是因为日志仅显示 VSCSCI 句柄 ID。VMkernel 日志中的环境 ID 并不总是对应于发出命令的虚拟机。

    本版本通过改进 READ10/WRITE10 警告消息并使其同时打印虚拟机名称,解决了该问题。
  • 使用非默认起始扇区或在分区极小的逻辑单元号上创建 VMFS3 数据存储时,QueryVmfsDatastoreExpandOptions 和 QueryVmfsDatastoreExtendOptions 可能会失败
    ESXi 主机 (hostd) 错误地将 DatastoreSystem 受管对象方法调用传递给 QueryVmfsDatastoreExpandOptions和 QueryVmfsDatastoreExtendOptions。在以下数据存储上会出现该问题:
    • 创建时起始扇区大于 1MB 且小于公式(磁头数*扇区数*扇区大小)的结果值的 VMFS3 数据存储。
    • 在逻辑单元号上创建的、分区大小小于公式(磁头数*扇区数*扇区大小)的结果值的 VMFS3 数据存储。

    本版本已解决该问题。
  • ESXi 主机可能会因挂起的“写入时复制”(COW) 异步 IO 与 sparse 重做日志文件关闭之间的同步问题而发生故障
    ESXi 主机可能会发生故障并显示紫色诊断屏幕,同时报告 PF 执行错误,回溯追踪信息类似于:

    @BlueScreen:#PF Exception 14 in world 137633099:vmm0:TSTSPSR IP 0x41801e20b01f addr 0x0
    cpu4:137633099)Code start:0x41801dc00000 VMK uptime:464:10:04:03.850
    cpu4:137633099)0x417f86a5f6b8:[0x41801e20b01f]COWCopyWriteDone@esx:nover+0x122 stack:0x41027f520dc0
    cpu4:137633099)0x417f86a5f6e8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack:0x0
    cpu4:137633099)0x417f86a5f968:[0x41801e20b2c2]COWAsyncDataDone@esx:nover+0x125 stack:0x41027f5aebd8
    cpu4:137633099)0x417f86a5f998:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack:0x41027f556ec0
    cpu4:137633099)0x417f86a5f9c8:[0x41801dc085e9]AsyncCompleteOneIO@vmkernel:nover+0xac stack:0x41027fd9c540
    cpu4:137633099)0x417f86a5f9f8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack:0x41027f5ae440
    cpu4:137633099)0x417f86a5fa18:[0x41801de240b9]FS_IOAccessDone@vmkernel:nover+0x80 stack:0x41027f556858
    cpu4:137633099)0x417f86a5fa48:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack:0x41027f59a2c0
    cpu4:137633099)0x417f86a5fa78:[0x41801dc085e9]AsyncCompleteOneIO@vmkernel:nover+0xac stack:0x41027f480040
    cpu4:137633099)0x417f86a5faa8:[0x41801dc0838a]AsyncPopCallbackFrameInt@vmkernel:nover+0x81 stack:0x417f86a5fad8
    cpu4:137633099)0x417f86a5fad8:[0x41801de3fd1d]FDSAsyncTokenIODone@vmkernel:nover+0xdc stack:0x0
    cpu4:137633099)0x417f86a5fbd8:[0x41801de4faa9]SCSICompleteDeviceCommand@vmkernel:nover+0xdf0 stack:0x41027f480040

    本版本已解决该问题。
  • 访问 VMFS3 卷上损坏的元数据可能会导致 ESXi 主机发生故障
    如果 VMFS3 卷上的文件元数据已损坏,ESXi 主机在尝试访问此类文件时可能会发生故障,并显示紫色诊断屏幕。VMFS 文件损坏的情况极为少见,但是外部存储问题可能导致这种情况发生。

    本版本已解决该问题。
  • 向高可用性群集添加新 ESXi 主机并随后重新配置群集,可能会导致群集中任何其他主机发生故障并显示紫色诊断屏幕
    向高可用性 (HA) 群集添加新 ESXi 主机并随后重新配置该 HA 群集时,现有 HA 群集中的任何其他主机可能发生故障,并显示紫色诊断屏幕,以及类似以下内容的错误消息:

    0x4122264c7ce8:[0x41802a07e023]NFSLock_GetLease@<None>#<None>+0x2e 堆栈:0x410023ce8570 (0x4122264c7ce8:[0x41802a07e023]NFSLock_GetLease@<None>#<None>+0x2e stack: 0x410023ce8570)。

    重新引导出现故障的 ESXi 主机可能导致主机出现类似故障。
    当 HA 环境符合以下全部情形时,会发生该问题:
    • [网络文件系统] (NFS) 选项 LockRenewMaxFailureNumber 的值从 1 更改为 0(该值决定了必须经过多少次锁定更新失败才会将锁定标记为失效)。
    • NFS 选项 LockUpdateTimeout 的值从 1 更改为 0(该值决定了锁定更新请求中止前等待的时间)。
    • 有任何主机尝试获取 NFS 卷上的锁定。

    本版本已解决该问题。

  • ESXi 主机可能会因 VMkernel 中的争用情况所导致的空指针异常而发生故障并显示紫色诊断屏幕
    由于 VMkernel 中存在争用情况,空指针异常会导致 ESXi 主机发生故障并显示紫色诊断屏幕。
    在 ESXi 主机中对设备文件系统 (DevFS) 执行某些文件系统操作时,可能会发生这类争用情况。

    本版本已解决该问题。
  • 如果 VMFS 默认的 MaxHeapSizeMB 配置选项发生更改,则从 ESX/ESXi 4.x 或更低版本升级到 ESXi 5.0 或更高版本可能会失败
    ESX 主机从 ESX 4.x 或更低版本升级到 ESX 5.0 或更高版本后可能会无法响应,并显示以下错误:

    hostCtlException:无法加载模块 /usr/lib/vmware/vmkmod/vmfs3:失败 (Unable to load module /usr/lib/vmware/vmkmod/vmfs3: Failure)

    如果在升级之前在 ESX/ESXi 主机上手动设置了 VMFS 的 MaxHeapSizeMB配置选项,则可能出现此问题。

    本版本已解决该问题。

  • 如果静默快照操作失败,将不会整合重做日志
    在尝试创建虚拟机的静默快照时,如果快照操作在即将完成时失败,将不会整合作为快照的一部分创建的重做日志。重做日志可能会占用大量数据存储空间。

    本版本已解决该问题。现在,如果静默快照操作失败,会整合重做日志文件。

  • 当 vSphere Storage Appliance (VSA) 5.1 退出维护模式后,在 ESXi 5.1 中将无法访问驻留在 NFS 数据存储上的虚拟机
    当因超过 Misc.APDTimeout的值而断开 NFS 存储之后,hostd 代理向 vCenter 和 ESXi 主机报告的虚拟机状态有误。在已关闭电源的虚拟机上会出现该问题。

    本版本已解决该问题。

  • 更改块跟踪可能返回完全精简置备的磁盘
    在非常大的精简置备虚拟磁盘上,如果所需的 IOCTL 数量超出 IOCTL 的硬编码限制,则每次调用 QueryChangedDiskAreas时,都可能返回整个磁盘而不仅仅是精简置备磁盘中正在使用的区域。这会导致备份数据极大。此问题在 Linux ext2 和 ext3 文件系统上尤为明显。

    本版本已解决该问题。

  • ESXi 主机的 ata 驱动程序可能发生故障,并显示紫色诊断屏幕
    ata 驱动程序中存在的争用情况可能导致其失败,ESXi 主机可能出现故障并显示紫色的诊断屏幕,以及类似以下内容的堆栈跟踪:
    缺陷:vmkdrivers/src_9/drivers/ata/libata-core.c:5833/ata_hsm_move() 失败!(在 vmklinux 内)
    Panic_vPanic@vmkernel#nover+0x13 堆栈:0x3000000010, 0x412209a87e00
    vmk_PanicWithModuleID@vmkernel#nover+0x9d 堆栈:0x412209a87e20,0x4
    ata_hsm_move@com.vmware.libata#9.2.0.0+0xa0 堆栈:0x0, 0x410017c03e
    ata_pio_task@com.vmware.libata#9.2.0.0+0xa5 堆栈:0x0, 0x0, 0x53fec
    vmklnx_workqueue_callout@com.vmware.driverAPI#9.2+0x11a 堆栈:0x0,
    helpFunc@vmkernel#nover+0x568 堆栈:0x0, 0x0, 0x0, 0x0, 0x0 (BUG: failure at vmkdrivers/src_9/drivers/ata/libata-core.c:5833/ata_hsm_move()! (inside vmklinux) Panic_vPanic@vmkernel#nover+0x13 stack: 0x3000000010, 0x412209a87e00 vmk_PanicWithModuleID@vmkernel#nover+0x9d stack: 0x412209a87e20,0x4 ata_hsm_move@com.vmware.libata#9.2.0.0+0xa0 stack: 0x0, 0x410017c03e ata_pio_task@com.vmware.libata#9.2.0.0+0xa5 stack: 0x0, 0x0, 0x53fec vmklnx_workqueue_callout@com.vmware.driverAPI#9.2+0x11a stack: 0x0, helpFunc@vmkernel#nover+0x568 stack: 0x0, 0x0, 0x0, 0x0, 0x0)

    本版本已解决该问题。

支持的硬件

  • 如果从 DCUI 运行 vmware-vimdump 命令,ESXi 主机可能出现故障,并显示紫色诊断屏幕
    从直接控制台用户界面 (DCUI) 运行 vmware-vimdump命令时,ESXi 主机可能出现故障并显示紫色诊断屏幕。这还可能导致丢失检测信号消息。当通过 SSH 控制台进行连接来运行此命令时,不会出现该问题。

    本版本已解决该问题。

升级和安装

  • 使用 Update Manager 升级 ESXi 主机后,连接 Solaris 虚拟机的 RDM 可能被覆盖
    使用 Update Manager 升级到 ESXi 5.x 时,对磁盘分区类型的错误识别可能导致连接 Solaris 虚拟机的 RDM 被覆盖。这可能导致 RDM 上数据丢失。

    本版本已解决该问题。
  • 重新安装 ESXi 5.1 不会移除先前安装版本的本地 VMFS 中的 [数据存储] 标签
    使用现有本地 VMFS 卷重新安装 ESXi 5.1 将保留 [数据存储] 标签,即使用户选择 [覆盖数据存储] 选项来覆盖 VMFS 卷也是如此。

    本版本已解决该问题。
  • ESXi 5.x 脚本式安装显示错误的警告,提示 USB 或 SD 介质不支持 VMFS,尽管 kickstart 文件中已使用了 --novmfsondisk 参数
    使用脚本式安装方式在识别为 USB 或 SD 介质的磁盘上安装 ESXi 5.1 时,安装程序可能会显示以下警告消息:

    安装中指定的磁盘 (<disk-id>) 不支持 VMFS (The disk (<disk-id>) specified in install does not support VMFS)。

    即使在 kickstart 文件的 install 命令中指定了 --novmfsondisk参数,也会显示该消息。

    本版本已解决该问题。
  • 使用 AutoDeploy 时,iPXE 进程可能会超时
    使用 AutoDeploy 引导 ESXi 5.1 主机时,iPXE 进程可能会在尝试从 DHCP 服务器获取 IP 地址时发生超时,并且 AutoDeploy 引导进程会突然停止。

    本版本中已通过将总超时期限延长至 60 秒解决了该问题。
  • 尝试使用 vCenter Update Manager 升级 HA 群集中的 ESXi 主机可能会失败
    使用 vCenter Update Manager (VUM) 升级高可用性 (HA) 群集中的 ESXi 主机可能会失败,并显示类似以下内容的错误消息:
    主机返回了 esx 更新错误代码 7 (the host returned esx update error code 7)
    当在 Update Manager 中使用不同基准执行多个转储操作时,可能出现该问题。

    本版本已解决该问题。
  • 尝试从数据区位于本地数据存储的 ESX 4.1 升级到 ESXi 5.1 失败
    不支持从数据区位于本地数据存储的 ESX 4.1 升级到 ESXi 5.1。但是,当前升级过程允许此升级行为,并丢弃本地数据存储上的数据区,而不显示任何错误或警告消息。

    本版本在预检查脚本上添加一项检查来检测这种情况,并为用户显示一条终止升级或迁移的提示消息,从而解决了该问题。
  • 使用 Microsoft Windows 部署服务 (WDS) 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机可能会失败
    尝试使用 Microsoft Windows 部署服务 (WDS) 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机时可能会失败,并显示类似以下内容的消息:

    Windows 无法启动。可能的原因是,最近发生硬件或软件更改。要解决该问题,请执行以下步骤:
    1. 插入 Windows 安装光盘,然后重新启动计算机。
    2. 选择语言设置,然后单击 [下一步]。
    3. 单击 [修复计算机]。
    如果您没有光盘,请与系统管理员或计算机制造商联系以寻求帮助。

    状态:0xc0000001

    信息:由于无法访问所需设备,引导选择失败。(Windows failed to start. A recent hardware or software change might be the cause. To fix the problem: 1. insert you Windows installation disc and restart your computer. 2. Choose your language setting, and then click "Next." 3. Click "Repair your computer." If you do not have the disc, contact your system adminsitrator or computer manufacturer for assistance. Status: 0xc0000001 Info: The boot selection failed because a required device is inaccessible.)

    本版本已解决该问题。
  • 如果有任何 USB 驱动器的文件系统类型不是 fat16 或 fat32,从已连接的 USB 驱动器进行脚本式 ESXi 安装或升级可能会失败。
    当多个 USB 闪存驱动器连接到 ESXi 主机时,如果其中任何具有 MS-DOS 分区的 USB 驱动器的文件系统类型不是 fat16或 fat32,使用 ks=usb引导选项进行脚本式 ESXi 安装或升级可能会失败,并显示异常错误。

    本版本已解决该问题。
  • 进行 ESXi 升级后,ESXi 主机保留旧版本的 /etc/vmware/service/service.xml 文件
    当您修改设置了粘滞位的 etc/vmware/service/service.xml文件,然后将 ESX/ESXi 从 4.0 升级到 5.1 时,原有的 service.xml文件会导致出现兼容性问题。这是因为 ESXi 主机在升级后也仍保留原有的 service.xml文件。

    本版本已解决该问题。
  • 使用 IPv6 详细设置执行 ESXi 5.1 脚本式安装失败
    使用 ks.cfg中的 IPv6 详细设置执行 ESXi 5.1 的脚本式安装时,安装会在验证 IPv6 详细设置时失败。

    本版本已解决该问题。
  • Syslog.global.logDir 和 Syslog.global.logHost 的值在 ESXi 主机升级后无法持久保留
    将 ESXi 主机从版本 4.x 升级到 5.x 时, Syslog.global.logDir和 Syslog.global.logHost的值可能无法持久保留。

    本版本已解决该问题。
  • 在 ESXi 5.0 主机升级到 5.1 后不应运行第三方 VIB 测试
    当通过 Power Path 将 ESXi 5.0 升级到带有第三方 VIB 的 ESXi 5.1 时,ESXi 安装程序和 vSphere Update Manager 不应显示第三方 VIB 警告消息。

    本版本已解决该问题。
  • 在从 vSphere 5.0 升级到 vSphere 5.1 时,resxtop 失败
    在 vSphere 5.1 中,SSL 认证检查已设置为 [开启]。这可能会导致 resxtop 在连接到主机时失败,并显示类似以下内容的异常消息:
    HTTPS_CA_FILE 或 HTTPS_CA_DIR 未设置 (HTTPS_CA_FILE or HTTPS_CA_DIR not set)。

    本版本已解决该问题。

  • 如果未使用 MD5 加密设置 vpxuser 帐户的密码,则尝试从 ESX/ESXi 4.0 Update 4 升级到 ESXi Server 5.1 时可能显示错误消息
    使用 VMware Update Manager (VUM) 从 ESX/ESXi 4.0 Update 4 升级到 ESXi Server 5.1 时,可能显示类似以下内容的错误消息:

    用户 vpxuser 的密码未使用 MD5 加密进行设置。只有前 8 个字符有效。请在重新引导时重置密码 (Password for user vpxuser was not set with MD5 encryption. Only the first 8 characters will matter. Upon reboot, please reset the password.)。

    如果 vpxuser 帐户的密码未使用 MD5 加密进行设置,则会出现此问题。

    本版本已解决该问题。

vCenter Server、vSphere Client 和 vSphere Web Client

  • 连接到出现故障的虚拟机时,VMRC 和 vSphere Client 可能停止响应
    在 ESXi 5.1 主机上,VMware 远程控制台 (VMRC) 和 vSphere Client 在连接到发生故障的虚拟机或 VMware Tools 发生故障的虚拟机后可能会停止响应。

    本版本已解决该问题。

虚拟机管理

  • 无法使用模板文件部署虚拟机
    您可能无法使用模板文件部署虚拟机。当重新签名拥有模板文件的数据存储并且 .vmtx文件未更新时,会出现此问题。

    本版本中已通过将模板的 .vmtx虚拟机文件更新为重新签名的最新数据存储路径而解决了该问题。

  • 虚拟机打开电源的操作可能失败,并显示 VMFS 堆内存不足的警告消息
    如果虚拟机的虚拟磁盘数量超过 18 个,并且每个虚拟磁盘的容量都在 256GB 以上,则 ESXi 主机可能无法打开虚拟机的电源。vmkernel.log 日志中可能会记录类似以下内容的警告消息:
    WARNING:Heap:2525: Heap vmfs3 already at its maximum size.Cannot expand.WARNING:Heap:2900: Heap_Align(vmfs3, 2099200/2099200 bytes, 8 align) failed. caller:0x4180368c0b90

    本版本已解决该问题。
  • 从虚拟机删除独立磁盘后,无法创建静默快照
    如果从虚拟机删除了某个独立磁盘,由于给定 SCSI 节点的磁盘模式数据可能已过期,尝试创建虚拟机的静默快照可能会失败。
    可能会显示类似于以下内容的错误消息:
    状态:静默该虚拟机时出错。有关详细信息,请参见虚拟机的事件日志。(Status: An error occurred while quiescing the virtual machine. See the virtual machine's event log for details.)

    日志文件可能包含类似以下内容的条目:
    HotAdd:Adding scsi-hardDisk with mode 'independent-persistent' to scsi0:1

    ToolsBackup:changing quiesce state:STARTED -> DONE SnapshotVMXTakeSnapshotComplete done with snapshot 'back':0
    SnapshotVMXTakeSnapshotComplete:Snapshot 0 failed:无法静默虚拟机。(40).

    本版本已解决该问题。
  • 当 ESXi 主机被配置为 NTP 服务器时,与 ESXi 服务器同步时间可能会导致客户机操作系统意外重新引导
    当 ESXi 主机被配置为网络时间协议 (NTP) 服务器时,客户机操作系统可能会在与 ESXi 主机进行时间同步期间意外重新引导。在以下情况下会发生此问题:高可用性群集上的虚拟机监控敏感度级别设置为 [高],且 [das.iostatsInterval]选项设置为 [False]

    可以通过将 [das.iostatsInterval]选项设置为 [True] 解决此问题。
  • ESXi 主机在执行某些虚拟机操作时可能会失败
    执行某些虚拟机操作时,与 LUN 元数据损坏相关的问题有时可能会导致 ESXi 主机发生故障,并显示紫色屏幕和类似以下内容的错误消息:
    @BlueScreen:#DE Exception 0 in world 4277:helper23-15 @ 0x41801edccb6e 3:21:13:31.624 cpu7:4277)Code start:0x41801e600000 VMK uptime:3:21:13:31.624 3:21:13:31.625 cpu7:4277)0x417f805afed0:[0x41801edccb6e]Fil3_DirIoctl@esx:nover+0x389 stack:0x410007741f60 3:21:13:31.625 cpu7:4277)0x417f805aff10:[0x41801e820f99]FSS_Ioctl@vmkernel:nover+0x5c stack:0x2001cf530 3:21:13:31.625 cpu7:4277)0x417f805aff90:[0x41801e6dcf03]HostFileIoctlFn@vmkernel:nover+0xe2 stack:0x417f805afff0 3:21:13:31.625 cpu7:4277)0x417f805afff0:[0x41801e629a5a]helpFunc@vmkernel:nover+0x501 stack:0x0 3:21:13:31.626 cpu7:4277)0x417f805afff8:[0x0] stack:0x0

    本版本已解决该问题。现在,LUN 元数据损坏时将提示错误消息。

vMotion 和 Storage vMotion

  • 将 Windows Server 2008 虚拟机从 ESX/ESXi 4.0 实时迁移到 ESXi 5.1 并随后执行 Storage vMotion 时,静默快照会失败
    对于 Windows Server 2008 虚拟机,在 ESXi 5.1 上执行 Storage vMotion 操作时,默认会将 [disk.enableUUID]设置为 [True],从而启用应用程序静默。随后的静默快照操作会失败,直到重新启动虚拟机。

    本版本已解决该问题。

VMware Tools

  • VMware Tools 在创建虚拟机的静默快照时可能会失败
    如果 backupScripts.d文件夹中存在非可执行文件,VMware Tools 在创建虚拟机的静默快照时可能会失败。

    本版本已解决该问题。
  • 安装 VMware Tools 之后,客户机操作系统名称从 Microsoft Windows Server 2012(64 位)更改为 Microsoft Windows 8(64 位)
    创建 Microsoft Windows Server 2012(64 位)虚拟机并安装 VMware Tools 之后,客户机操作系统名称从 Microsoft Windows Server 2012(64 位)更改为 Microsoft Windows 8(64 位)。

    本版本已解决该问题。
  • VMware Tools OSP 软件包在其文件名中具有相同的分发标识符
    针对 SUSE Linux Enterprise Server 11、Red Hat Enterprise Linux 5 以及 Red Hat Enterprise Linux 6 客户机操作系统的 VMware Tools OSP 软件包没有可辨识的文件名。因此,难以使用 Red Hat Satellite 服务器部署 VMware Tools OSP 软件包。

    本版本已解决该问题。
  • VMware Tools 会安装早期版本的 Microsoft Visual C++ 运行时库
    即使存在版本 9.0.30729.6161,VMware Tools 也会安装 9.0.30729.4148版的 Microsoft Visual C++ 运行时库。

    本版本已解决该问题。现在,VMware Tools 将安装最新版本的 Microsoft Visual C++ 运行时库。如果系统中有更新版本的 Microsoft Visual C++ 运行时库,VMware Tools 将不安装 Microsoft Visual C++ 运行时库。
  • VMware Tools 在 Linux 客户机操作系统中可能会泄露内存
    如果在 Linux 客户机操作系统中为网络接口配置了多个 VLAN,VMware Tools 可能会泄露内存。

    本版本已解决该问题。
  • 安装 VMware Tools 后,/etc/fstab 的文件权限可能会发生更改
    在 SUSE Linux Enterprise Server 11 SP1 等虚拟机上安装 VMware Tools 后, /etc/fstab的文件权限属性可能会从 644 更改为 600。

    本版本已解决该问题。
  • Linux 虚拟机上的 VMware Tools 可能会发生间歇性失败
    VMware Tools 包括一个名为 libdnet的共享库文件。安装某些其他软件程序(例如,Dell OpenManage 软件)后,将在文件系统上创建另一个同名共享库。加载 VMware Tools 时,它会加载 Dell OpenManage 软件的 libdnet.so.1库,而不是 VMware Tools 的 libdnet.so库。因此,在 vSphere Client 的 [摘要] 选项卡中可能不会显示客户机操作系统信息,此外,可能也不会显示网卡信息。

    本版本已解决该问题。
  • 在 5.1 版之前的 ESX/ESXi 主机上,仅将 VMware Tools 升级到 5.1 版会导致提示警告消息
    在版本早于 5.1 且虚拟机运行 Windows 客户机操作系统的 ESX/ESXi 主机上,如果仅将 VMware Tools 升级到 5.1 版,Windows 事件查看器中可能会显示类似以下内容的警告消息:
    [ 警告] [vmusr:vmusr] vmware::tools::UnityPBRPCServer::Start:未能向主机注册!([ warning] [vmusr:vmusr] vmware::tools::UnityPBRPCServer::Start:Failed to register with the host!

    本版本已解决该问题。
  • 安装 View Agent 期间,重新引导时显示错误消息
    VMware Tools 在安装 View Agent 之后尝试重新引导时显示以下错误消息:

    VMWare Tools 遇到不可恢复的错误:(vthread-3) (VMWare Tools unrecoverable error: (vthread-3))

    本版本已解决该问题。
  • 使用 Linux 内核版本 3.7 时,尝试 安装 VMware Tools 可能会失败
    VMware Tools 安装脚本无法识别 Linux 内核版本 3.7 的新内核头路径,因此无法编译 VMware Tools 驱动程序。这可能会导致 VMware Tools 安装失败。

    本版本已解决该问题。
  • 从某些非英语版本的 Windows 客户机操作系统模板进行部署时,客户机操作系统的自定义可能会失败
    从某些非英语版本的 Windows 客户机操作系统模板(例如法语版 Microsoft Windows 7、俄语版 Microsoft Windows 7 和法语版 Microsoft Windows Server 2008 R2 客户机操作系统)进行部署时,客户机操作系统的自定义可能会失败。当 VMware Tools 服务 vmtoolsd.exe失败时,会出现该问题。

    本版本已解决该问题。

  • 在 Windows Vista 或更高版本等客户机操作系统上无法显示虚拟机处理器或虚拟机内存性能计数器的名称和说明
    在 Windows Vista 或更高版本等客户机操作系统上以管理用户身份配置远程性能日志时,Windows 性能监视器 ( perfmon) 控制台中可能不会显示虚拟机处理器和虚拟机内存计数器的名称和说明。
    如果 Windows 客户机操作系统的区域设置不是 [en_us]和 [de],则会发生该问题。VMware Tools 8.3.1.2 版会发生该问题。

    本版本已解决该问题。

  • 在 ESXi 5.1 主机上,预建模块 (PBM) 对 Ubuntu 12.10 32 位和 64 位操作系统不可用
    您可能在 ESXi 5.1 主机上找不到适用于 Ubuntu 12.10 32 位和 64 位操作系统的预建模块 (PBM)。

    本版本已解决该问题。

  • 将网络文件复制到 CIFS 共享或从中复制网络文件过程中,安装了 vShield Endpoint Thin Agent 的虚拟机可能会出现与性能有关的问题
    将网络文件复制到公用 Internet 文件系统 (CIFS) 共享或从中复制网络文件过程中,虚拟机可能会出现与性能有关的问题。
    使用运行 VMware Tools 捆绑包中提供的 vShield Endpoint Thin Agent 的虚拟机时将出现该问题。

    本版本已解决该问题。

  •   在具有 vShield Endpoint 和 VMware Tools 的 ESXi 5.1 主机上运行的 Windows 客户机操作系统可能会显示共享冲突错误
    如果某个环境具有与 VMware Tools 捆绑在一起的 vShield Endpoint 组件,则在 ESXi 5.1 主机上运行的 Windows 客户机操作系统可能会在访问网络文件时显示共享冲突错误。尝试打开网络文件时,可能会显示类似于以下内容的错误消息:

    打开文档时出错。此文件已打开或正由其他应用程序使用。(Error opening the document. This file is already open or is used by another application.)

    本版本已解决该问题。

已知问题

之前未记录的已知问题以 * 符号标记。已知问题分为如下类别。

安装和升级问题

  • 升级使用 Postgres 数据库配置的 vCenter Server Appliance 之后,清单对象可能会不可见*
    将使用 Postgres 数据库配置的 vCenter Server Appliance 从 5.0 Update 2 升级到 5.1 Update 1 时,升级之前存在的数据中心、vDS 等清单对象可能会不可见。使用 vSphere Web Client 连接到 vCenter Server Appliance 时将出现该问题。

    解决办法:升级 vCenter Server Appliance 后重新启动 Inventory Service。

  • 对于 Auto Deploy 有状态安装,如果系统已在 USB 上安装了 ESX/ESXi,将无法在这类系统上使用 ESX 的 firstdisk 参数
    您可以为要设置使用 Auto Deploy 进行有状态安装的主机配置主机配置文件。在配置过程中,选择 USB 作为磁盘,然后指定 esx 作为第一个参数。主机当前已在 USB 上安装 ESX/ESXi。Auto Deploy 在本地磁盘上安装 ESXi,而不是在 USB 上安装 ESXi。

    解决办法:无。

  • Auto Deploy PowerCLI cmdlet Copy-DeployRule 和 Set-DeployRule 需要对象作为输入内容
    您运行 Copy-DeployRule或 Set-DeployRulecmdlet 并传入映像配置文件或主机配置文件名称后,会出现错误。

    解决办法:传入映像配置文件或主机配置文件对象。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:从该磁盘中移除 ESX 软件,或选择其他磁盘用于无状态缓存。

  • 托管 Auto Deploy 服务器的计算机的 IP 地址更改后,vSphere Auto Deploy 不再运行
    您在 vCenter Server 之外的其他计算机上安装 Auto Deploy,并更改托管 Auto Deploy 服务器的计算机的 IP 地址。更改后,Auto Deploy 命令不再运行。

    解决办法:重新启动 Auto Deploy 服务器服务。
    net start vmware-autodeploy-waiter
    如果重新启动该服务未解决问题,您可能需要重新注册 Auto Deploy 服务器。运行以下命令,指定所有选项。
    autodeploy-register.exe -R -a vCenter-IP -p vCenter-Port -u user_name -w password -s setup-file-path

  • 在 HP DL980 G7 上,使用板载网卡时,ESXi 主机不通过 Auto Deploy 引导
    如果 HP DL980 G7 系统使用板载 (LOM Netxen) 网卡进行 PXE 引导,则您无法使用 Auto Deploy 引导该系统。

    解决办法:在该主机上安装经 HP 批准的附加网卡(例如 HP NC3 60T),然后使用该网卡进行 PXE 引导。

  • 使用 esxcli 的实时更新失败,并显示 Vib 下载失败 (VibDownloadError)
    用户依次执行以下两次更新。

    1. 使用 esxcli software profile update 或 esxclivib update 命令进行的实时安装更新。
    2. 需要重新引导的更新。

    第二个事务会失败。一个常见的故障是签名验证,只有在下载 VIB 后才能对其进行检查。

    解决办法:分两步解决问题。

    1. 重新引导 ESXi 主机以清理其状态。
    2. 再次执行实时安装。

  • 当计算机未连接任何网卡时,ESXi 脚本式安装在 CD-ROM 驱动器上找不到 kickstart (ks) 文件
    当 kickstart 文件位于未连接到任何网卡的系统中的 CD-ROM 驱动器上时,安装程序会显示错误消息: 在路径为 < path_to_ks_file> 的 CD-ROM 上找不到 kickstart 文件 (Can't find the kickstart file on cd-rom with path < path_to_ks_file>)。

    解决办法:重新连接网卡以建立网络连接,然后重新尝试安装。

  • SWFCoE LUN 上的脚本式安装失败
    ESXi 安装程序使用 kickstart (ks) 文件调用安装后,直到安装开始,所有 FCoE LUN 仍未经扫描和填充。这会导致任意 LUN 上的脚本式安装失败。使用 https、http 或 ftp 协议访问 kickstart 文件时会出现该故障。

    解决办法:在 kickstart 文件的 %pre部分中,包含两分钟的休眠:
    %pre --interpreter=busybox
    sleep 120

  • 如果您升级 vCenter Server 但不升级 Auto Deploy 服务器,会存在潜在问题
    升级 vCenter Server 后,vCenter Server 会在每台 ESXi 主机上用新代理替换 5.0 vSphere HA 代理 (vmware-fdm)。ESXi 主机每次重新引导时都会进行该替换。如果 vCenter Server 不可用,ESXi 主机则无法加入群集。

    解决办法:如果可能,请升级 Auto Deploy 服务器。
    如果无法升级 Auto Deploy 服务器,则可以使用 vSphere PowerCLI 中包含的 Image Builder PowerCLI cmdlet 来创建包含新 vmware-fdm VIB 的 ESXi 5.0 映像配置文件。可以将该映像配置文件提供给您的主机。

    1. 添加 ESXi 5.0 软件库,并添加包含新 vmware-fdm VIB 的软件库。
      Add-EsxSoftwareDepot C:\ Path\VMware-Esxi-5.0.0- buildnumber-depot.zip Add-EsxSoftwareDepot http:// vcenter server/vSphere-HA-depot
    2. 克隆现有映像配置文件,并添加 vmware-fdm VIB。
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0- buildnumber-standard" -name " Imagename" Add-EsxSoftwarePackage -ImageProfile " ImageName" -SoftwarePackage vmware-fdm
    3. 创建可将新映像配置文件分配给主机的新规则,并将该规则添加到规则集。
      New-DeployRule -Name " Rule Name" -Item " Image Name" -Pattern " my host pattern" Add-DeployRule -DeployRule " Rule Name"
    4. 为主机执行测试并修复合规性操作。
      Test-DeployRuleSetCompliance Host_list

  • 如果已打开无状态缓存,并且 Auto Deploy 服务器不可用,则主机可能无法使用存储的映像进行自动引导
    在某些情况下,如果 Auto Deploy 服务器不可用,为配合使用无状态缓存与 Auto Deploy 而设置的主机不会从包含存储的映像的磁盘自动引导。即使在逻辑引导顺序中,您需要的引导设备位于下一个,仍可能发生这种情况。发生的准确情况取决于服务器供应商 BIOS 设置。

    解决办法:手动选择包含缓存映像的磁盘作为引导设备。

  • 通过 ESXCLI 从 ESXi 5.0 主机升级到 ESXi 5.1 的过程中,vMotion 和 Fault Tolerance (FT) 日志记录设置会丢失
    在 ESXi 5.0 主机上,要为端口组启用 vMotion 和 FT。通过运行 esxcli software profile update 命令升级主机。作为成功升级的一部分,vMotion 设置和 Fault Tolerance 的日志记录设置将返回到默认设置,即返回到已禁用。

    解决办法:使用 vSphere Upgrade Manager 升级主机,或手动将 vMotion 和 Fault Tolerance 返回到升级前的设置。

网络连接问题
  • 当通过 Auto Deploy 置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应
    当通过 Auto Deploy 在使用最新开源 gPXE 的 Emulex 10GbE NC553i FlexFabric 双端口上置备 ESXi 5.1 或 5.0 U1 时,在 TFTP/HTTP 传输期间,系统停止响应。

    Emulex 10GbE PCI-E 控制器属于内存映射的控制器。在 PXE TFTP/HTTP 传输期间,在此控制器上运行的 PXE/UNDI 堆栈必须从真实模式切换为大真实模式,为超过 1 MB 的特定于设备的寄存器设定程序,以通过网络发送和接收数据包。在此过程中,无意中启用了 CPU 中断,当在 CPU 模式切换期间生成其他设备中断时,导致系统停止响应。

    解决办法:将网卡固件升级到版本 4.1.450.7 或更高版本。

  • 在重新引导主机之前,对标准虚拟交换机上的端口数所做的更改不会生效
    对标准虚拟交换机上的端口数进行更改后,在重新引导主机之前更改不会生效。这一点与分布式虚拟交换机的行为不同,在分布式虚拟交换机中对端口数的更改会立即生效。

    对标准虚拟交换机上的端口数进行更改时,请确保主机上的总端口数(包括标准交换机和分布式交换机)不超过 4096。

    解决办法:无。

  • 物理网卡的管理状态未正确地报告为关闭
    以管理方式将物理网卡状态设置为关闭不符合 IEEE 标准。如果通过虚拟交换机命令将物理网卡设置为关闭,会造成两个已知问题:

    • ESXi 会经历无法应对的流量增加,这将浪费位于 ESXi 前面的物理交换机中的网络资源和 ESXi 自身的资源。

    • 网卡的行为方式异常。操作员预期看到网卡电源已关闭,但网卡显示仍处于活动状态。

    VMware 建议使用 ESXCLI 网络关闭 -n vmnicN 命令,具有以下局限:
    • 此命令仅关闭驱动程序,而不关闭网卡电源。从位于 ESXi 系统前面的物理交换机的管理界面查看 ESXi 物理网络适配器时,标准交换机上行链路仍显示处于活动状态。

    • 网卡的管理状态在 ESXCLI 或 UI 中不可见。您必须记住在调试时通过检查 /etc/vmware/esx.conf 来核对状态。

    • SNMP 代理将报告管理状态,但如果在操作状态本来为关闭时将网卡设置为关闭,则该代理将错误地报告管理状态。如果在操作状态为活动时将网卡设置为关闭,则该代理会正确地报告管理状态。

    解决办法:将位于 ESXi 系统前面的物理交换机的管理状态更改为关闭,而不要使用虚拟交换机命令。

  • Linux 驱动程序支持变更
    VMXNET2 或 VMXNET(可变)虚拟网卡的设备驱动程序不适用于运行 Linux 内核 3.3 版及更高版本的虚拟机。

    解决办法:为运行 Linux 内核 3.3 版及更高版本的虚拟机使用 VMXNET3 或 e1000 虚拟网卡。

  • vSphere 5.0 Network I/O Control 带宽分配在多个上行链路之间分配不公平
    在 vSphere 5.0 中,如果在使用 Network I/O Control 的情况下为资源池设置网络带宽限制,则此限制会在主机级别的一组上行链路中实施。此带宽上限由令牌分布算法实施,该算法并未设计为在多个上行链路之间公平分配带宽。

    解决办法:vSphere 5.1 Network I/O Control 限制已缩小至基于每个上行链路。

  • [镜像数据包长度] 设置可能导致远程镜像源会话无法运行
    在配置已设置 [镜像数据包长度] 选项的远程镜像源会话时,目标无法收到部分镜像数据包。但如果您禁用该选项,即可再次收到这些数据包。
    如果已设置 [镜像数据包长度] 选项,超过指定长度的数据包会被截断,并且数据包会被丢弃。较低的层代码将不会为丢弃的数据包执行碎片和重新计算校验和。两种情况可能导致数据包被丢弃:

    • [镜像数据包长度] 大于最大传输单元 (MTU)
      如果您的环境中已启用 TSO,原始数据包可能很大。被 [镜像数据包长度] 截断后,它们仍大于 MTU,因此会被物理网卡丢弃。

    • 中间交换机执行 L3 检查
      部分截断的数据包的数据包长度和校验和可能是错误的。部分高级物理交换机会检查 L3 信息并丢弃无效数据包。目标不会收到这些数据包。

    • 解决办法

        • 如果已启用 TCP 分段卸载 (TSO),请禁用 [镜像数据包长度] 选项。

        • 您可以在部分交换机(例如 Cisco 的 4500 系列交换机)上启用或禁用 L3 检查。如果这些交换机正在使用中,请禁用 L3 检查。对于无法配置的交换机,请禁用 [镜像数据包长度] 选项。

       

      • 启用的 VMkernel 网络适配器超过 16 个会导致 vMotion 失败
        vSphere 5.x 具有一项限制,即为每个主机的 vMotion 启用的 VMkernel 网络适配器不得超过 16 个。如果为给定主机上的 vMotion 启用的 VMkernel 网络适配器超过 16 个,则该主机上的 vMotion 迁入或迁出可能会失败。ESXi 上 VMkernel 日志中的错误消息显示为 Refusing request to initialize 17 stream ip entries,其中的数字指示为 vMotion 启用的 VMkernel 网络适配器的数目。

        解决办法:禁用 vMotion VMkernel 网络适配器,直到总共只为 vMotion 启用 16 个。

      • 在 VLAN 环境中使用 nx_nic 驱动程序时,vSphere 网络核心转储不起作用
        在属于 VLAN 的主机上配置网络核心转储时,如果网卡使用 QLogic 智能以太网适配器驱动程序 (nx_nic),则网络核心转储会失败。如果上行链路适配器使用 nx_nic,收到的网络核心转储数据包无法使用正确的 VLAN 标记进行标记。

        解决办法:在 VLAN 中配置网络核心转储时,请使用采用其他驱动程序的另一个上行链路适配器。

      • 如果脚本式安装的 kickstart 文件调用已在使用的网卡,安装会失败
        如果您在安装后使用 kickstart 文件设置管理网络,并且您从 kickstart 文件调用已在使用的网卡,您会看到以下错误消息: 操作返回的状态的 Sysinfo 错误: 忙碌。有关详细错误信息,请参见 VMkernel 日志 (Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information)。

        当您在一个包含以下两个网卡的系统上启动脚本式安装时,会遇到该错误:一个配置用于 SWFCoE/SWiSCSI 的网卡,和一个配置用于网络连接的网卡。如果您通过在引导选项中提供 netdevice=<nic>BOOTIF=<MAC of the NIC> 来使用网络网卡启动脚本式安装,kickstart 文件会使用网络线路中的其他网卡 netdevice=<nic configured for SWFCoE / SWiSCSI> 来配置管理网络。

        安装(对磁盘进行分区)成功,但安装程序在尝试使用 kickstart 文件提供的网络参数为主机配置管理网络时会失败,因为 SWFCoE/SWiSCSI 已在使用该网卡。

        解决办法:在安装后使用 kickstart 文件中的可用网卡设置管理网络。

      • 当运行 ESX 的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃
        当运行 ESX 作为客户机的虚拟机还使用 VMXNET3 作为 pNIC 时,虚拟机可能会崩溃,因为对于 VMXNET3 的支持处于实验阶段。ESX 虚拟机的默认网卡是 e1000,因此仅当您替代默认值并选择 VMXNET3 时,才会遇到该问题。

        解决办法:使用 e1000 或 e1000e 作为 ESX 虚拟机的 pNIC。

      • 当大量 dvPort 处于使用中时,显示错误消息
        当您在大量 dvPort 处于使用中的主机上打开具有 dvPort 的虚拟机电源时,将显示 内存不足 (Out of memory)或 资源不足 (Out of resources)错误消息。当您使用 esxcli 命令列出主机上的交换机时,也会显示此错误消息。

        解决办法:增加 dvsLargeHeap 大小。

        1. 更改主机的高级配置选项:
          • esxcli 命令: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
          • vCenter:浏览到 [主机配置] -> [软件] 面板 -> [高级设置] -> 在 [净值] 下,将 DVSLargeHeapMaxSize 值从 80 更改为 100。
          • vSphere 5.1 Web Client:浏览到 [管理主机] -> [设置] -> [高级系统设置] -> [过滤器]。将 DVSLargeHeapMaxSize 值从 80 更改为 100。
        2. 从主机捕获主机配置文件。将配置文件与主机相关联并更新应答文件。
        3. 重新引导主机,确认已应用该值。

        注意:/Net/DVSLargeHeapMaxSize 的最大值为 128。

        在大型部署期间,如果在将 /Net/DVSLargeHeapMaxSize 更改为 128 后,您遇到问题并且日志显示以下任一错误消息,请联系 VMware 支持:

        Unable to Add Port; Status(bad0006)= Limit exceeded

        Failed to get DVS state from vmkernel Status (bad0014)= Out of memory

      • 使用 Emulex BladeEngine-3 10G 网卡(be2net 驱动程序)时,ESXi 发生故障
        当使用 VMware vCloud Director 配置 vCDNI 支持的网络池时,ESXi 在具有 Emulex BladeEngine-3 10G 网卡的系统上可能会发生故障。当使用该设备配置网络池时,您必须从 Emulex 获得经过更新的设备驱动程序。

        解决办法:无。

      存储问题

      • RDM LUN 与从 VMFS 数据存储迁移到 NFS 数据存储的虚拟机分离
        如果您使用 vSphere Web Client 将具有 RDM LUN 的虚拟机从 VMFS 数据存储迁移到 NFS 数据存储,迁移操作完成且不提示任何错误或警告消息,但 RDM LUN 在迁移后与虚拟机分离。但是,迁移操作将创建一个与 NFS 数据存储上的 RDM LUN 具有相同大小的 vmdk 文件,以替换 RDM LUN。
        如果您使用 vSphere Client,迁移向导的兼容性部分中将显示一条相应的错误消息。

        解决办法:无
      • 您使用 EMC Symmetrix VMAX/VMAXe 存储阵列时,VMFS5 数据存储创建可能失败
        如果您的 ESXi 主机连接到 VMAX/VMAXe 阵列,则可能无法在从该阵列提供的 LUN 上创建 VMFS5 数据存储。如果是这种情况,则将显示以下错误: 主机配置过程中出错 (An error occurred during host configuration)。造成该错误的原因是 Symmetrix Enginuity Microcode (VMAX 5875.x) 的 ATS (VAAI) 部分阻止之前未写入的 LUN 上的新数据存储。

        解决办法

        1. 在 ESXi 主机上禁用硬件加速锁定。
        2. 创建 VMFS5 数据存储。
        3. 在主机上重新启用硬件加速锁定。

        使用以下任务禁用和重新启用硬件加速锁定参数。

        在 vSphere Web Client 中

        1. 在 vSphere Web Client 导航器中,浏览到主机。
        2. 依次单击 管理选项卡和 设置
        3. 在“系统”下,单击 高级系统设置
        4. 选择 [VMFS3.HardwareAcceleratedLocking],然后单击 [编辑] 图标。
        5. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
          • 0 已禁用
          • 1 已启用

        在 vSphere Client 中

        1. 在 vSphere Client 清单面板中,选择主机。
        2. 单击 [配置] 选项卡,然后单击 [软件] 下的 [高级设置]
        3. 更改 VMFS3.HardwareAcceleratedLocking 参数的值:
          • 0 已禁用
          • 1 已启用

      • 使用 Storagesystem::updateDiskPartitions()时,尝试在空磁盘上创建 GPT 分区
        您可以使用 Storagesystem::computeDiskPartitionInfoAPI 检索磁盘规范,然后使用该磁盘规范标记磁盘并通过 Storagesystem::updateDiskPartitions()创建分区。但是,如果磁盘最初为空,并且目标磁盘格式为 GPT,您尝试创建分区时可能失败。

        解决办法:改为使用 DatastoreSystem::createVmfsDatastore标记空磁盘并对其进行分区,并创建 VMFS5 数据存储。

      • 尝试在 GPT 磁盘上创建诊断分区可能失败
        如果 GPT 磁盘没有任何分区或磁盘的尾随分区为空,您可能无法在该磁盘上创建诊断分区。

        解决办法:避免将 GPT 格式化的磁盘用于诊断分区。如果您必须将现有空 GPT 磁盘用于诊断分区,请将该磁盘转换为 MBR 格式。

        1. 在该磁盘上创建 VMFS3 数据存储。
        2. 移除数据存储。

        磁盘格式将从 GPT 更改为 MBR。

      • ESXi 无法从大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE LUN 中引导
        您在大于 2 TB 并且通过 Intel FCoE 网卡访问的 FCoE 引导 LUN 上安装 ESXi 时,安装可能成功。但当您尝试引导 ESXi 主机时,引导将失败。您会看到以下错误消息: 错误:没有适合此磁盘容量的几何形状 (ERROR: No suitable geometry for this disk capacity)和 错误: 无法连接到配置的任何磁盘 (ERROR: Failed to connect to any configured disk)(在 BIOS 时)。

        解决办法:如果大于 2 TB 的 FCoE LUN 连接到配置用于 FCoE 引导的 Intel FCoE 网卡,请勿在该 FCoE LUN 上安装 ESXi。在小于 2 TB 的 FCoE LUN 上安装 ESXi。

      服务器配置问题
      • 通过控制台访问 VMFS 文件夹时,应用主机配置文件可能失败
        如果用户通过控制台访问 VMFS 数据存储文件夹,同时为主机应用主机配置文件,则修复或应用任务可能失败。在主机配置文件上启用无状态缓存时,或进行 Auto Deploy 安装时,会出现此故障。

        解决办法:修复主机配置文件时,请勿通过控制台访问 VMFS 数据存储。

      • 登录横幅中开头的空格会导致主机配置文件合规性故障
        如果您编辑主机配置文件并更改 [登录横幅 (今日消息)] 选项的文本,但在横幅文本的开头添加了空格,则应用该配置文件时会出现合规性错误。此时会显示合规性错误 登录横幅已修改 (Login banner has been modified)。

        解决办法:编辑主机配置文件并从 [登录横幅] 策略选项中移除开头的空格。

      • 从 ESXi 5.0 主机中提取的主机配置文件无法应用到启用了 Active Directory 的 ESX 5.1 主机
        将最初从 ESXi 5.0 主机提取并启用了 Active Directory 的主机配置文件应用到 ESX 5.1 主机时,应用任务将失败。为 likewise 系统资源池设置内存最大值可能导致出现错误。启用 Active Directory 后,likewise 系统资源池中的服务占用的内存量会超过在 ESXi 5.0 主机配置文件中捕获的 ESXi 5.0 的默认内存大小上限。因此,在尝试将内存大小上限设置为 ESXi 5.0 级别的过程中,应用 ESXi 5.0 主机配置文件会失败。

        解决办法:执行以下操作之一:

        • 手动编辑该主机配置文件,以提高 likewise 组的内存大小上限。
          1. 从主机配置文件编辑器导航到 [资源池] 文件夹,然后查看 host/vim/vmvisor/plugins/likewise
          2. [内存最大值 (MB)] 设置从 20(ESXi 5.0 默认值)修改为 25(ESXi 5.1 默认值)。
        • 为 likewise 组禁用子配置文件。执行以下操作之一:
          • 在 vSphere Web Client 中,编辑主机配置文件并取消选中 [资源池] 文件夹的复选框。此操作会禁用所有资源池管理。您可以专为 [资源池] 文件夹下的 host/vim/vmvisor/plugins/likewise 项目禁用此项。
          • 在 vSphere Client 中,右键单击主机配置文件并从菜单中选择 [启用/禁用配置文件配置...]

      • ESXi 5.0.x 主机配置文件重新应用到有状态 ESXi 5.1 主机后,主机网关会被删除并出现合规性故障
        ESXi 5.0.x 主机配置文件应用于全新安装的 ESXi 5.1 主机后,主机合规性状态为不合规。再次应用同一配置文件后,它会删除主机的网关 IP,并且合规性状态会继续显示为不合规,并显示 IP 路由配置不符合规范 (IP route configuration doesn't match the specification)状态消息。

        解决办法:执行以下解决办法之一:

        • 通过 DCUI 登录主机,并使用以下 esxcli命令手动添加默认网关:
          esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
        • 应用一次 ESX 5.0 主机配置文件后,从 ESX 5.1 主机提取一个新主机配置文件。将 ESX 5.1 主机迁移到基于 ESX 5.1 的新主机配置文件。

      • 在 USB 磁盘上启用无状态缓存后,可能出现合规性错误
        在主机配置文件上启用到 USB 磁盘的无状态缓存时,在修复后可能出现合规性错误。重新引导主机以便应用修复的更改后,无状态缓存会成功,但合规性故障仍存在。

        解决办法:没有解决办法。

      • 在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时
        在启用无状态缓存的情况下应用主机配置文件时,具有大量数据存储的主机会超时。

        解决办法:使用 vSphere Client 增加超时值:

        1. 选择 [系统管理] > [vCenter Server 设置]
        2. 选择 [超时设置]
        3. 将 [正常操作] 和 [长时间操作] 的值更改为 3600 秒。

        1. 在 vmknic 上禁用 IPv4 后,无法从主机提取主机配置文件
          如果您移除所有 vmknic 中的所有 IPv4 地址,则无法从该主机提取主机配置文件。此操作对使用 Auto Deploy 置备的主机影响最大,因为主机配置文件是在此环境中保存主机配置的唯一方法。

          解决办法:为一个 IPv4 地址至少分配一个 vmknic。

        2. 在 ESXi 5.1 主机上应用从 ESXi 4.1 主机提取的主机配置文件时,应用主机配置文件会失败
          如果您通过 ESXi 4.1 设置主机,从此主机提取主机配置文件(通过 vCenter Server)并尝试将配置文件附加到 ESXi 5.1 主机,则当您尝试应用该配置文件时,操作会失败。您可能收到以下错误消息: NTP 服务已关闭 (NTP service turned off)。

          即使在 ESXi 4.1 的 /etc/ntp.conf中未提供 NTP 服务器,NTPD 服务仍可能正在运行(打开状态)。ESXi 5.1 需要明确的 NTP 服务器,该服务才能运行。

          解决办法:通过在 /etc/ntp.conf中添加有效的 NTP 服务器来打开 NTP 服务,在 5.1 主机上重新启动 NTP 守护进程。确认该服务在重新引导后仍保留。此操作可确保为主机和将应用于该主机的配置文件同步 NTP 服务。

        3. 成功应用配置文件后,主机配置文件显示不合规
          从 ESXi 5.0 主机提取主机配置文件并将其应用于包含本地 SAS 设备的 ESXi 5.1 主机时,会出现此问题。即使主机配置文件修复成功,主机配置文件合规性仍显示为不合规。

          您可能收到类似以下内容的错误消息:

          • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 路径选择策略设置为 VMW_PSP_FIXED (Specification state absent from host: device naa.500000e014ab4f70 Path Selection Policy needs to be set to VMW_PSP_FIXED)
          • 主机不存在规范状况: 需要将设备 naa.500000e014ab4f70 参数设置为: 状态 =“打开”,队列完整示例大小 =“0”,队列完整阈值 =“0”(Specification state absent from host: device naa.500000e014ab4f70 parameters needs to be set to State = on" Queue Full Sample Size = "0" Queue Full Threshold = "0")

          ESXi 5.1 主机配置文件存储插件会为 PSA 和 NMP 设备配置筛选出本地 SAS 设备,而 ESXi 5.0 包含此类设备配置。这会造成在将旧版本主机配置文件应用于新版本主机时缺少设备。

          解决办法:手动编辑主机配置文件,并为所有本地 SAS 设备移除 PSA 和 NMP 设备配置条目。您可以通过输入以下 esxcli 命令来确定设备是否为本地 SAS:
          esxcli storage core device list

          如果返回以下行,则该设备为本地 SAS:
          Is Local SAS Device

        4. 默认系统服务始终在使用 Auto Deploy 置备的 ESXi 主机上启动
          对于使用 Auto Deploy 置备的 ESXi 主机,关联的主机配置文件的 [服务配置] 部分中的服务启动策略不会被完全接受。特别是,如果 ESXi 上默认打开的某一项服务的启动策略值为 off,则在引导时,该服务仍会在使用 Auto Deploy 置备的 ESXi 主机上启动。

          解决办法:引导 ESXi 主机后,手动停止该服务。

        5. snmpd 重新启动后,无法从 VMWARE-VMINFO-MIB 正确地检索信息
          您从 ESXi Shell 使用 /etc/init.d/snmpd restart重新启动 snmpd 守护进程后,VMWARE-VMINFO-MIB 中的部分信息可能在 SNMPWalk 期间丢失。

          解决办法:请勿使用 /etc/init.d/snmpd restart。必须使用 esxcli system snmp set --enable命令启动或停止 SNMP 守护进程。如果使用了 /etc/init.d/snmpd restart从 ESXi Shell 重新启动 snmpd,从 DCUI 或从 ESXi Shell 使用 /etc/init.d/hostd restart重新启动 Hostd。

        vCenter Server 和 vSphere Client 问题
        • 启用或禁用 View Storage Accelerator 可能使 ESXi 主机丢失与 vCenter Server 的连接
          如果使用 vSphere 5.1 部署 VMware View,且 View 管理员启用或禁用桌面池中的 View Storage Accelerator,则 ESXi 5.1 主机可能会丢失与 vCenter Server 5.1 的连接。

          View Storage Accelerator 功能也称为基于内容的读缓存。在 View 5.1 View Administrator 控制台,此功能被称为主机缓存。

          解决办法:请勿在部署 vSphere 5.1 的 View 环境中启用或禁用 View Storage Accelerator。

        虚拟机管理问题
        • 从 ESX 3.x 和更高版本(VM 版本 4)升级虚拟机兼容性错误地将 Windows 虚拟机可变适配器配置为 Windows 系统默认驱动程序
          如果您的 Windows 客户机操作系统具有配置为 VMware Accelerated AMD PCnet 适配器驱动程序的可变网络适配器,则当您将虚拟机兼容性从 ESX 3.x 和更高版本(VM 版本 4)升级到诸如 ESXi 4.x 和更高版本(VM 版本 7)等任何更高兼容性设置时,Windows 会将该可变适配器配置为 Windows AMD PCNET Family PCI 以太网适配器默认驱动程序。
          发生此错误配置的原因在于 VMware Tools 驱动程序未签名,而 Windows 获取了已签名的默认 Windows 驱动程序。在兼容性升级之前存在的可变适配器网络设置会丢失,并且网卡的网络速度将从 1Gbps 变为 10Mbps。

          解决办法:升级虚拟机的兼容性后,将可变网络适配器配置为使用来自 Windows 客户机操作系统的 VMXNET 驱动程序。如果您的客户机是使用 ESXi5.1 VMware Tools 更新的,VMXNET 驱动程序将安装在以下位置:C:\Program Files\Common Files\VMware\Drivers\vmxnet\。

        • 您在虚拟机上安装 VMware Tools 并重新引导后,网络将不可用
          在使用 CentOS 6.3 操作系统或 Oracle Linux 6.3 操作系统的虚拟机上,成功安装 VMware Tools 并重新引导虚拟机后,网络将不可用。您尝试从 DHCP 服务器手动获取 IP 地址或从命令行设置静态 IP 地址时,会显示错误 无法分配内存 (Cannot allocate memory)。
          问题在于默认使用的可变网络适配器不是适用于这些操作系统的明智选择。

          解决办法:将网络适配器从可变网络适配器更改为 E1000 或 VMXNET 3,如下所示:

          1. 运行 vmware-uninstall-tools.pl命令以卸载 VMware Tools。
          2. 关闭虚拟机电源。
          3. 在 vSphere Web Client 中,右键单击虚拟机,然后选择 [编辑设置]
          4. 单击 [虚拟硬件],然后单击 [移除] 图标将当前网络适配器移除。
          5. 添加新网络适配器,并选择适配器类型 E1000 或 VMXNET 3。
          6. 打开虚拟机电源。
          7. 重新安装 VMware Tools。

        • ESXi 上涉及非 VMFS 虚拟磁盘的克隆或迁移操作会失败,并显示错误消息
          无论您使用 vmkfstools 命令还是客户端来对托管格式的虚拟磁盘执行克隆、复制或迁移操作,操作都会失败,并显示以下错误消息: 系统找不到指定的文件 (The system cannot find the file specified)。

          解决办法:要对托管格式的虚拟磁盘执行克隆、复制或迁移操作,您需要将 VMkernel 多数据区模块加载到 ESXi 中。

          1. 登录 ESXi Shell 并加载多数据区模块。
            # vmkload_mod multiextent
          2. 检查您的虚拟机磁盘中是否有些属于托管类型。托管磁盘以 -s00x.vmdk扩展名结尾。
          3. 将托管格式的虚拟磁盘转换成某一种 VMFS 格式。
            1. 将源托管磁盘 test1.vmdk 克隆到 test2.vmdk。
              # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
            2. 成功克隆后删除托管磁盘 test1.vmdk。
              # vmkfstools -U test1.vmdk
            3. 将克隆的 vmfs 类型磁盘 test2.vmdk 重命名为 test1.vmdk。
              # vmkfstools -E test2.vmdk test1.vmdk
          4. 卸载该多数据区模块。
            #vmkload_mod -u multiextent

        • 虚拟机没有分配的 IP 地址,并且可能无法运行
          该问题是由于从客户机操作系统启动 LUN 重置请求引起的。该问题特定于在 ESXi 主机中配置有软件 FCoE 的 IBM XIV 光纤通道阵列。驻留在 LUN 上的虚拟机显示以下问题:

          • 未分配给虚拟机 IP 地址。
          • 无法打开或关闭虚拟机电源。
          • 在控制台中未显示鼠标光标。因此,无法控制客户机操作系统中受影响的虚拟机或者与其进行交互。

          解决办法:从 ESXi 主机,重置遇到问题的虚拟机所驻留的 LUN。

          1. 运行以下命令以获取 LUN 信息:
            # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
          2. 在输出中搜索以下行以获取 LUN 的 UID:
            Partitions spanned (on 'lvm'):eui.001738004XXXXXX:1
            eui.001738004XXXXXX是设备 UID。
          3. 运行以下命令以重置 LUN:
            # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
          4. 如果无响应的虚拟机驻留在具有多个关联 LUN(如添加的数据区)的数据存储上,则将针对所有数据存储数据区执行 LUN 重置。

        迁移问题
        • 尝试使用 Storage vMotion 迁移多个链接克隆的虚拟机将失败
          该失败通常会影响链接克隆的虚拟机。当增量磁盘的大小为 1MB,且在 ESXi 主机中启用了基于内容的读缓存 (CBRC) 功能时,会发生该问题。您会看到以下错误消息: 源虚拟机检测到目标虚拟机无法恢复。

          解决办法:可使用下列方法之一来避免 Storage vMotion 出现失败:

          • 使用 4KB 作为增量磁盘的大小。

          • 不使用 Storage vMotion,而是将已关闭电源的虚拟机迁移到新的数据存储。

        VMware HA 和 Fault Tolerance 问题
        • 在 vCenter Server 内部测试版上设置为记录统计信息时,容错虚拟机会崩溃
          vmx*3 功能支持用户运行 stats vmx 来收集性能统计信息用于调试支持问题。在 vCenter Server 内部测试版上启用 Fault Tolerance 后,stats vmx 不兼容。

          解决办法:启用 Fault Tolerance 后,请确保在 vCenter Server 内部测试版上虚拟机未设置为记录统计信息。

        受支持硬件问题
        • PCI [未知未知]状态显示在 Apple Mac Pro 服务器上的 vCenter Server 中
          vSphere 5.1 中的 [硬件状态] 选项卡为 Apple Mac Pro 上的部分 PCI 设备显示 [未知未知]。这是因为 Apple Mac Pro 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

          解决办法:无。

        • PCI [未知未知]状态显示在 AMD PileDriver 上的 vCenter Server 中
          vSphere 5.1 中的 [硬件状态] 选项卡为 AMD PileDriver 上的部分 PCI 设备显示 [未知未知]。这是因为 AMD PileDriver 上的这些 PCI 设备缺少硬件描述。[硬件状态] 选项卡中显示的错误不会阻止这些 PCI 设备发挥作用。

          解决办法:无。

        • Apple Mac Pro 服务器上不支持 DPM
          vSphere 5.1 分布式电源管理 (DPM) 功能在 Apple Mac Pro 上不受支持。请勿将 Apple Mac Pro 添加到已启用 DPM 的群集中。如果主机进入“待机”状态,则发出打开电源命令后该主机无法退出待机状态,并显示 操作已超时 (operation timed out)错误。将主机置于待机状态后,Apple Mac Pro 无法从 vSphere 使用的软件关闭电源命令中唤醒。

          解决办法:如果 Apple Mac Pro 主机进入“待机”状态,您必须手动按电源按钮来打开主机电源。

        • Apple Mac Pro 服务器上不支持 IPMI
          vSphere 5.1 中的 [硬件状态] 选项卡无法显示正确的数据,或 Apple Mac Pro 上的部分硬件组件缺少数据。这是因为 Apple Mac Pro 上不支持 IPMI。

          解决办法:无。

        其他问题
        • 网络或存储中断后,TCP 上的 syslog、SSL 上的 syslog 和存储日志记录不会自动重新启动
          网络或存储中断后,在特定配置中 syslog 服务不会自动重新启动。这些配置包括 TCP 上的 syslog、SSL 上的 syslog 和中断存储日志记录。

          解决办法:运行以下命令,明确地重新启动 syslog:
          esxcli system syslog reload您还可以配置可自动重新启动的 UDP 上的 syslog。

        • Windows Server 2012 故障切换群集不受支持
          如果您尝试在 Windows Server 2012 中创建故障切换群集,并选择运行验证测试,则向导会完成验证测试并显示警告,然后返回再次运行验证测试。Windows Server 2012 客户机操作系统中的向导不会继续进入群集创建阶段。

          解决办法:无。