VMware ESXi™ 5.5 Update 2 | 2014 年 9 月 9 日 | 内部版本 2068190

2068190

上次更新时间:2014 年 9 月 9 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • VMware vShield Endpoint Thin Agent 已更名为 VMware Tools Guest Introspection 插件 -与 VMware Tools 捆绑在一起的 vShield Endpoint 驱动程序现在称为 Guest Introspection。
  • 已解决的问题 本版本提供了许多已在 已解决的问题部分中记录的缺陷修复。

ESXi 5.5 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.5 的功能和已知问题。ESXi 5.5 的早期版本的发行说明包括:

国际化

VMware vSphere 5.5 Update 2 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 打包在 vCenter Server ISO 上。您可以使用 VMware vCenter™ 安装程序向导来安装其中一个客户端,也可以同时安装这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.5.3 增加了对 ESXi 5.5 Update 2 和 vCenter Server 5.5 Update 2 版本的支持。
有关 VDDK 的详细信息,请参见 http://www.vmware.com/support/developer/vddk/

ESXi 和 Virtual SAN 的兼容性

Virtual SAN 不支持在 5.5 Update 1 之前版本的 ESXi 主机上配置的群集。在启用 Virtual SAN 前,请确保 Virtual SAN 群集中的所有主机都已升级到 ESXi 5.5 Update 1 或更高版本。vCenter Server 也应升级到 5.5 Update 1 或更高版本。

ESXi 的硬件兼容性

要查看与 vSphere 5.5 Update 2 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 2 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 5.5 Update 2 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 2 的信息。

某些设备已在 ESXi 5.5 及更高版本上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 5.5.x 主机上。该驱动程序可能仍在 ESXi 5.5.x 上起作用,但设备在 ESXi 5.5.x 上不受支持。有关已在 ESXi 5.5.x 上弃用且不再受支持的设备列表,请参见 VMware 知识库文章 《ESXi 5.5 升级过程中的弃用设备及警告》。  

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 5.5 Update 2 兼容,请查看 《VMware 兼容性指南》中关于 ESXi 5.5 Update 2 的信息。

 

ESXi 的虚拟机兼容性

ESXi 5.5 Update 2 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 5.5 Update 2 上使用此类虚拟机,请升级虚拟机兼容性。请参见 《vSphere 升级》文档。

vSphere Client 与使用 vCenter Server 5.x 的链接模式环境之间的连接

vCenter Server 5.5 在链接模式下只能与 vCenter Server 5.5 的其他实例共存。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读 《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.1 与 ESXi 5.5 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义内容升级主机的信息,请参见 《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见 《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.5.x 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.5.x 的兼容性。如果您的主机硬件不兼容,将显示带有不兼容消息的紫色屏幕。您无法安装或升级到 vSphere 5.5.x。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

支持升级到 ESXi 5.5 Update 2 的升级途径

 

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.5 Update 2 的升级途径

ESX/ESXi 4.0
包括
ESX/ESXi 4.0 Update 1
ESX/ESXi 4.0 Update 2

ESX/ESXi 4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
包括
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
包括
ESXi 5.1 Update 1
ESXi 5.1 Update 2

ESXi 5.5
包括
ESXi 5.5 Update 1

VMware-VMvisor-Installer-5.5.0.update02-xxxxxx.x86_64.iso

 

  • VMware vCenter Update Manager
  • CD 升级
  • 脚本式升级

update-from-esxi5.5-5.5_update02.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

是*

是*

使用从 VMware 门户(联机)下载的修补程序定义 带有修补程序基准的 VMware vCenter Update Manager

 

*注意:仅 ESXCLI 支持使用 update-from-esxi5.5-5.5_update02.zip将 ESXi 5.0.x 或 ESXi 5.1.x 升级到 ESXi 5.5 Update 2。需要运行 esxcli software profile update --depot=<depot_location> --profile=<profile_name>命令执行升级。有关详细信息,请参见《vSphere 升级指南》中的“ESXi 5.5.x 升级选项”主题。

VMware vSphere 5.5 Update 2 的开源组件

可从 http://www.vmware.com/download/vsphere/open_source.html 的 [开源] 选项卡上获取适用于 vSphere 5.5 Update 2 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新可用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Web Client。由于 Adobe Flash 不再支持 Linux 平台,因此 Linux 操作系统不支持 vSphere Web Client。已添加 Adobe Flash 支持的第三方浏览器仍可在 Linux 操作系统上继续工作。

    VMware vCenter Server Appliance。在 vSphere 5.5 中,VMware vCenter Server Appliance 可通过强制执行美国国防信息系统局《安全技术信息准则》(STIG) 来满足严格监管的合规性标准要求。部署 VMware vCenter Server Appliance 之前,请参见《VMware 强化虚拟设备操作指南》以获取有关新安全部署标准的信息,以确保操作成功。

     

  • vCenter Server 数据库。vSphere 5.5 不再支持使用 IBM DB2 作为 vCenter Server 数据库。

  • VMware Tools。从 vSphere 5.5 开始,有关如何在 vSphere 中安装和配置 VMware Tools 的所有信息都将与其他 vSphere 文档合并。有关在 vSphere 中使用 VMware Tools 的信息,请参见 vSphere 文档。 《安装和配置 VMware Tools》与 vSphere 5.5 及更高版本不相关。

  • VMware Tools。从 vSphere 5.5 开始,VMware Tools 不再提供 ThinPrint 功能。

  • vSphere Data Protection。由于 vSphere Web Client 运行方式的更改,vSphere Data Protection 5.1 将与 vSphere 5.5 不兼容。升级到 vSphere 5.5 的 vSphere Data Protection 5.1 用户如继续使用 vSphere Data Protection,必须同时更新 vSphere Data Protection。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi550-Update02 包含以下各公告:

ESXi550-201409201-UG:更新 ESXi 5.5 esx-base vib
ESXi550-201409202-UG:更新 ESXi 5.5 tools-light vib
ESXi550-201409203-UG:更新 ESXi 5.5 net-tg3 vib
ESXi550-201409204-UG:更新 ESXi 5.5 sata-ahci vib
ESXi550-201409205-UG:更新 ESXi 5.5 scsi-megaraid-sas vib
ESXi550-201409206-UG:更新 ESXi 5.5 misc-drivers vib
ESXi550-201409207-UG:更新 ESXi 5.5 sata-ata-piix vib

修补程序版本 ESXi550-Update02 Security-only 包含以下各公告:

ESXi550-201409101-SG:更新 ESXi 5.5 esx-base vib

修补程序版本 ESXi550-Update02 包含以下映像配置文件:

ESXi-5.5.0-20140902001-standard
ESXi-5.5.0-20140902001-no-tools

修补程序版本 ESXi550-Update02 Security-only 包含以下映像配置文件:

ESXi-5.5.0-20140901001s-standard
ESXi-5.5.0-20140901001s-no-tools

有关修补程序和更新分类的信息,请参见 知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

CIM 和 API 问题

  • ESXi 主机可能会遇到 I/O 滞后时间变长的情况
    当很大的 CIM 请求发送至 ESXi 主机上的 LSI SMI-S 提供程序时,由于存储较少,可能会在 ESXi 主机上出现 I/O 滞后时间变长的情况。

    本版本已解决该问题。
  • vCenter Server 可能会将电源信息的状态显示为未知
    安装 ESXi 主机并连接到 vCenter Server 后,vCenter Server [硬件状态] 选项卡中的电源信息显示为未知。
    本版本已解决该问题。
  • sfcbd 服务无法停止或重新启动
    在 vCenter Server 中停止硬件监控服务 (sfcbd) 后再启动以监控主机的硬件状态时,sfcbd 进程停止响应,并显示类似于以下内容的错误:
    sfcbd: 正在向 sfcbd 发送 TERM 信号
    sfcbd-watchdog: 将休眠 20 秒
    sfcbd: 正在向 sfcbd 发送 TERM 信号
    sfcbd-watchdog: 将休眠 20 秒
    sfcbd-watchdog: 已等待 3 个 20 秒时间间隔,接下来发送 SIGKILL
    sfcbd: 正在停止 sfcbd
    sfcbd-watchdog: 将休眠 20 秒
    sfcbd-watchdog: 提供程序已终止,允许终止 sfcbd。
    sfcbd-watchdog: 已达到最大终止尝试次数。监视程序正在退出 (sfcbd: Sending TERM signal to sfcbd sfcbd-watchdog: Sleeping for 20 seconds sfcbd: Sending TERM signal to sfcbd sfcbd-watchdog: Sleeping for 20 seconds sfcbd-watchdog: Waited for 3 20 second intervals, SIGKILL next sfcbd: Stopping sfcbd sfcbd-watchdog: Sleeping for 20 seconds sfcbd-watchdog: Providers have terminated, lets kill the sfcbd. sfcbd-watchdog: Reached max kill attempts. watchdog is exiting)

    本版本已解决该问题。
  • sfcb 可能使用错误的方法提供程序进行响应
    在 ESXi 主机上,如果把两个不同的方法提供程序注册到了具有不同命名空间的同一 CIM 类,sfcb 在收到请求时将始终使用最接近 providerRegister 顶部的提供程序进行响应。使用的可能是不正确的方法提供程序。

    本版本已解决该问题。
  • 查看 ESXi 主机的健康状况时,Hostd 可能无响应
    将 vSphere Client 连接到 ESXi 主机以查看健康状况时,hostd 可能无响应。将向 hostd.log中写入类似于以下内容的日志:
    YYYY-MM-DDThh:mm:ss.344Z [5A344B90 verbose \\\'ThreadPool\\\'] usage :total=22 max=74 workrun=22 iorun=0 workQ=0 ioQ=0 maxrun=30 maxQ=125 cur=W

    本版本已解决该问题。
  • 硬件运行状况监控可能无法响应
    硬件运行状况监控可能无法响应,CIM 提供程序可能显示类似于以下内容的错误消息:
    2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 无法 dlopen(/lib/security/$ISA/pam_passwdqc.so): /lib/security/../../lib/security/pam_passwdqc.so: 无法打开共享的对象文件: 打开的文件太多 2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 正在添加故障模块: /lib/security/$ISA/pam_passwdqc.so2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM 无法 dlopen(/lib/security/
    SFCB 服务可能也停止响应 (2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM unable to dlopen(/lib/security/$ISA/pam_passwdqc.so): /lib/security/../../lib/security/pam_passwdqc.so: cannot open shared object file: Too many open files2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM adding faulty module: /lib/security/$ISA/pam_passwdqc.so2014-02-25T02:15:34Z sfcb-CIMXML-Processor[233738]: PAM unable to dlopen(/lib/security/ The SFCB service might also stop responding)。

    本版本已解决该问题。
  • 当您尝试监控 ESXi 主机的硬件运行状况时,WBEM 查询可能会失败
    当您尝试监控 ESXi 主机的硬件运行状况时,WBEM 查询可能会失败。将向 syslog中写入类似于以下内容的错误消息:

    Timeout error accepting SSL connection exiting.

    为了解决该问题,已添加一个允许您设置超时值的新配置 httpSelectTimeout。

客户机操作系统问题

  • 使用 VideoReDo 应用程序进行编辑可能会导致多次显示同一个视频,还会显示变形的图像
    尝试使用 VideoReDo 应用程序编辑视频时,该视频可能会多次显示。此外,在编辑视频时可能会注意到变形的图像。

    本版本已解决该问题。

其他问题

  • 使用 PCI 直通设备 Emulex 四端口 LPE12004 打开虚拟机电源后,ESXi 主机可能会出现故障并显示紫色诊断屏幕
    使用 PCI 直通设备 Emulex 四端口 LPE12004 打开虚拟机电源后,ESXi 主机可能会出现故障并显示紫色诊断屏幕。
    您会看到以下错误:
    cpu20:32852)@BlueScreen:#PF Exception 14 in world 32852:helper1-1 IP 0x41803baf7319 addr 0x410800fd3fa0
    PTEs:0x13f1f1023;0x208569d063;0x0;
    cpu20:32852)Code start:0x41803ba00000 VMK uptime:0:02:15:58.810
    cpu20:32852)0x4123c151de50:[0x41803baf7319]BackMap_Lookup@vmkernel#nover+0x35 stack:0xffffffff00000000
    cpu20:32852)0x4123c151df00:[0x41803ba69483]IOMMUDoReportFault@vmkernel#nover+0x133 stack:0x500000701
    cpu20:32852)0x4123c151df30:[0x41803ba69667]IOMMUProcessFaults@vmkernel#nover+0x1f stack:0x0
    cpu20:32852)0x4123c151dfd0:[0x41803ba60f8a]helpFunc@vmkernel#nover+0x6b6 stack:0x0
    cpu20:32852)0x4123c151dff0:[0x41803bc53242]CpuSched_StartWorld@vmkernel#nover+0xfa stack:0x0
    cpu20:32852)base fs=0x0 gs=0x418045000000 Kgs=0x0

    您会在 vmkernel.log中看到类似于以下内容的条目:

    cpu0:1097177)WARNING:IOMMUIntel:2436: DMAR Fault IOMMU Unit #1:R/W=W, Device 0000:07:00.1 Faulting addr = 0xfd3fa000 Fault Reason = 0x05 -> PTE not set to allow Write.^[[0m
    cpu0:1097177)WARNING:IOMMUIntel:2493: IOMMU context entry dump for 0000:07:00.1 Ctx-Hi = 0x302 Ctx-Lo = 0x14ac52001^[[0m

    本版本已解决该问题。

网络连接问题

  • 上行链路不稳定时,ESXi 主机可能会出现故障,并显示紫屏
    上行链路不稳定时,ESXi 主机可能会出现故障,并显示紫屏和类似于以下内容的错误:
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UplinkRxQueuesLoadBalance@vmkernel#nover+0xnnn stack:0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UplinkLB_LoadBalanceCB@vmkernel#nover+0x8e stack:0xnnnnnnnnnnnn, 0x
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x223 stack:0x0, 0x4
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]helpFunc@vmkernel#nover+0x6b6 stack:0x0, 0x0, 0x0, 0x0, 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CpuSched_StartWorld@vmkernel#nover+0xfa stack:0x0, 0x0, 0x0, 0x0, 0

    如果针对您的网卡使用 Qlogic UCNA 驱动程序,则 ESXi 5.5 主机上的上行链路端口的状态将出现波动,并将向 vmkernel.log 中写入类似于以下内容的错误:
    vmnic3:qlcnic_issue_cmd:372:Failed card response err_code:0xn
    vmnic3:qlcnic_fw_cmd_destroy_tx_ctx:827:Failed to destroy tx ctx in firmware, err_code :8
    vmnic3:qlcnic_dev_request_reset:6879:Changed the adapter dev_state to NEED_RESET.
    vmnic3:qlcnic_check_health:7485:Adapter not in operational state(Heartbit Failure), resetting adapter.
    <6>qlcnic 0000:04:00.1:
    vmnic3:qlcnic_check_peg_halt_status:6722:PEG_HALT_STATUS1:0xnnnnnnnn, PEG_HALT_STATUS2:0xnnnnnn.
    vmnic3:qlcnic_detach:2337:Deleted Tx and Rx loopback filters.
    vmnic3:qlcnic_disable_bus_master:1042:Disabled bus mastering.
    vmnic3:qlcnic_free_rx_irq:2008:Freed vmnic3_rx[0] irq.
    vmnic3:qlcnic_ctx_free_tx_irq:1859:Freed vmnic3_txq[0] irq #85.

    本版本已解决该问题。
  • 大量 dvPort 组连接到 vCenter Server 后,vApp 启动时间可能会增加
    连接到 vCenter Server 的 dvPort 组数增加时,vApp 启动时间也可能会增加。

    本版本已解决该问题。
  • 配置多个 vmkernel 接口后,SLP 可能无法发送 UDP 查询网络数据包
    配置多个 vmkernel 数据包后,服务位置协议 (SLP) 可能无法发送 UDP 查询网络数据包。因此,防火墙将丢弃响应包。

    本版本已解决该问题。
  • 由于 vDS 或标准 vSwitch 上的队列大小有限,可能会丢弃由应用程序发送的数据包突发
    在 vNetwork Distributed Switch (vDS) 或已启用流量调整的标准 vSwitch 上,由于队列大小有限,可能会丢弃由应用程序发送的数据包突发。

    本版本已解决该问题。
  • 由于负载文件名错误,尝试使用无状态缓存映像引导 ESXi 主机可能会失败
    Auto Deploy 无法引导主机时,您可能无法使用无状态缓存映像引导 ESXi 主机。
    主机尝试使用缓存映像引导时,将显示类似于以下内容的错误消息:
    未找到文件。Fatal error: 15 (未找到) (file not found. Fatal error: 15 (Not found))
    将 Auto Deploy 从 ESXi 5.0 升级到 ESXi 5.x 并且在新的 Auto Deploy 环境中使用同一个映像时,会出现该问题。

    本版本已解决该问题。
  • 可能会报告错误的运行状况检查结果
    使用 VDS 运行状况检查监控 VLAN、MTU 和成组策略的健康状况时,可能会报告错误的结果。

    本版本已解决该问题。

安全问题

  • 对 glibc 软件包的更新
    ESXi glibc-2.5 软件包已更新,解决了安全问题。

    常见漏洞与暴露方案 (cve.mitre.org) 分配给这些问题的名称为 CVE-2013-0242 和 CVE-2013-1914。

服务器配置问题

  • VMware vCenter Server 性能图表错误地显示 throughput.usage.average 值
    vCenter Server 性能图表中所有与 throughput.usage 相关的计数器值都比其实际值大 1024 倍。以下计数器值将受到影响:
    • 网络计数器:
        throughput.usage
        throughput.usage.vm
        throughput.usage.vmotion
        throughput.usage.ft
        throughput.usage.iscsi
        throughput.usage.nfs
        throughput.usage.hbr
    • 虚拟磁盘计数器:
        throughput.usage
    • 存储路径吞吐量使用情况:
        throughput.usage
    • 存储适配器计数器:
        throughput.usage

      本版本已解决该问题。
  • ethtool 报告的 Emulex 10Gb 以太网 (10GbE)554FLR-SFP 适配器线缆类型可能不正确
    ethtool 报告的 Emulex 10Gb 以太网 (10GbE)554FLR-SFP 适配器线缆连接类型可能不正确。这是因为 ethtool 可能不支持直接连接铜缆 (DAC) 端口类型。

    本版本已解决该问题。
  • 如果虚拟机因 DRS 而迁移,则客户机操作自定义可能会失败
    在客户机操作系统自定义期间,如果虚拟机因 DRS 而迁移,则自定义过程可能会失败,您可能会注意到在 Guestcust.log文件中出现类似于以下内容的错误消息:

    Unable to set customization status in vmx

    本版本已解决该问题。
  • 在 iSCSI 远程 LUN 上安装 ESXi 可能会失败
    尝试在 iSCSI 远程 LUN 上安装 ESXi 可能会失败,并显示以下错误:
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)。

    本版本已解决该问题。
  • 虚拟机可能会遇到 I/O 响应过慢的问题
    在启用了默认 IO 调度程序的 ESXi 主机上,一个或多个虚拟机长时间利用设备的最大 I/O 带宽可能会导致 IOPS 不平衡。该问题由 ESXi 默认 IO 调度程序中识别的争用情况所致。此修补程序通过确保 IOPS 在 ESXi 主机上的所有虚拟机之间一致解决了该问题。

    本版本已解决该问题。
  • 无法在存储设备上创建大于 16 TB 的 VMFS-5 数据存储
    在存储设备上格式化大于 16 TB 的 VMFS-5 数据存储时,ESXIi 主机可能会出现故障。将向 vmkernel.log中写入类似于以下内容的错误:
    WARNING:LVM:10032: Invalid firstPE 3758096383
    WARNING:LVM:10039: Invalid lastPE 3758096383
    WARNING:LVM:5242: Error detected for vol 526f639f-93de6438-940e-d48cb5bc414c, dev naa.60000970000195700908533037393545:1
    2013-11-05T09:50:56.997Z cpu10:34259)LVM:7133: Device scan failed for :Invalid metadata
    FSS:5051: No FS driver claimed device 'naa.60000970000195700908533037393545:1':Not supported
    VC:1958: Device rescan time 24 msec (total number of devices 9)
    VC:1961: Filesystem probe time 56 msec (devices probed 7 of 9)
    VC:1963: Refresh open volume time 0 msec
    LVM:7525: Initialized naa.60000970000195700908533037393545:1, devID 5278bf81-af41c8bd-3c21-d48cb5bc414c
    LVM:7613: Zero volumeSize specified:using available space (30786340240896).
    LVM:13082: One or more LVM devices have been discovered.
    LVM:7689: Error "No space left on device" creating volume 5278bf81-82937d98-3734-d48cb5bc414c on device naa.60000970000195700908533037393545:1.

    本版本已解决该问题。

 

  • 如果使用保留 VMFS 进行 Auto Deploy 无状态缓存或有状态安装时,则不会创建核心转储分区
    如果使用 Auto Deploy 在空白磁盘上进行无状态缓存或有状态安装,则会创建 MSDOS 分区表。但是,不会创建核心转储分区。

    解决办法:启用 [无状态缓存或有状态安装主机配置文件] 选项时,请选择 [覆盖 VMFS],即使在空白磁盘上安装也是如此。之后,系统将创建 2.5GB 的核心转储分区。

  • 使用脚本进行安装时,即使在 installorupgrade 命令中使用了 --ignoressd 选项,ESXi 仍会安装在 SSD 上
    在 ESXi 5.5 中, installorupgrade命令不支持 --ignoressd选项。如果您在 installorupgrade命令中使用了 --ignoressd选项,安装程序会显示一条警告,指出这是一个无效组合。安装程序将继续在 SSD 上安装 ESXi,而非停止安装并显示一条错误消息。

    解决办法:要在使用脚本安装 ESXi 时使用 --ignoressd选项,请使用 install命令,而不是 installorupgrade命令。

  • 如果 Auto Deploy 缓存清除出现延迟,则可能会应用已删除的主机配置文件
    删除主机配置文件后,该配置文件将立即从 Auto Deploy 中清除。只要该主机配置文件仍保留在缓存中,Auto Deploy 就会继续应用该主机配置文件。仅当从缓存中清除该配置文件后,应用该配置文件的任何规则才会失败。

    解决办法:您可以使用 Get-DeployRuleSetPowerCLI cmdlet 来确定是否有任何规则使用了已删除的主机配置文件。cmdlet 将在该规则的 项目列表中显示字符串 deleted。随后,您可运行 Remove-DeployRulecmdlet 来删除该规则。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:选择另一个磁盘进行无状态缓存,或者将 ESX 软件从磁盘中移除。如果移除 ESX 软件,则该软件将无法使用。

  • 在 Oracle America (Sun) 供应商提供的服务器上安装或引导 ESXi 5.5.0 会失败
    如果在 Oracle America (Sun) 供应商提供的服务器上执行全新 ESXi 5.5.0 安装或引导现有的 ESXi 5.5.0,则在安装过程中或现有的 ESXi 5.5.0 版本引导时,该服务器控制台将显示空白屏幕。Oracle America (Sun) 供应商提供的服务器会在 ACPI FADT表中设置 HEADLESS标记,而无论这些服务器是否为无头平台,因此会出现这种情况。

    解决办法:在安装或引导 ESXi 5.5.0 时,请传递引导选项 ignoreHeadless="TRUE"。

    • 升级问题

      • 如果使用 ESXCLI 命令升级物理内存小于 4GB 的 ESXi 主机,则升级将成功,但在重新引导时,某些 ESXi 操作将失败
        ESXi 5.5 至少需要 4GB 的物理内存。ESXCLI 命令行界面不会在升级前针对所需的 4GB 内存进行检查。您可以使用 ESXCLI 成功升级内存不足的主机,但在引导至内存小于 4GB 的已升级 ESXi 5.5 主机时,某些操作可能会失败。

        解决办法:无。在升级到版本 5.5 之前,确认 ESXi 主机的物理内存大于 4GB。

      • 从 vCenter Server Appliance 5.0.x 升级到 5.5 后,如果使用外部 vCenter Single Sign-On,则 vCenter Server 将无法启动
        将 vCenter Server Appliance 从 5.0.x 升级到 5.5 时,如果用户选择使用外部 vCenter Single Sign-On 实例,则 vCenter Server 在该升级后将无法启动。在 Appliance 设备管理界面中,vCenter Single Sign-On 列为 [未配置]

        解决办法:执行下列步骤:

        1. 在 Web 浏览器中,打开 vCenter Server Appliance 管理界面(https:// appliance-address:5480)。
        2. 在 [vCenter Server/摘要] 页面中,单击 [停止服务器] 按钮。
        3. 在 [vCenter Server/SSO] 页面中,使用相应的设置完成表单,然后单击 [保存设置]
        4. 返回到 [摘要] 页面,然后单击 [启动服务器]
      • 在使用 ESXCLI 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5 之后,所有 VMKernel 端口组的 vMotion 和 Fault Tolerance 日志记录(FT 日志记录)设置都将丢失
        如果使用命令 esxcli software profile update <options>将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5,则升级会成功,但是,所有 VMKernel 端口组的 vMotion 和 FT 日志记录设置都将丢失。因此,vMotion 和 FT 日志记录会还原为默认设置(已禁用)。

        解决办法:执行交互式或脚本式升级,或者使用 vSphere Update Manager 来升级主机。如果使用 esxcli命令,请在升级后手动对受影响的 VMkernel 端口组应用 vMotion 和 FT 日志记录设置。

      • 在将 vSphere 5.0.x 或早期版本升级到版本 5.5 之后,手动设置的系统资源分配值将重置为默认值
        暂时的解决办法是,在 vSphere 5.0.x 及早期版本中,修改系统资源分配用户界面中的设置。如果不完全重新安装 ESXi,则无法将这些设置的值重置为默认值。在 vSphere 5.1 及更高版本中,系统行为会发生变化,因此,保留自定义系统资源分配设置可能会产生使用不安全的值。升级过程会重置所有这些值。

        解决办法:无。

      • 在将 ESX 4.x 升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 设置
        在使用 --forcemigrate选项将已启用 IPv6 的 ESX 4.x 主机升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 地址。

        解决办法:无。

      vCenter Single Sign-On 问题
      • 将 vSphere Web Client 从 5.1 Update 1a 升级到 5.5 期间出现错误 29107
        将 vSphere Web Client 从版本 5.1 Update U1a 升级到版本 5.5 期间,如果在升级之前使用的 vCenter Single Sign-On 服务配置为高可用性 Single Sign-On,则会出现错误 29107。

        解决办法:重新执行升级。可以运行安装程序并选择 [自定义安装],以仅升级 vSphere Web Client。

      • 无法从 vSphere Web Client 下拉菜单中更改 administrator@vsphere.local 的密码
        从 vSphere Web Client 登录 vCenter Single Sign-On 服务器时,可以从下拉菜单中执行密码更改操作。以 administrator@vsphere.local 用户身份登录时, [更改密码] 选项会变灰。

        解决办法:

        1. 选择 [管理] 选项卡,然后选择 [vCenter Single Sign-On] > [用户和组]
        2. 右键单击管理员用户,然后单击 [编辑用户]
        3. 更改密码。

         

      网络连接问题

      • 重新引导后,与 vmknic 接口和动态 IP 地址关联的静态路由可能无法显示
        重新引导主机后,与 VMkernel 网络接口 (vmknic) 和动态 IP 地址关联的静态路由可能无法显示。
        此问题是由于在 DHCP 客户端和还原路由命令之间存在争用情况所致。当主机在重新引导过程中尝试还原自定义路由时,DHCP 客户端可能未完成为 vmknic 获取 IP 地址的操作。因此,可能未设置网关,从而未还原路由。

        解决办法:运行 esxcfg-route –r命令可手动还原路由。
      • 在使用 IPv6 地址将 ESXi 主机添加到 vCenter Server 之后,该主机停止响应
        在使用格式为 fe80::/64的 IPv6 链路本地地址将 ESXi 主机添加到 vCenter Server 之后,该主机会在短时间内灰显并停止响应 vCenter Server。

        解决办法:使用非链路本地地址的有效 IPv6 地址。

      • 除物理网卡支持的虚拟功能外,vSphere Web Client 还允许您配置更多虚拟功能,并且不会显示错误消息
        在物理适配器的 SR-IOV 设置中,除适配器支持的虚拟功能外,您还可以配置更多虚拟功能。例如,可以在仅支持 23 个虚拟功能的网卡上配置 100 个虚拟功能,并且不会显示任何错误消息。将显示一条消息,提示您重新引导主机,以便应用 SR-IOV 设置。主机重新引导后,该网卡将配置有该适配器可支持的虚拟功能数(即,此示例中的 23)。提示您重新引导主机的消息仍然存在,而实际不应显示。

        解决办法:无

      • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
        在具有 Intel ixgbe 网卡的 ESXi 5.1 或更高版本主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,则某些虚拟机可能无法启动。
        vmware.log文件包含类似于以下内容的消息:
        2013-02-28T07:06:31.863Z| vcpu-1| I120:Msg_Post:Error
        2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.log.error.unrecoverable] VMware ESX unrecoverable error:(vcpu-1)
        2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings:0a:17.3 failed to register interrupt (error code 195887110)
        2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
        2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.withoutLog] You can request support.
        2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.requestSupport.vmSupport.vmx86]
        2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
        2013-02-28T07:06:31.863Z| vcpu-1| I120:[msg.panic.response] We will respond on the basis of your support entitlement.

        解决办法:减少与受影响的虚拟机关联的虚拟功能的数量并启动该虚拟机。

      • 在 Emulex BladeEngine 3 物理网络适配器上,虚拟功能支持的虚拟机网络适配器无法访问将物理功能用作上行链路的 VMkernel 适配器
        虚拟功能及其物理功能之间无流量流动。例如,在物理功能支持的交换机上,在同一端口上使用虚拟功能的虚拟机无法与同一交换机上的 VMkernel 适配器联系。这是 Emulex BladeEngine 3 物理适配器的一个已知问题。有关信息,请联系 Emulex。

        解决办法:在主机上禁用 Emulex BladeEngine 3 设备的本机驱动程序。有关详细信息,请参见 VMware 知识库文章 2044993

      • ESXi Dump Collector 无法将 ESXi 核心文件发送到远程服务器
        如果将处理 Dump Collector 流量的 VMkernel 适配器配置为将链路聚合组 (LAG) 设置为活动上行链路的分布式端口组,则 ESXi Dump Collector 无法发送 ESXi 核心文件。物理交换机上配置了 LACP 端口通道。

        解决办法:执行以下解决办法之一:

        • 使用 vSphere 标准交换机来配置处理 ESXi Dump Collector 与远程服务器的流量的 VMkernel 适配器。
        • 使用独立的上行链路为配置了 VMkernel 适配器的分布式端口组处理流量。
      • 如果您使用 vSphere Client 对 vSphere Standard Switch 或 vSphere Distributed Switch 在主机上的端口数进行更改,则不会保存更改,即使在重新引导后也是如此
        如果您使用 vSphere Client 对 vSphere Standard Switch 或 vSphere Distributed Switch 在 ESXi 5.5 主机上的端口数进行更改,则端口数不会发生变化,即使在重新引导主机后也是如此。

        重新引导运行 ESXi 5.5 的主机时,该主机会动态地增加或减少虚拟交换机的端口数。端口数基于主机可运行的最大虚拟机数来确定。您无需在此类主机上配置交换机端口数。

        解决办法:在 vSphere Client 中无解决办法。

      服务器配置问题

      • 从串行控制台访问直接控制台用户界面时遇到菜单导航问题
        如果从串行控制台访问直接控制台用户界面,则导航至相应菜单时向上和向下箭头键不起作用,并会强制用户从 DCUI 配置屏幕注销。

        解决办法:停止 DCUI 进程。DCUI 进程将自动重新启动。

      • 将 ESXi 主机升级到 5.5 Update 2 并更改主机配置后,主机配置文件可能错误地显示为合规
        如果将与主机配置文件合规的 ESXi 主机升级为 ESXi 5.5 Update 2 并随后在主机配置中进行了一些更改,然后重新检查主机与主机配置文件的合规性时,系统会错误地报告配置文件合规。

        解决办法:
        • 在 vSPhere Client 中,导航到有问题的主机配置文件并运行 [从引用的主机更新主机配置文件]
        • 在 vSPhere Web Client 中,导航到有问题的主机配置文件,单击 [从主机复制设置],选择要从其中复制配置设置的主机并单击 [确定]
      • 对 vSphere Distributed Switch 执行主机配置文件修复失败
        对 vSphere Distributed Switch 应用主机配置文件时,如果启用了 Fault Tolerance 功能的虚拟机在使用该主机配置文件中的 Distributed Switch 的主机上处于已关闭电源状态,则会发生修复错误。

        解决办法:将已关闭电源的虚拟机移至其他主机以使主机配置文件成功修复。

      • 将 Auto Deploy 用于 USB 的无状态缓存或有状态安装后,将显示不合规消息
        编辑主机配置文件以在主机上对 USB 磁盘启用无状态缓存后,该主机配置文件会在尝试修复时收到合规性错误。主机将重新引导并完成缓存。在检查合规性之后,会收到以下合规性错误:
        主机状况不符合规范 (Host state does not match specification)

        解决办法:不需要任何解决办法。此消息不正确。

      • 将 ESX 4.0 或 ESX 4.1 配置文件应用于 ESXi 5.5.x 主机时,主机配置文件收到防火墙设置合规性错误
        如果从 ESX 4.0 或 ESX 4.1 主机提取主机配置文件并尝试将其应用于 ESXi 5.5.x 主机,则配置文件修复成功。合规性检查收到的防火墙设置错误包括以下几项:
        未找到规则集 LDAP (Ruleset LDAP not found)
        未找到规则集 LDAPS (Ruleset LDAPS not found)
        未找到规则集 TSM (Ruleset TSM not found)
        未找到规则集 VCB (Ruleset VCB not found)
        未找到规则集 activeDirectorKerberos (Ruleset activeDirectorKerberos not found)

        解决办法:不需要任何解决办法。这是正常的,因为 ESX 4.0 或 ESX 4.1 主机的防火墙设置不同于 ESXi 5.5.x 主机。

      • 更改 ESXi 主机的 BIOS 设备设置可能会导致设备名称无效
        如果更改 ESXi 主机上的 BIOS 设备设置,而此更改会使分配给该设备的 <segment:bus:device:function> 值发生变化,则可能会导致设备名称无效。例如,如果启用先前已禁用的集成网卡,则可能会改变分配给其他 PCI 设备的 <segment:bus:device:function> 值,从而使 ESXi 更改分配给这些网卡的名称。与先前版本的 ESXi 不同,如果主机 BIOS 提供了具体的设备位置信息,则 ESXi 5.5 会尝试在 <segment:bus:device:function> 发生更改时保留设备名称。由于此功能中的一个缺陷,有时会生成诸如 vmhba1 和 vmnic32 之类的无效名称。

        解决办法:重新引导 ESXi 主机一两次即可清除无效设备名称,而还原为原始名称。不要在生产环境中运行使用无效设备名称的 ESXi 主机。

      存储问题

      • 尝试对使用 RDM 磁盘的虚拟机执行实时 Storage vMotion 时可能会失败
        使用 RDM 磁盘的虚拟机的 Storage vMotion 可能会失败,并显示虚拟机处于电源关闭状态。尝试打开虚拟机的电源时失败,并显示以下错误:

        未能锁定文件 (Failed to lock the file)

        解决办法:无。
      • 重命名的标记在 [编辑虚拟机存储策略] 向导中显示为缺失
        虚拟机存储策略可根据数据存储标记包含相应的规则。如果重命名某个标记,则引用此标记的存储策略不会自动更新此标记,并将其显示为缺失。

        解决办法:从虚拟机存储策略中移除标记为缺失的标记,然后添加该重命名的标记。对所有过期实体重新应用存储策略。

      • 当 Flash Read Cache 块大小设置为 16KB、256KB、512KB 或 1024KB 时,无法打开虚拟机电源
        如果虚拟机配置了 Flash Read Cache,并且块大小为 16KB、256KB、512KB 或 1024KB,则无法打开该虚拟机的电源。Flash Read Cache 支持的最小缓存大小为 4MB,最大缓存大小为 200GB,最小块大小为 4KB,最大块大小为 1MB。打开虚拟机电源时,操作将失败并显示以下消息:

        打开虚拟机电源时从 ESX 主机收到一条错误 (An error was received from the ESX host while powering on VM)。

        无法启动虚拟机。

        打开模块 DiskEarly 电源失败 (Module DiskEarly power on failed)。

        无法配置磁盘 scsi0:0 (Failed to configure disk scsi0:0)。

        无法打开包含未配置的磁盘的虚拟机电源。无法连接 vFlash 缓存:msg.vflashcache.error.VFC_FAILURE (The virtual machine cannot be powered on with an unconfigured disk. vFlash cache cannot be attached: msg.vflashcache.error.VFC_FAILURE)

        解决办法:配置虚拟机 Flash Read Cache 大小和块大小。

        1. 右键单击虚拟机,然后选择 编辑设置
        2. 虚拟硬件选项卡上,展开 硬盘以查看磁盘选项。
        3. 单击 [虚拟 Flash Read Cache] 字段旁边的 [高级]
        4. 增加缓存大小预留或减小块大小。
        5. 单击 确定保存更改。
      • 无法在 vSphere Web Client 中加载已保存的资源池树文件的自定义扩展名
        DRS 错误消息将显示在主机摘要页面上。

        在 vSphere Web Client 中禁用 DRS 时,系统将提示您保存资源池结构,以便将来能够重新加载。该文件的默认扩展名为 .snapshot,但也可以为此文件选择其他扩展名。如果此文件使用自定义扩展名,则尝试加载时会显示为已禁用。该问题仅在 OS X 上出现。

        解决办法:将该扩展名更改为 .snapshot,才能在 OS X 上的 vSphere Web Client 中加载此文件。

      • DRS 错误消息显示在主机摘要页面上
        以下 DRS 错误消息会显示主机摘要页面上:

        无法在主机上应用 DRS 资源设置。在当前状况下不允许执行此操作。这会明显大幅 DRS 的效率 (Unable to apply DRS resource settings on host. The operation is not allowed in the current state. This can significantly reduce the effectiveness of DRS)。

        在某些配置中,争用情况可能会导致在日志中创建无意义或不可操作的错误消息。如果在应用 DRS 资源设置的同时未注册虚拟机,则可能会出现此错误。

        解决办法:忽略该错误消息。

      • 为大于 16TB 的 VMDK 配置虚拟 Flash Read Cache 将导致错误
        虚拟 Flash Read Cache 不支持大于 16TB 的虚拟机磁盘。配置此类磁盘的尝试将失败。

        解决办法:无

      • 重新配置缓存大小后,虚拟机可能会关闭电源
        如果在虚拟机上以错误的方式重新配置虚拟 Flash Read Cache(例如,通过分配无效值),则虚拟机可能会关闭电源。

        解决办法:请遵循《vSphere Storage》  文档中建议的缓存大小准则。

      • 重新配置已启用虚拟 Flash Read Cache 的虚拟机失败,并显示错误: 操作超时 (Operation timed out)
        重新配置操作需要大量 I/O 带宽。如果运行的负载较大,则该操作可能会在完成之前发生超时。如果主机具有处于全部路径异常 (APD) 状态的 LUN,则也可能会看到此行为。

        解决办法:修复所有主机 APD 状态,然后在 LUN 和主机上使用较少的 I/O 负载重试此操作。

      • 为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作
        为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作。

        解决办法:DRS 建议不要对此类虚拟机执行 vMotion 操作,除非出于以下原因:

        • 要撤出用户已请求进入维护模式或待机模式的主机。
        • 要修复 DRS 规则违反问题。
        • 主机资源使用情况处于红色状态。
        • 一个或多个主机使用过度,且未满足虚拟机需求。
          注意:您可以选择设置 DRS 来忽略此理由。
      • 当虚拟机的活动内存较低,而消耗内存较高时,主机处于待机状态
        ESXi 5.5 在 DPM 的默认行为中引入了更改,旨在降低功能的激进程度,从而有助于防止虚拟机在活动内存较低而消耗内存较高时降低性能。DPM 衡量指标为 X%*IdleConsumedMemory + active memory。X% 变量是可调整的,默认情况下设置为 25%。

        解决办法:您可以恢复到 ESXi 早期版本中的激进 DPM 行为,方法是在高级选项下设置 PercentIdleMBInMemDemand=0。

      • 由 DRS 启动的 vMotion 操作可能失败
        当 DRS 建议对具有虚拟 Flash Read Cache 预留的虚拟机执行 vMotion 操作时,vMotion 可能会失败,因为目标主机上没有足够的可用内存 (RAM) 来管理虚拟机的 Flash Read Cache 预留。

        解决办法:请遵循《vSphere Storage》  中的 Flash Read Cache 配置建议。
        如果 vMotion 失败,请执行以下步骤:

        1. 重新配置目标主机上的虚拟机以及入站虚拟机的块大小,以减少目标主机上 VMkernel 内存的整体目标使用量。
        2. 使用 vMotion 手动将虚拟机迁移到目标主机,以确保解决此情况。
      • 无法查看在为单个 SSD 设备配置虚拟闪存期间发生的问题
        配置虚拟闪存资源是对一系列 SSD 设备执行的任务。对所有对象完成此任务后,vSphere Web Client 会将其报告为成功,而可能不会通知您有关配置单个 SSD 设备时出现的问题。

        解决办法:执行以下任务之一。

        • 在 [近期任务] 面板中,双击已完成的任务。
          所有配置故障都将显示在 [任务详细信息] 对话框的 [相关事件] 部分中。
        • 也可以执行以下步骤:
          1. 在清单中选择主机。
          2. 单击 监控选项卡,然后单击 事件
      • 在 ESXi 主机上无法获取 Micron PCIe SSD 的 SMART 信息
        尝试使用 esxcli storage core device smart get -命令来显示 Micron PCIe SSD 设备的统计信息失败。您会看到以下错误消息:
        获取智能参数时出错:无法打开设备 (Error getting Smart Parameters: CANNOT open device)

        解决办法:无。在此版本中, esxcli storage core device smart命令不支持 Micron PCIe SSD。

      • ESXi 不会应用在虚拟机的配置文件中为 SCSI 虚拟磁盘配置的带宽限制
        可以在虚拟机配置文件 ( .vmx) 中使用一组参数配置 SCSI 虚拟磁盘的带宽和吞吐量限制。例如,对于 scsi0:0 虚拟磁盘,配置文件可能包含以下限制:
        sched.scsi0:0.throughputCap = "80IOPS"
        sched.scsi0:0.bandwidthCap = "10MBps"
        sched.scsi0:0.shares = "normal"
        ESXi 不会对 scsi0:0 虚拟磁盘应用 sched.scsi0:0.bandwidthCap限制。

        解决办法:使用 vSphere Web Client 或 esxcli 系统设置高级设置命令来恢复到磁盘 I/O 调度程序的较早版本。

        • 在 vSphere Web Client 中,在主机的 [高级系统设置] 列表中编辑 Disk.SchedulerWithReservation参数。
          1. 导航到主机。
          2. [管理] 选项卡上,选择 [设置],然后选择 [高级系统设置]
          3. 找到 Disk.SchedulerWithReservation参数,例如,使用 [筛选器][查找] 文本框。
          4. 单击 [编辑],然后将参数设置为 0。
          5. 单击 确定
        • 在主机的 ESXi Shell 中,运行以下控制台命令:
          esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
      • 如果虚拟机配置有 Flash Read Cache,而该缓存出现错误,则该虚拟机无法从主机迁移
        如果虚拟机配置有 Flash Read Cache,而该缓存处于错误状态且无法使用,则该虚拟机可能会出现迁移错误。此错误会使虚拟机迁移失败。

        解决办法:

        1. 重新配置虚拟机并禁用该缓存。
        2. 执行迁移。
        3. 迁移虚拟机后,重新启用该缓存。

        也可以关闭该虚拟机电源,然后重新打开该虚拟机电源,以更改该缓存错误。

      • 在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷
        在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷。

        解决办法:只有在从 ESXi 5.5 测试版升级到 ESXi 5.5 时才会发生此问题。要避免此问题,请安装 ESXi 5.5 而不是进行升级。如果要从 ESXi 5.5 测试版升级,请在升级之前删除 VFFS 卷。

      • 在安装有旧版 Windows 和 Linux 客户机操作系统的虚拟机上启用虚拟 Flash Read Cache 后,运行时滞后时间不会出现预期的改进
        如果虚拟 Flash Read Cache 的大小与目标工作集匹配,并且客户机文件系统至少与 4KB 边界对齐,则该缓存可提供最佳性能。该 Flash Read Cache 会筛选掉未对齐的块,以避免在该缓存中缓存不完整的块。通常,在为安装有 Windows XP 和早于 2.6 的 Linux 分发版本的虚拟机的 VMDK 配置虚拟 Flash Read Cache 时,才会出现此行为。此时,缓存命中率较低,而且缓存占用也较低,这意味着为这些 VMDK 预留的缓存出现浪费。对于运行 Windows 7、Windows 2008 以及 Linux 2.6 及更高分发版本的虚拟机来说,并不会出现此行为,这些虚拟机会将其文件系统与 4KB 边界对齐以确保性能最佳。

        解决办法:要提高缓存命中率,并以最优方式使用为每个 VMDK 预留的缓存,请确保在 VMDK 上安装的客户机操作文件系统至少与 4KB 边界对齐。

      Virtual SAN

      • 虚拟机目录包含重复的交换 (.vswp) 文件
        如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。其结果是,未完全关机的虚拟机的目录中存在旧的交换文件 ( .vswp)。

        解决办法:无

      • 尝试向 Virtual SAN 磁盘组添加七个以上磁盘时可能会失败,并显示不正确的错误消息
        Virtual SAN 磁盘组最多支持一个 SSD 和七个磁盘 (HDD)。尝试添加更多磁盘时可能会失败,并显示类似以下内容的不正确错误消息:

        磁盘数量不足 (The number of disks is not sufficient)。

        解决办法:无
      • 添加 Virtual SAN 磁盘时重新扫描失败
        添加 Virtual SAN 磁盘时,由于对 non-Virtual SAN 卷的探查失败,导致重新扫描失败,从而导致操作失败。

        解决办法:请忽略该错误,因为所有磁盘都已正确注册。
      • 在移除与其关联的固态驱动器 (SSD) 后移除的硬盘驱动器 (HDD) 可能仍被列为 Virtual SAN 声明的存储磁盘
        如果在从 Virtual SAN 数据存储依次移除 SSD 和关联的 HDD 后运行 esxcli vsan storage list命令,则移除的 HDD 仍然会被列为 Virtual SAN 声明的存储磁盘。如果将 HDD 插回其他主机,则该磁盘可能显示为属于两个不同的主机。

        解决办法:例如,如果将 SSD 和 HDD 从 ESXi x 移除并插入 ESXi y,则执行下列步骤可防止 HDD 显示为同时属于 ESXi x 和 ESXi y:
        1. 将从 ESXi x 移除的 SSD 和 HDD 插入 ESXi y。
        2. 从 ESXi x 取消配置该 SSD。
        3. 运行命令 esxcfg-rescan -A。
        该 HDD 和 SSD 将不再列于 ESXi x 上。
      • 《vSphere Storage》  文档中的 “使用 Virtual SAN”  部分指出,每个磁盘组中 HDD 磁盘的最大数量是六个。但是,允许的 HDD 最大数量是七个。
      • 在 Virtual SAN 群集中发生故障后,vSphere HA 可能会在重新启动虚拟机之前报告多个事件,产生一些误导
        当在 Virtual SAN 上运行的虚拟机似乎发生故障后,vSphere HA 主代理会多次尝试重新启动该虚拟机。如果虚拟机无法立即重新启动,主代理会监控群集状态,当状况表明重新启动可能会成功时再次尝试。对于在 Virtual SAN 上运行的虚拟机,vSphere HA 主代理具有特殊的应用逻辑来检测虚拟机对象的可访问性何时可能已发生变化,只要可访问性可能发生变化,便会尝试重新启动。如果主代理未成功打开虚拟机电源,它不会放弃,而是会等待下一次可能的可访问性变化,每次可能的可访问性变化后,它都会进行尝试。

        在每次失败的尝试后,vSphere HA 都会报告一个事件,指出故障转移未成功,五次失败的尝试后,会报告 vSphere HA 停止尝试重新启动虚拟机,因为已达到故障转移的最大尝试次数。但是,即使在报告 vSphere HA 主代理已停止尝试后,可访问性下次可能发生变化时,它仍会尝试。

        解决办法:无。

      • 关闭 Virtual SAN 主机电源会导致 vSphere Web Client 中的 [存储提供程序] 视图刷新时间超过预期
        如果您关闭 Virtual SAN 主机电源,[存储提供程序] 视图可能显示为空。尽管未显示任何信息,[刷新] 按钮仍会继续旋转。

        解决办法:等待至少 15 分钟,以便重新填充 [存储提供程序] 视图。在您打开主机电源后,该视图也会刷新。

      • Virtual SAN 报告失败的任务已完成
        尽管某些任务在内部失败,虚拟 SAN 仍可能会报告它们已完成。

        以下是错误的条件和相应的原因:

        • 条件:当 Virtual SAN 许可证已过期时,用户尝试创建新磁盘组或向现有磁盘组中添加新磁盘。
          错误堆栈:出现了常规系统错误:无法添加磁盘:VSAN 未在该主机上获得许可。
        • 条件:用户尝试创建的磁盘组中的磁盘数量高于支持的数量。或者他们尝试向现有磁盘组中添加新磁盘,以致总数超过了每个磁盘组支持的磁盘数量。
          错误堆栈:出现了常规系统错误:磁盘过多。
        • 条件:用户尝试向出错的磁盘组中添加磁盘。
          错误堆栈:出现了常规系统错误:无法创建分区表。

        解决办法:确定失败的原因后,纠正原因并再次执行任务。

      • Virtual SAN 数据存储无法存储主机本地和系统交换文件
        通常,您可以将系统交换或主机本地交换文件放置在数据存储上。但是,Virtual SAN 数据存储不支持系统交换和主机本地交换文件。因此,没有可用于选择 Virtual SAN 数据存储作为系统交换或主机本地交换文件位置的 UI 选项。

        解决办法:在 Virtual SAN 环境中,使用支持的其他选项放置系统交换和主机本地交换文件。

      • 尽管 vSphere HA 群集中的 Virtual SAN 虚拟机已关闭电源,但仍报告它受 vSphere HA 保护
        当您关闭虚拟机电源,其主对象位于 Virtual SAN 数据存储上,并且主对象不可访问时,可能会出现这种情况。如果在对象变得不可访问后发生 HA 主代理选举,会看到该问题。

        解决办法:

        1. 通过应用指定的存储策略检查对象的合规性,确保主对象重新可访问。
        2. 打开虚拟机电源,然后再次关闭电源。

        状态应更改为不受保护。

      • 即使在触发并成功完成 [重新应用] 操作后,虚拟机对象仍处于 [已过期] 状态
        如果因新存储要求而编辑现有虚拟机配置文件,关联的虚拟机对象(主机或磁盘)可能会进入 [已过期] 状态。当您的当前环境无法支持重新配置虚拟机对象时,会出现该问题。使用 [重新应用] 操作不会更改这种状态。

        解决办法:向 Virtual SAN 群集中添加更多资源(主机或磁盘),并再次调用 [重新应用] 操作。

      • 如果在启用 Virtual SAN 后为其许可,则 Virtual SAN 的自动磁盘声明无法按预期运行
        如果在自动模式下启用 Virtual SAN,然后分配许可证,则 Virtual SAN 无法声明磁盘。

        解决办法:将模式更改为 [手动],然后再切换回 [自动]。Virtual SAN 将正确地声明磁盘。

      • Virtual SAN 网络进行了分区时,vSphere High Availability (HA) 无法重新启动虚拟机
        当 Virtual SAN 使用 VMkernel 适配器进行节点间通信,而这些适配器与群集中的其他 VMkernel 适配器在同一子网上时,会出现该问题。这种配置会导致网络故障并中断 Virtual SAN 节点间通信,而 vSphere HA 节点间通信一直不受影响。

        在这种情况下,HA 主代理可能会检测到虚拟机中的故障,但是无法重新启动虚拟机。例如,当运行主代理的主机无法访问虚拟机的对象时,会发生这种情况。

        解决办法:确保 Virtual SAN 使用的 VMkernel 适配器不与其他用途的 VMkernel 适配器共享一个子网。

      • 虚拟机目录包含重复的交换 (.vswp) 文件
        如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

        解决办法:无

      • 由于网络滞后时间很长,虚拟机可能变得无法访问
        在 Virtual SAN 群集设置中,如果网络滞后时间很长,某些虚拟机可能在 vCenter Server 上变得无法访问,并且您将无法打开虚拟机电源或访问虚拟机。

        解决办法:运行 vsan.check_state -e -rRVC 命令。
      • 由于网络滞后时间很长,虚拟机操作可能会超时
        使用具有低队列深度的存储控制器时,网络滞后时间很长可能会导致虚拟机操作超时。

        解决办法:网络负载较低时,重新尝试操作。
      • 虚拟机可能被重命名为其截断版的 vmx 文件路径
        如果虚拟机的 vmx 文件暂时无法访问,则虚拟机会被重命名为截断版的 vmx 文件路径。例如,虚拟机可能被重命名为 /vmfs/volumes/vsan:52f1686bdcb477cd-8e97188e35b99d2e/236d5552-ad93。截断可能会删除虚拟机主目录的 UUID 的一半,使得难以仅通过虚拟机名称将已重命名的虚拟机与原始虚拟机进行映射。

        解决办法:运行 vsan.fix_renamed_vmsRVC 命令。

      vCenter Server 和 vSphere Web Client

      • 无法将 ESXi 主机添加到 Active Directory 域
        您可能注意到尝试分配权限时 Active Directory 域名未显示在 [选择用户和组] 选项下的 [域] 下拉列表中。同样,[身份验证服务设置] 选项可能未显示任何信任域控制器,即使 Active Directory 有信任域时也是如此。

        解决办法:
        1. 依次重新启动 netlogond、lwiod 和 lsassd 守护进程。
        2. 使用 vSphere Client 登录到 ESXi 主机。
        3. [配置] 选项卡中,单击 [身份验证服务设置]
        4. 刷新以查看信任域。

      虚拟机管理问题

      • 如果 VMDK 文件名以“core”开头,将无法执行虚拟机的冷迁移和 Storage vMotion*
        如果 VMDK 文件名以“core”开头,尝试执行虚拟机的冷迁移和 Storage vMotion 可能会失败,并显示类似于以下内容的错误消息:

        出现了常规系统错误: 命名或重命名虚拟机文件时出错 (A general system error occurred: Error naming or renaming a VM file)。
        类似于以下内容的错误消息可能会显示在 vpxd.log文件中:
        mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'commonvpxLro' opID=8BA11741-0000095D-86-97] [VpxLRO] -- FINISH task-internal-2471 -- -- VmprovWorkflow --
        mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'Default' opID=8BA11741-0000095D-86-97] [VpxLRO] -- ERROR task-internal-2471 -- -- VmprovWorkflow:vmodl.fault.SystemError:
        mem> --> Result:
        mem> --> (vmodl.fault.SystemError){
        mem> --> dynamicType = ,
        mem> --> faultCause = (vmodl.MethodFault) null,
        mem> --> reason = "Error naming or renaming a VM file.",
        mem> --> msg = "",
        mem> --> }

        ESXi 主机将名称以“core”开头的 VMDK 文件错误地分类为核心文件而非预期磁盘类型时,会出现该问题。

        解决办法:确保虚拟机的 VMDK 文件名不以“core”开头。此外,使用 vmkfstools实用程序重命名 VMDK 文件以确保文件名不以“core”一词开头。

      • 如果虚拟机使用在法语区域设置下运行的 Windows 7 Enterprise(64 位)客户机操作系统,则该虚拟机在克隆操作期间会出现问题
        如果克隆的 Windows 7 Enterprise(64 位)虚拟机正在法语区域设置下运行,则该虚拟机会与网络断开连接,并且不会应用自定义规范。如果虚拟机正在 ESXi 5.1 主机上运行,此时将其克隆到 ESXi 5.5,并将 VMware Tools 版本升级到 5.5 主机提供的最新版本,则会出现此问题。

        解决办法:先将虚拟机兼容性升级到 ESXi 5.5 及更高版本,然后再升级到 VMware Tools 的最新可用版本。

      • 尝试增加正在运行的虚拟机上的虚拟磁盘大小会失败并显示错误
        如果在虚拟机正在运行时增加虚拟磁盘的大小,则操作可能失败并显示以下错误:

        此设备类型不支持此操作 (This operation is not supported for this device type.)

        如果要将磁盘大小扩展到 2TB 或更大,则操作可能会失败。热扩展操作仅支持将磁盘大小增加到小于或等于 2TB 的大小。SATA 虚拟磁盘不支持热扩展操作,无论该磁盘大小是多少。

        解决办法:关闭虚拟机电源,以便将虚拟磁盘扩展到 2TB 或更大。

      VMware HA 和 Fault Tolerance 问题
      • 如果在 vSphere HA 群集中选择 ESX/ESXi 4.0 或 4.1 主机来故障切换某个虚拟机,则该虚拟机可能无法按预期重新启动
        当 vSphere HA 在 ESX/ESXi 4.0 或 4.1 主机上重新启动某个虚拟机时,如果该主机与运行该虚拟机的原始主机不同,则会发出一个查询,但该查询不会获得应答。该虚拟机不会在新主机上打开电源,除非从 vSphere Client 中手动应答该查询。

        解决办法:从 vSphere Client 中应答该查询。您也可以等待超时(默认为 15 分钟),然后,vSphere HA 将尝试在其他主机上重新启动该虚拟机。如果该主机运行的是 ESX/ESXi 5.0 或更高版本,则该虚拟机将重新启动。

      • 如果无共享存储的 vMotion 操作在 vSphere HA 群集中失败,则目标虚拟机可能会注册到意外的主机中
        由于目标虚拟机不会收到用于协调两个虚拟机之间控制权转移的握手消息,因此,无共享存储的 vMotion 迁移可能会失败。vMotion 协议会同时关闭源虚拟机和目标虚拟机的电源。如果源主机和目标主机位于同一群集中,并且已启用 vSphere HA,则 vSphere HA 可能会将目标虚拟机注册到另一台主机上,而该主机不是为 vMotion 迁移选择的目标主机。

        解决办法:如果希望保留目标虚拟机并将其注册到特定主机上,则必须将该目标虚拟机重定位到目标主机。最好在打开虚拟机电源之前执行此重定位操作。

      受支持硬件问题
      • 风扇、电源、电压和当前传感器的传感器值显示在 vCenter Server [硬件状态] 选项卡的 [其他] 组中
        某些传感器值会在 [其他] 组中列出,而不是在各个值所属的组中。

        解决办法:无。

      • 如果启用了调试直接内存访问 (DMA) 映射程序,则可能会出现 I/O 内存管理单元 (IOMMU) 故障
        此调试映射程序会将设备置于 IOMMU 域中,以便于捕获对未明确映射的地址的设备内存访问。在某些使用旧版固件的 HP 系统上,可能会出现 IOMMU 故障。

        解决办法:从 HP 网站下载固件升级,然后加以应用。

        • 升级 HP iLO2 控制器的固件。
          2011 年 8 月发布的 2.07 版可解决此问题。
        • 升级 HP Smart Array 的固件。
          2012 年 1 月发布的 HP Smart Array P410 5.14 版可解决此问题。

         

      VMware Tools 问题

      • VMware Tools 升级后文件会消失
        升级 VMware Tools 后,未找到 C:\Program Files\Vmware\Vmware Tools\中的 deployPkg.dll文件。从版本 5.1 Update 2 升级到 5.5 Update 1 或更高版本,以及从版本 5.5 升级到 5.5 Update 1 或更高版本后,会出现该问题。

        解决办法:无
      • 通过 OSP 安装或卸载 VMware Tools 时会强制用户注销
        在使用操作系统特定软件包 (OSP) 安装的 RHEL (Red Hat Linux Enterprise) 和 CentOS 虚拟机中安装或卸载 VMware Tools 软件包时,将强制当前用户注销。RHEL 6.5 64 位、RHEL 6.5 32 位、CentOS 6.5 64 位和 CentOS 6.5 32 位虚拟机中会出现此问题。

        解决办法:
        • 使用安全 shell (SSH) 安装或卸载 VMware Tools,
          或者
        • 用户必须再次登录以安装或卸载 VMware Tools 软件包