ESXi 4.1 Update 3 Installable | 2012 年 8 月 30 日 | 内部版本 800380
ESXi 4.1 Update 3 Embedded | 2012 年 8 月 30 日 | 内部版本 800380
VMware Tools | 2012 年 8 月 30 日 | 内部版本 784891

文档最近更新日期:2012 年 9 月 13 日

本发行说明包含以下主题:

新增功能

以下信息介绍了本版本的 VMware ESXi 中提供的一些增强功能:

  • 持其他客户机操作系统 本版本更新了对许多客户机操作系统的支持。 有关本版本所支持的客户机操作系统的完整列表,请参见 《VMware 兼容性指南》
  • 已解决的问题 本版本还提供了许多已在 已解决的问题部分中记录的缺陷修复。

返回页首

ESXi 4.1 的早期版本

各个版本的发行说明中分别描述了 ESXi 4.1 的早期版本的功能和已知问题。要查看 ESXi 4.1 的早期版本的发行说明,请单击下列链接之一:

返回页首

开始前

ESXi、vCenter Server 和 vSphere Client 版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 1.2.2 增加了对 ESXi 4.1 Update 3 和 vCenter Server 4.1 Update 3 版本的支持。有关 VDDK 的更多详细信息,请访问 https://www.vmware.com/support/developer/vddk/

硬件兼容性

安装和升级

有关安装和配置 ESX Installable 和 vCenter Server 的分步指导,请阅读 《ESXi Installable 和 vCenter Server 安装指南》 ; 有关安装 ESXi Embedded 和 vCenter Server 的分步指导,请阅读 《ESXi Embedded 和 vCenter Server 安装指南》

成功安装 ESXi Installable 或成功引导 ESXi Embedded 之后, 必须进行若干配置步骤。尤其是, 许可、网络连接和安全性配置步骤必不可少。有关这些配置任务 的指导,请参见 vSphere 文档中的 以下指南。

如果已安装了 VirtualCenter 2.x,请参见 《vSphere 升级指南》,以了解有关在 64 位 操作系统上安装 vCenter Server 和保留 VirtualCenter 数据库的说明。

与 ESXi 相关的管理信息库 (MIB) 文件不与 vCenter Server 捆绑。vCenter Server 4.0.X 仅随附了与 vCenter Server 相关的 MIB 文件。所有 MIB 文件都可以从 VMware 网站下载, 网址为: http://downloads.vmware.com/cn/d/

升级 VMware Tools

VMware ESXi 4.1 Update 3 包含最新版本的 VMware Tools。VMware Tools 是 一套实用程序,能够增强虚拟机的客户机操作 系统的性能。有关在此版本的 ESXi 中已解决的与 VMware Tools 相关的问题列表,请参见 VMware Tools 已解决的问题

要确定已安装的 VMware Tools 版本,请参见 验证 VMware Tools 内部版本(知识库文章 1003947)。

升级或迁移到 ESXi 4.1 Update 3

ESXi 4.1 Update 3 提供了以下升级选项:

  • VMware vCenter Update Manager。支持从 ESXi 3.5 Update 5、ESXi 4.0.x、ESXi 4.1、ESXi 4.1 Update 1 和 ESXi 4.1 Update 2 直接升级到 ESXi 4.1 Update 3 的 vSphere 模块。
  • vihostupdate支持 从 ESXi 4.0、ESXi 4.1 Update 1 和 ESXi 4.1 Update 2 直接升级到 ESXi 4.1 Update 3 的命令行实用程序。 此实用程序要求安装 vSphere CLI。有关更多详细信息,请参见 《vSphere 升级指南》。要应用 VEM 捆绑包, 请执行使用 vihostupdate 实用程序的解决办法。这样就可将 ESXi 4.1 Update 3 Embedded 主机添加到 Cisco Nexus 1000 AV 2 vDS。

支持主机升级到 ESXi 4.1 Update 3 的升级途径

升级交付产品

受支持的升级工具
支持升级到 ESXi 4.1 Update 3 的升级途径

ESXi 3.5 Update 5

ESXi 4.0
包括
ESXi 4.0 Update 1
ESXi 4.0 Update 2

ESXi 4.0 Update 3
ESXi 4.0 Update 4

ESXi 4.1
包括
ESXi 4.1 Update 1

ESXi 4.1 Update 2

upgrade-from-ESXi3.5-to-4.1_update03.800380.zip

 

带有主机升级基准的 VMware vCenter Update Manager

upgrade-from-esxi4.0-to-4.1-update03-800380.zip
  • 带有主机升级基准的 VMware vCenter Update Manager
  • vihostupdate

update-from-esxi4.1-4.1_update03.zip
  • 带有修补程序基准的 VMware vCenter Update Manager
  • vihostupdate

使用从 VMware 门户(联机)下载的修补程序定义从 ESXi 4.1 升级到 4.1.x 带有修补程序基准的 VMware vCenter Update Manager

注意

升级 vSphere Client

将 vCenter Server 或 ESX/ESXi 主机升级到 vSphere 4.1 Update 3 后,您必须将 vSphere Client 升级到 vSphere Client 4.1 Update 3。使用升级后的 vSphere Client 访问 vSphere 4.1 Update 3。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

除 ZIP 文件格式外,ESXi 4.1 Update 3 版本(包括 Embedded 和 Installable)以修补程序的形式发布,可应用到现有的 ESXi 4.1 软件安装中。

修补程序版本 ESXi410-Update03 包含下列各公告:

ESXi410-201208201-UG:更新 ESXi 4.1 固件
ESXi410-201208202-UG:更新 ESXi 4.1 工具

修补程序版本 ESXi410-Update03 Security-only 包含下列各公告:

ESXi410-201208101-SG:更新 ESXi 4.1 Security-only 固件
ESXi410-201208102-SG:更新 ESXi 4.1 工具

已解决的问题

本节介绍了此版本中以下几个主题方面的已解决的问题:

CIM 和 API

  • 当前为 Emulex CIM 提供程序设置的 256 个文件描述符的上限并不足够
    Emulex CIM 提供程序会超出 256 个文件描述符的 SFCB 分配,导致 ESXi 主机上的套接字资源耗尽。

    已通过增加套接字限制和优化预分配的套接字对解决了该问题。
  • 在某些服务器上 ESXi 4.1 Update 2 系统事件日志 (SEL) 为空
    如果 ESXi 4.1 Update 2 在某些物理服务器上运行,则 vSphere Client 中的系统事件日志可能为空。主机的 IPMI 日志 ( /var/log/ipmi/0/sel) 也可能为空。
    可能会向 /var/log/messages中写入类似以下内容的错误消息:
    Dec 8 10:36:09 esx-200 sfcb-vmware_raw[3965]:IpmiIfcSelReadAll:failed call to IpmiIfcSelReadEntry cc = 0xff

    本版本已解决该问题。

客户机操作系统

  • 运行 kexec 时 SMP 虚拟机出现故障并显示监视器严重错误
    Linux 内核崩溃时,可能会使用 linux kexec功能以便引导至特殊 kdump内核并收集崩溃转储文件。通过 kexec配置的 SMP Linux 客户机可能导致虚拟机在此重新引导期间出现故障并显示监视器严重错误。可能会记录诸如以下内容的错误消息:

    vcpu-0| CPU reset:soft (mode 2)
    vcpu-0| MONITOR PANIC:vcpu-0:VMM fault 14:src=MONITOR rip=0xfffffffffc28c30d regs=0xfffffffffc008b50

    本版本已解决该问题。
  • 尝试在某些 ESXi 版本上安装具有默认内存大小的 Solaris 10 时,虚拟机的客户机操作系统报告内核严重错误
    尝试在 ESXi 上安装 Solaris 10 时,虚拟机的客户机操作系统报告内核严重错误并显示下列消息:
    panic[cpu0]/thread=fffffffffbc28340 ..page_unlock:...

    本版本中通过将默认内存大小增加到 3GB 解决了该问题。

其他

  • 在 ESXi 上,为软件 iSCSI 和从属 iSCSI 适配器分配的 iSCSI 启动器登录超时值不足
    在 ESXi 主机上同时尝试多个登录操作时,登录过程会因登录超时值不足而失败。

    通过允许用户配置登录超时值来解决该问题。
  • 在 visorfs 文件系统上,ESXi 主机无法捕获 vm-support 实用程序的 vdf 输出
    用于捕获 vdf输出的选项在 ESXi 中不可用,没有该选项时用户可能无法了解 Ramdisk 空间使用情况。

    通过在 vm-support中包含 vdf –h命令来解决该问题。
  • 由于 IBM 设备的 USB 日志涌出,ESXi 主机无响应
    由于非直通 IBM 设备(如 RSA2 或 RNDIS/CDC Ether)的类似于以下内容的 USB 日志消息持续涌出,ESXi 主机可能无响应。即使未配置任何使用 USB 直通选项的虚拟机,仍会发生该问题。

    USB messages:usb X-Y:usbdev_release :USB passthrough device opened for write but not in use:0, 1

    本版本已解决该问题。
  • 热移除 SCSI 磁盘失败并显示错误
    成功热添加 SCSI 磁盘后,热移除该磁盘可能会失败,并显示 disk not present错误。将向 vmx日志中写入类似下列内容的错误消息:

    2010-06-22T19:40:26.214Z| vmx| scsi2:11:Cannot retrieve shares:A one-of constraint has been violated (-19)
    2010-06-22T19:40:26.214Z| vmx| scsi2:11:Cannot retrieve sched/limit/:A one-of constraint has been violated (-19)
    2010-06-22T19:40:26.214Z| vmx| scsi2:11:Cannot retrieve sched/bandwidthCap/:A one-of constraint has been violated (-19)
    2010-06-22T19:40:33.285Z| vmx| [msg.disk.hotremove.doesntexist] scsi2:11 is not present.
    2010-06-22T19:40:33.285Z| vmx| [msg.disk.hotremove.Failed] Failed to remove scsi2:11.

    本版本已解决该问题。
  • 当 DNS 域后缀与 Active Directory 域名称不同时,无法将 ESXi 主机加入 Active Directory

    本版本已解决该问题。

网络连接

  • 当虚拟机网络限制设置为大于 2048Mbps 的值时,该限制无法正常起作用
    在 ESXi 主机上,如果您配置 Network I/O Control (NetIOC),将 [虚拟机流量][主机限制] 设置为大于 2048Mbps 的值,将不强制执行带宽限制。

    本版本已解决该问题。
  • vMotion 操作失败后,ESXi 主机失败并显示紫屏
    vMotion 操作失败后,ESXi 主机可能会失败并显示紫色诊断屏幕,其中显示 Exception 14错误。

    @BlueScreen:#PF Exception 14 in world 4362:vemdpa IP 0x418006cf1edc addr 0x588
    3:06:49:28.968 cpu8:4362)Code start:0x418006c00000 VMK uptime:3:06:49:28.968
    3:06:49:28.969 cpu8:4362)0x417f80857ac8:[0x418006cf1edc]Port_BlockNotify@vmkernel:nover+0xf stack:0x4100afa10000
    3:06:49:28.969 cpu8:4362)0x417f80857af8:[0x418006d5c81d]vmk_PortLinkStatusSet@vmkernel:nover+0x58 stack:0x417fc88e3ad8
    3:06:49:28.970 cpu8:4362)0x417f80857b18:[0x41800723a310]svs_set_vnic_link_state@esx:nover+0x27 stack:0x4100afb3f530
    3:06:49:28.971 cpu8:4362)0x417f80857b48:[0x418007306a9f]sf_platform_set_link_state@esx:nover+0x96 stack:0x417f80857b88
    3:06:49:28.971 cpu8:4362)0x417f80857b88:[0x41800725a31e]sf_set_port_admin_state@esx:nover+0x149 stack:0x41800000002c
    3:06:49:28.972 cpu8:4362)0x417f80857cb8:[0x4180072bb5f0]sf_handle_dpa_call@esx:nover+0x657 stack:0x417f80857cf8

    在使用 Cisco Nexus 1000v 交换机的环境中会出现该问题。

    本版本已解决该问题。
  • 不显示 VLAN 的 IP 地址范围
    如果运行 esxcfg-info命令,网络提示将不显示物理网卡的某些 VLAN IP 地址范围。此外,该 IP 地址范围也不显示在 vCenter Server UI 中。将向 vmkernel.log中写入类似于以下内容的错误消息:
    Dec 17 03:38:31 vmmon2 vmkernel:8:19:26:44.179 cpu6:4102)NetDiscover:732: Too many vlans for srcPort 0x2000002; won't track vlan 273

    本版本已解决该问题。

  • PCI 设备驱动程序 e1000e 在 Intel 82571EB 序列化器-反序列化器上不支持备用 MAC 地址功能
    设备 ID 为 1060 的 PCI 设备 Intel 82571EB 序列化器-反序列化器支持备用 MAC 地址功能,但是该设备的设备驱动程序 e1000e 不支持该功能。

    本版本已解决该问题。
  • IBM 服务器尝试插入慢路径数据包时失败并显示紫色诊断屏幕
    如果复制与慢路径数据包相关联的元数据但未检查是否映射了足够的数据,则元数据会移出框架映射区域并导致页面故障。通过在复制前映射必要的数据以包含元数据来解决该问题。
  • 如果在 ESXi 上禁用合并,主机会出现故障并显示紫屏
    在 ESXi 中, vmxnet3在某些虚拟机上用作 vNIC 并且您禁用了数据包合并功能时,ESXi 主机会出现故障并在该虚拟机引导期间显示紫色屏幕。

    通过更正合并检查和断言逻辑来解决该问题。
  • 基于负载的成组更改时,vNIC 端口映射 vmkernel 无法发送反向地址解析协议
    如果基于 pNIC 负载的路由是 dvs 端口组的成组策略,并且在一些 pNIC 饱和时 vNIC 到 pNIC 映射发生更改,则 vmkernel 无法发出 RARP 数据包来就此更改更新物理交换机,从而导致虚拟机失去网络连接。

    本版本已解决该问题。
  • ESXi 主机的 vSwitch 配置显示为空白
    ESXi 主机的网络配置可能在 vSphere Client 上显示为空白。从本地技术支持模式控制台运行命令 esxcfg-vswitch -l失败,并显示以下错误:

    Failed to read advanced option subtree UserVars:Error interacting with configuration file
    /etc/vmware/esx.conf: Unlock of ConfigFileLocker failed :Error interacting with configuration file /etc/vmware/esx.conf:I am being asked to delete a .LOCK file that I'm not sure is mine. This is a bad thing and I am going to fail. Lock should be released by (0)

    将向 hostd.log日志中写入类似以下内容的错误消息:

    [2011-04-28 14:22:09.519 49B40B90 verbose 'App'] Looking up object with name = "firewallSystem" failed.
    [2011-04-28 14:22:09.610 49B40B90 verbose 'NetConfigProvider'] FetchFn:List of pnics opted out
    [2011-04-28 14:22:09.618 49B40B90 info 'HostsvcPlugin'] Failed to read advanced option subtree UserVars:Error interacting with configuration file /etc/vmware/esx.conf: Unlock of ConfigFileLocker failed :Error interacting with configuration file /etc/vmware/esx.conf:I am being asked to delete a .LOCK file that I'm not sure is mine. This is a bad thing and I am going to fail.Lock should be released by (0)

    本版本已解决该问题。
  • 安装 VMware Tools 后,与配置为使用 IPv6 的虚拟机进行网络连接可能会失败
    安装 VMware Tools 后,与内核版本为 2.6.34 及更高版本且配置为使用 IPv6 的客户机操作系统进行网络连接可能会失败。

    本版本已解决该问题。
  • vSphere Client 可能无法显示某些客户机操作系统上的 IPv6 地址
    在某些客户机操作系统上,IPv6 地址可能不会显示在 vSphere Client 以及命令 vmware-vim-cmd中。

    本版本已解决该问题。

  • 在 ESXi 主机上运行 esxcli network connection list 命令会显示错误消息
    当 ESXi 主机正在运行 vSphere HA (FDM) 代理和 ICMP ping 等原始 IP 连接时, esxcli network connection list命令可能会显示类似下列内容的错误消息:

    terminate called after throwing an instance of 'VmkCtl::Lib::SysinfoException' what():Sysinfo error on operation returned status :Bad parameter.Please see the VMkernel log for detailed error information Aborted

    本版本已解决该问题。

安全

  • 对 ThinPrint 代理的更新中删除了 DLL 调用
    作为安全性强化措施,此更新删除了对不存在的 ThinPrint DLL 的调用。
    VMware 要感谢来自 Comsec Consulting 的 Moshe Zioni 向我们报告此问题。

服务器配置

  • 已禁用 [页面共享] 的 ESXi 主机会失败并显示紫屏
    如果您对已禁用引导时选项 [页面共享] 的 ESXi 主机执行 vMotion 操作,则 ESXi 主机可能会失败并显示紫屏。
    严格禁用 [页面共享] 会影响 ESXi 主机的性能。由于始终都不应禁用 [页面共享],因此从本版本开始,[页面共享] 配置选项已移除。
  • ESXi 主机记录不正确的 C1E 状态
    vmkernel.log和 dmesg 命令可能显示消息 C1E 已由 BIOS 启用 (C1E enabled by the BIOS)。该消息即使在 C1E 已由 BIOS 禁用时也可能会显示,而且即使在 C1E 已由 BIOS 启用时也可能不会显示。

存储

  • PSA 组件的存储日志消息需要一些增强功能
    ESXi 主机中的错误日志记录机制不记录所有存储错误消息,因此对存储问题进行故障排除变得非常困难。

    通过为 PSA 组件的日志消息提供一些增强功能来解决该问题。
  • 当虚拟机引用共享 VMDK 文件时,恢复到快照失败
    在某一环境中,如果同一台 ESXi 主机上的两台已打开电源的虚拟机引用了某一共享 VMDK 文件,则在任何一台虚拟机上尝试恢复到快照可能会失败,并且 vSphere Client 可能会显示 File lock错误。VMFS 和 NFS 数据存储都会发生该问题。

    本版本已解决该问题。
  • 损坏的 VMFS 卷导致 VMFS 堆内存耗尽
    当 ESXi 主机遇到损坏的 VMFS 卷时,VMFS 驱动程序可能会泄露内存,导致 VMFS 堆耗尽。这会停止所有 VMFS 操作,造成虚拟机孤立和缺少数据存储的情况。vMotion 操作可能不起作用,如果尝试启动新的虚拟机,则可能会失败,并显示与缺少文件和内存耗尽相关的错误。此问题可能影响共享损坏的 LUN 并且已在该 LUN 上运行虚拟机的所有 ESXi 主机。

    本版本已解决该问题。
  • 在冷迁移过程中 VirtualCenter Agent 服务失败
    在冷迁移虚拟机过程中 VirtualCenter Agent 服务 ( vpxa) 可能会失败。将向 vpxd.log中写入类似以下内容的错误消息:

    [2011-11-02 12:06:34.557 03296 info 'App' opID=CFA0C344-00000198] [VpxLRO] -- BEGIN task-342826 -- vm-2851 -- vim.VirtualMachine.relocate -- 8D19CD22-FD15-44B9-9384-1DB4C1A7F7A2(ED8C34F5-CE61-4260-A8C1-D9CA5C2A1C4B)
    [2011-11-02 12:20:05.509 03296 error 'App' opID=CFA0C344-00000198] [VpxdVmprovUtil] Unexpected exception received during NfcCopy
    [2011-11-02 12:20:05.535 03296 error 'App' opID=CFA0C344-00000198] [migrate] (SINITAM02) Unexpected exception (vmodl.fault.HostCommunication) while relocating VM. Aborting.

    本版本已解决该问题。
  • VMW_SATP_LSI 插件超时问题导致路径抖动
    在某些情况下,由 VMW_SATP_LSI 插件占用的存储控制器上的逻辑单元 (LU) 可能无法在插件超时期限(5 秒)内响应插件发出的路径评估命令。如果两台或更多台 vSphere 主机以共享方式访问上述受影响的 LU,则可能会导致路径抖动(请参见 了解路径抖动)。

    在本版本中,VMW_SATP_LSI 插件中的超时值已增加到 10 秒。在安装该更新之前,请咨询存储器供应商,以确定客户机操作系统的 I/O 超时值。
  • 无法使用 vSphere Client 在 ESXi 4.x 主机上创建超过 2TB-512B 的数据存储
    在本版本之前,可以使用 vSphere 命令行界面创建超过 2TB-512B 的数据存储。但是,这是不受支持的配置。

    现在,使用 vSphere CLI 创建超过 2TB-512 的数据存储会正常失败。
  • 在检测信号回收操作过程中记录警告消息
    当正在执行 VMFS 检测信号回收操作时,或者在基础设备上执行虚拟重置操作时,VMFS 可能会向卷发出 I/O。因此,将记录类似于以下内容的警告消息:

    WARNING:ScsiDeviceIO:2360: Failing WRITE command (requiredDataLen=512 bytes) to write-quiesced partition naa.9999999999

    另外,ESX 控制台将报告警示消息。

    这些警告和警示没有危害性,可以忽略。

    在本版本中,警示消息将移除,警告将更改为日志消息。
  • 安装某些版本的 VMware Tools 导致日志涌出
    当安装某些版本的 VMware Tools(例如,版本 8.3.7)时,将向 vmkernel.log写入类似以下内容的涌出消息:

    Nov 22 11:55:06 vm_name-c vmkernel:107:01:39:59.667 cpu12:21263)VSCSIFs:329: handle 9267(vscsi0:0):Invalid Opcode (0xd1)
    Nov 22 11:55:06 vm_name-c vmkernel:107:01:39:59.687 cpu5:9487)VSCSIFs:329: handle 9261(vscsi0:0):Invalid Opcode (0xd1)

    本版本已解决该问题。
  • 已为支持 ALUA 的 LSI 阵列更改默认 SATP 插件
    在 ESXi 4.1Update2 主机上,LSI 阵列的默认存储阵列类型插件 (SATP) 是 VMW_SATP_LSI,该插件不支持非对称逻辑单元访问 (ALUA) 功能。从本版本开始,支持 ALUA 的 LSI 阵列的 SATP 插件已更改为 VMW_SATP_ALUA,因此 TPGS/ALUA 阵列会自动由默认 VMW_SATP_ALUA satp 插件声明。以下存储阵列由 VMW_SATP_ALUA 声明:
    供应商型号描述
    • LSI INF-01-00
    • IBM ^1814* DS4000
    • IBM ^1818* DS5100/DS5300
    • IBM ^1746* IBM DS3512/DS3524
    • DELL MD32xx Dell MD3200
    • DELL MD32xxi Dell MD3200i
    • DELL MD36xxi Dell MD3600i
    • DELL MD36xxf Dell MD3600f
    • SUN LCSM100_F
    • SUN LCSM100_I
    • SUN LCSM100_S
    • SUN STK6580_6780 Sun StorageTek 6580/6780
    • SUN SUN_6180 Sun Storage 6180
    • SGI IS500 SGI InfiniteStorage 4000/4100
    • SGI IS600 SGI InfiniteStorage 4600
  • 在 ESXi 主机上,从包含 468 个以上文件的目录中删除文件时,ESXi 主机可能会报告 VMFS 卷已损坏
    尝试从包含 468 个以上文件的目录中删除文件或删除该目录本身可能会失败,ESXi 主机可能会错误地报告 VMFS 已损坏。ESXi 主机将在 /var/log/ messages中记录类似于以下内容的错误消息:

    cpu10:18599)WARNING:Fil3:10970: newLength 155260 but zla 2
    cpu10:18599)Fil3:7054: Corrupt file length 155260, on FD <70, 93>, not truncating

    本版本已解决该问题。
  • 当 VMW_SATP_LSI 模块的堆内存不足时,ESXi 主机停止响应
    如果服务器可访问由 VMW_SATP_LSI 模块占用的 LUN,则会发生此问题。VMW_SATP_LSI 模块中的内存泄露会强制此模块用尽内存。将向 vmkernel.log文件中记录类似以下内容的错误消息:

    Feb 22 14:18:22 [host name] vmkernel:2:03:59:01.391 cpu5:4192)WARNING:Heap:2218: Heap VMW_SATP_LSI already at its maximumSize.Cannot expand.
    Feb 22 14:18:22 [host name] vmkernel:2:03:59:01.391 cpu5:4192)WARNING:Heap:2481: Heap_Align(VMW_SATP_LSI, 316/316 bytes, 8 align) failed. caller:0x41800a9e91e5
    Feb 22 14:18:22 [host name] vmkernel:2:03:59:01.391 cpu5:4192)WARNING:VMW_SATP_LSI:satp_lsi_IsInDualActiveMode:Out of memory.

    本版本已解决 VMW_SATP_LSI 模块中的内存泄露问题。
  • 在对 VMFS 卷进行重新签名时,ESXi 主机可能会失败,并显示紫屏
    在对 VMFS 卷执行重新签名操作时,ESXi 主机可能会失败,并显示紫色诊断屏幕,其中显示了类似于以下内容的错误消息。

    #DE Exception 0 in world 20519269:helper22-6 @ 0x418024b26a33
    117:05:20:07.444 cpu11:20519269)Code start:0x418024400000 VMK uptime:117:05:20:07.444
    117:05:20:07.444 cpu11:20519269)0x417f84b2f290:[0x418024b26a33]Res3_ExtendResources@esx:nover+0x56 stack:0x4100ab400040
    117:05:20:07.445 cpu11:20519269)0x417f84b2f2e0:[0x418024af9a58]Vol3_Extend@esx:nover+0x9f stack:0x0
    117:05:20:07.445 cpu11:20519269)0x417f84b2f4f0:[0x418024afd3f6]Vol3_Open@esx:nover+0xdc9 stack:0x417f84b2f668
    117:05:20:07.446 cpu11:20519269)0x417f84b2f6a0:[0x4180246225d1]FSS_Probe@vmkernel:nover+0x3ec stack:0x417f84b2f6f0
    117:05:20:07.446 cpu11:20519269)0x417f84b2f6f0:[0x41802463d0e6]FDS_AnnounceDevice@vmkernel:nover+0x1dd stack:0x3133306161336634

    本版本已解决该问题。
  • 在对 VMware View 执行重组操作时,ESXi 主机会出现故障,并显示紫屏,其中包含 [定时器内存不足] 错误消息
    在对 VMware View 执行重组操作时,ESXi 主机可能会出现故障,并显示紫色诊断屏幕,其中显示了类似于下列内容的错误消息和堆栈跟踪:

    @BlueScreen:Out of memory for timers
    0:20:06:44.618 cpu38:4134)Code start:0x418033600000 VMK uptime:0:20:06:44.618
    0:20:06:44.619 cpu38:4134)0x417f80136cf8:[0x418033658726]Panic@vmkernel:nover+0xa9 stack:0x417f80136d78
    0:20:06:44.619 cpu38:4134)0x417f80136d28:[0x41803367958e]TimerAlloc@vmkernel:nover+0x10d stack:0x9522bf175903
    0:20:06:44.619 cpu38:4134)0x417f80136d78:[0x418033679fbb]Timer_AddTC@vmkernel:nover+0x8a stack:0x4100b8317660
    0:20:06:44.620 cpu38:4134)0x417f80136e08:[0x41803384d964]SCSIAsyncDeviceCommandCommon@vmkernel:nover+0x2f7 stack:0x41037db8c
    0:20:06:44.620 cpu38:4134)0x417f80136e58:[0x41803383fbed]FDS_CommonAsyncIO@vmkernel:nover+0x48 stack:0x410092dea0e8

    本版本已解决该问题。
  • 由于 VMFS 模块中的问题,ESXi 主机可能失败,并显示紫色诊断屏幕。
    由于 VMFS 模块中的问题,ESXi 主机可能失败,并显示紫色诊断屏幕,其中显示了类似于以下内容的错误消息。

    @BlueScreen:#PF Exception 14 in world 8008405:vmm0:v013313 IP 0x418001562b6d addr 0x28
    34:15:27:55.853 cpu9:8008405)Code start:0x418000e00000 VMK uptime:34:15:27:55.853
    34:15:27:55.853 cpu9:8008405)0x417f816af398:[0x418001562b6d]PB3_Read@esx:nover+0xf0 stack:0x41000e1c9b60
    34:15:27:55.854 cpu9:8008405)0x417f816af468:[0x4180015485df]Fil3ExtendHelper@esx:nover+0x172 stack:0x0
    34:15:27:55.854 cpu9:8008405)0x417f816af538:[0x41800154ded4]Fil3_SetFileLength@esx:nover+0x383 stack:0xa00000001
    34:15:27:55.854 cpu9:8008405)0x417f816af5a8:[0x41800154e0ea]Fil3_SetFileLengthWithRetry@esx:nover+0x6d stack:0x417f816af5e8
    34:15:27:55.854 cpu9:8008405)0x417f816af638:[0x41800154e38b]Fil3_SetAttributes@esx:nover+0x246 stack:0x41027fabeac0
    34:15:27:55.854 cpu9:8008405)0x417f816af678:[0x41800101de7e]FSS_SetFileAttributes@vmkernel:nover+0x3d stack:0x1000b000
    34:15:27:55.855 cpu9:8008405)0x417f816af6f8:[0x418001434418]COWUnsafePreallocateDisk@esx:nover+0x4f stack:0x4100a81b4668
    34:15:27:55.855 cpu9:8008405)0x417f816af728:[0x418001434829]COWIncrementFreeSector@esx:nover+0x68 stack:0x3
    34:15:27:55.855 cpu9:8008405)0x417f816af7b8:[0x418001436b1a]COWWriteGetLBNAndMDB@esx:nover+0x471 stack:0xab5db53a0
    34:15:27:55.855 cpu9:8008405)0x417f816af908:[0x41800143761f]COWAsyncFileIO@esx:nover+0x8aa stack:0x41027ff88180
    34:15:27:55.855 cpu9:8008405)0x417f816af9a8:[0x41800103d875]FDS_AsyncIO@vmkernel:nover+0x154 stack:0x41027fb585c0
    34:15:27:55.856 cpu9:8008405)0x417f816afa08:[0x4180010376cc]DevFSFileIO@vmkernel:nover+0x13f stack:0x4100077c3fc8

    本版本已解决该问题。
  • 处理 4G DMA 边界地址时,Emulex LPe12000 驱动程序出现数据损坏
    在 ESXi 主机中,Emulex LPe12000 驱动程序无法设置主机模板中的 dma_boundary值时,dma_boundary 值被设置为零。这会导致 SG 列表地址超出为驱动程序定义的地址边界,从而导致数据损坏。

    本版本已解决该问题。

支持的硬件

  • 无法更改在 IBM BladeCenter HX5 UEFI 服务器上运行的 ESXi 主机的电源策略
    在尝试更改 IBM BladeCenter HX5 UEFI 服务器上运行的 ESXi 主机的电源策略时,vSphere Client 上的电源管理设置将显示以下消息:

    技术:不可用
    活动策略:不支持 (Technology: Not Available Active Policy: Not Supported)。

    本版本已解决该问题。

vCenter Server、vSphere Client 和 vSphere Web Access

  • Hostd 和 vpxa 服务失败,并且 ESXi 主机与 vCenter Server 断开连接
    sfcb-vmware_base TIMEOUT错误可能导致 hostd 和 vpxa 服务失败,并使 ESXi 主机暂时与 vCenter Server 断开连接。将向 /var/log/messages写入类似以下内容的错误消息:

    Jan 30 12:25:17 sfcb-vmware_base[2840729]:TIMEOUT DOING SHARED SOCKET RECV RESULT (2840729)
    Jan 30 12:25:17 sfcb-vmware_base[2840729]:Timeout (or other socket error) waiting for response from provider
    Jan 30 12:25:17 sfcb-vmware_base[2840729]:Request Header Id (1670) != Response Header reqId (0) in request to provider 685 in process 3. Drop response.
    Jan 30 12:25:17 vmkernel:7:19:02:45.418 cpu32:2836462)User:2432: wantCoreDump :hostd-worker -enabled :1

    本版本已解决该问题。
  • vSphere Client 显示错误的虚拟机数据
    vSphere Client 概览性能图表可能会显示虚拟机的数据,即使在虚拟机关闭电源时也是如此。

    本版本已解决该问题。

虚拟机管理

  • VMX 文件可能会在静默快照操作过程中被损坏
    在使用 VSS 服务、VMware Tools SYNC 驱动程序或备份代理创建虚拟机的静默快照时,hostd 会写入 .vmx文件。因此, .vmx文件将变为空白。

    本版本已解决该问题。
  • 如果禁用 [分页],虚拟机将失败并出现监视器严重错误
    将向 vmware.log中写入类似以下内容的错误消息:

    Aug 16 14:17:39.158:vcpu-0| MONITOR PANIC:vcpu-1:VMM64 fault 14:src=MONITOR rip=0xfffffffffc262277 regs=0xfffffffffc008c50

    本版本已解决该问题。
  • 如果 ESXi 主机安装有基于 NetBurst 的 CPU,则该主机上的 Windows 2003 虚拟机需要很长时间才能重新启动
    如果 ESXi 主机安装有基于 NetBurst 的 CPU,则重新启动具有共享内存页的 Windows 2003 Server 虚拟机可能需要大约 5 到 10 分钟的时间。但是,您可以关闭同一台虚拟机并打开该虚拟机的电源,而不会有任何延迟。

    本版本已解决该问题。
  • 有时,虚拟机的重新配置任务因死锁失败
    在某些情况下,虚拟机的重新配置任务因死锁失败。在执行重新配置和数据存储更改操作时会出现死锁。

    本版本已解决该问题。
  • 删除虚拟机会导致移除未关联的虚拟磁盘
    如果在创建虚拟机快照后删除该虚拟机,则可能会同时删除先前已从该虚拟机分离的独立或非独立虚拟磁盘。

    本版本已解决该问题。
  • VMDirectIO 在 ESXi 和虚拟机之间的 PCI 配置空间值不一致
    在直通模式下为网络接口适配器设置 VMDirectIO 路径并将其分配给虚拟机时,设备控制寄存器的中断禁用位 (INTx) 状态对虚拟机显示为已启用,对 ESXi 显示为已禁用。这不正确,因为 INTx 值对于两者都应处于已启用状态。

    本版本已解决该问题。
  • 从桥接网卡发送的网桥协议数据单元帧会禁用物理上行链路
    在物理交换机端口上启用 BPDU 防护时,从桥接虚拟网卡发送的 BPDU 帧会导致物理上行链路被禁用,从而使上行链路出现故障。
    找到发出 BPDU 数据包的主机,然后在该主机上设置 esxcfg-advcfg -s 1 /Net/BlockGuestBPDU。该命令可从虚拟网卡中筛选出 BPDU 数据包并阻止它们。仅在启用该筛选器后打开具有桥接虚拟网卡的虚拟机的电源时,该筛选器才会生效。

    本版本已解决该问题。
  • 无法通过 API 移除虚拟机的 extraConfig 设置
    本版本已解决该问题。

VMware HA 和 Fault Tolerance

  • 在 ESXi 主机上运行的辅助 FT 虚拟机可能会失败
    在 ESXi 主机上,安装有 VMXNET 3 适配器的辅助 Fault Tolerance 虚拟机可能会失败。将向 vmware.log中写入类似以下内容的错误消息:

    Dec 15 16:11:25.691:vmx| GuestRpcSendTimedOut:message to toolbox timed out.
    Dec 15 16:11:25.691:vmx| Vix:[115530 guestCommands.c:2468]:Error VIX_E_TOOLS_NOT_RUNNING in VMAutomationTranslateGuestRpcError():VMware Tools are not running in the guest
    Dec 15 16:11:30.287:vcpu-0| StateLogger::Commiting suicide:Statelogger divergence
    Dec 15 16:11:31.295:vmx| VTHREAD watched thread 4 "vcpu-0" died

    安装有 E1000 适配器的虚拟机不会出现该问题。

    本版本已解决该问题。

vMotion 和 Storage vMotion

  • 将 Windows 2008 虚拟机从 ESX4.0 实时迁移到 ESX4.1 然后执行 Storage vMotion 时,静默快照会失败
    对于 Windows 2008 虚拟机,在 ESXi 4.1 上执行 Storage vMotion 操作,默认情况下会将 disk.enableUUID设置为 true,因而启用应用程序静默。随后的静默快照操作会失败,直到重新启动虚拟机。

    本版本已解决该问题。

VMware Tools

  • 在 Windows 2008 R2 客户机操作系统中卸载 VMware Tools 时,无法移除 VMware Snapshot Provider 服务 (vmvss)

    本版本已解决该问题。
  • 升级 VMware Tools 后,某些 SLES 虚拟机不重新启动
    在某些 SLES 虚拟机(例如,SLES 10 SP4 和 SLES 11 SP2)上升级 VMware Tools 后,尝试重新启动虚拟机可能会失败,并显示 等待 sda2.......未响应 (waiting for sda2....... not responding)错误消息。出现此问题的原因是,在卸载 VMware Tools 的过程中删除了 /etc/sysconfig/kernel中的 INITRD_MODULES选项。

    本版本已解决该问题。但是,如果从早期版本的 VMware Tools 升级到本版本中提供的 VMware Tools 版本,仍可能出现该问题。请参见 Novell 网站上的技术信息文档 (TID) 7005233。
  • 在 ESXi 4.1 Update 1 上执行 VMware Tools 升级超时
    对于在 ESXi 4.1 Update 1 上运行的虚拟机,尝试升级 VMware Tools 时可能会超时。将向 vmware.log中写入类似以下内容的错误消息:

    Nov 30 15:36:34.839:vcpu-0| TOOLS INSTALL finished copying upgrader binary into guest.Starting Upgrader in guest.
    Nov 30 15:36:34.840:vcpu-0| TOOLS INSTALL Sending "upgrader.create 1"
    Nov 30 15:36:34.902:vcpu-0| TOOLS INSTALL Received guest file root from upgrader during unexpected state...ignoring.
    Nov 30 15:36:34.904:vcpu-0| GuestRpc:Channel 6, unable to send the reset rpc.
    Nov 30 15:36:34.905:vcpu-0| GuestRpc:Channel 6 reinitialized.

    本版本已解决该问题。
  • 启动 Windows 2008 R2 虚拟机时,VMware Tools 服务失败
    在启动 Windows 2008 R2 客户机操作系统过程中,VMware Tools 服务 ( vmtoolsd.exe) 失败。但是,您可以在该操作系统启动完成后手动启动该服务。

    本版本已解决该问题。
  • 尝试在具有 128 个 CPU 的服务器上执行批处理捕获时,Esxtop 失败
    尝试在具有 128 个逻辑 CPU 的服务器上执行批处理捕获时,Esxtop 失败。出现此问题的原因是,头的缓冲区大小有限。通过增加头的缓冲区大小来解决该问题。
  • 卸载或升级 VMware Tools 会移除 modprobe.conf 文件中的自定义条目
    卸载或升级 VMware Tools 时,对 /etc/modprobe.conf文件所做的任何更改都可能被覆盖。

    本版本已解决该问题。
  • Windows Server 2008 R2 64 位远程桌面 IP 虚拟化可能无法在 ESXi 4.0 Update 1 上运行
    使您可以为 RDP 会话分配唯一 IP 地址的 IP 虚拟化可能无法在 ESXi 4.0 Update 1 中运行的 Windows Server 2008 R2 64 位上工作。出现此情况是由于 vsock dll 通过单独的 32 位和 64 位可执行文件注册。这导致目录 ID 在 vSock LSP 的 32 位和 64 位 Winsock 目录之间不同步。

    本版本已解决该问题。
  • VMware Tools 升级没有替换远程桌面 IP 虚拟化所需的 VMCI 驱动程序
  • vsock

返回页首

已知问题

本节介绍以下几个主题方面的已知问题:

之前未记录的已知问题以 * 符号标记。

CIM 和 API

  • 在升级到 ESXi 4.1 Update 3 时,无法删除配置项 /UserVars/CIMoemProviderEnabled
    解决办法:通过运行以下命令删除 /UserVars/CIMoemPrividerEnabled:

    esxcfg-advcfg-L /UserVars/CIMoemProviderEnabled

  • 在升级到 ESXi 4.1 Update 3 时,OEM ProviderEnabled 配置项默认处于启用状态
    解决办法:
    1. 运行以下命令以禁用 OEM 提供程序:
      esxcfg-advcfg -s 0 /UserVars/CIMoem-<originalname>ProviderEnabled
    2. 通过运行以下命令重新启动 sfcbd服务:
        /etc/init.d/sfcbd-watchdog restart
  • SFCC 库未在生成的 XML 文件中设置 SetBIOSAttribute 方法
    当 Small Footprint CIM Client (SFCC) 库尝试通过 SFCC 运行
    CIM_BIOSService类的 SetBIOSAttribute 方法 时,SFCC 将返回包含以下错误的 XML 文件: 错误代码="13" 描述="提供的值与此类型不兼容" (ERROR CODE="13" DESCRIPTION="The value supplied is incompatible with the type") 。当早期的 SFCC 库在生成的 XML 文件中不支持设置方法参数类型时会出现此问题。此问题导致您无法调用 SetBIOSAttribute 方法。ESXi 4.1 主机中的 SFCC 库未在生成的套接字流 XML 文件中设置方法参数类型。

    以下是几个建议的解决办法:
    • IBM 更新 CIMOM 版本
    • IBM 使用此修补程序修补 CIMOM 版本
    • IBM 使用其各自的 SFCC 库版本

客户机操作系统

  • 安装程序窗口在 RHEL 6.1 客户机操作系统安装期间不能正确显示(知识库文章 2003588)。

  • 热添加内存超过 3 GB 后客户机操作系统可能不再响应
    如果 RedHat 5.4-64 客户机操作系统是在已连接 IDE 设备的情况下启动的,则在执行热添加操作将内存从低于 3 GB 增加到高于 3 GB 时,该操作系统可能不再响应。

    解决办法:不要使用热添加将虚拟机的内存大小从小于或等于 3072MB 更改为大于 3072MB。关闭虚拟机电源以执行此重新配置。如果客户机操作系统已经失去响应,请重新启动虚拟机。仅当操作系统运行时超过 3GB 标记时,才会出现此问题。
  • 在硬件版本 7 虚拟机中,出现 Windows NT 客户机操作系统安装错误
    在包含硬件版本 7 的虚拟机中安装 Windows NT 3.51 时,安装过程会停止响应。在 Windows NT 3.51 版中出现蓝色启动屏幕之后,会立即出现此情况。这属于 Windows NT 3.51 内核中的已知问题。硬件版本 7 的虚拟机包含超过 34 条 PCI 总线,而 Windows NT 内核支持具有 8 条 PCI 总线限制的主机。

    解决办法:如果此安装是新安装,请删除现有虚拟机,然后创建一个新虚拟机。在虚拟机创建过程中,选择硬件版本 4。必须使用 [新建虚拟机] 向导选择自定义路径来更改硬件版本。如果创建了包含硬件版本 4 的虚拟机,然后将其升级到硬件版本 7,请使用 VMware vCenter Converter 将虚拟机降级到硬件版本 4。
  • 在 SLES 11 客户机操作系统上安装 VMware Tools OSP 软件包会显示一条消息,表明软件包不受支持
    在 SUSE Linux Enterprise Server 11 客户机操作系统上安装 VMware Tools OSP 软件包时,将显示类似于以下内容的错误消息:
    软件包供应商不支持下列软件包 (The following packages are not supported by their vendor)

    解决办法:忽略此消息。OSP 软件包不包含将其标记为受该供应商支持的标记。但支持这些软件包。
  • 仅支持为正在运行的内核编译 VMware 内核模块
    VMware 目前仅支持为当前正在运行的内核编译内核模块。

    解决办法:先引导内核,然后再为该内核编译模块。


  • 部署并打开虚拟机电源后断开网络连接
    如果部署使用自定义向导在 ESXi 主机上创建的虚拟机并打开该虚拟机电源,则虚拟机可能会断开网络连接。

    解决办法:
    部署 ESXi 主机上的每台虚拟机后,在打开虚拟机电源前,选择 [虚拟机属性] 窗口中的 [打开电源时连接] 选项。

其他

  • 已安装 vShield Endpoint 1.0 的 ESX/ESXi 4.1 U2 主机失败并显示紫色诊断屏幕,其中指示 VFileFilterReconnectWork(知识库文章 2009452)。

  • 长时间运行 resxtop 或 esxtop 可能导致内存问题
    resxtop esxtop 使用的内存量可能随着时间的推移逐渐增加,具体取决于所监控的 ESXi 主机上执行的操作。这意味着,如果两次显示之间有 5 秒钟的默认延迟,则 resxtop esxtop 可能会在约 14 个小时后关闭。

    解决办法:尽管您可以使用 -n选项更改迭代总数,但应该仅在需要数据时才考虑运行 resxtop。如果您确实需要在长时间内收集 resxtop或 esxtop统计信息,请定期关闭然后重新启动 resxtop或 esxtop,而不是让一个 resxtop或 esxtop实例运行数周或数月。
  • vSphere Client 中的组 ID 长度比 vCLI 中的组 ID 长度短
    如果您使用 vSphere Client 指定组 ID,则只可以使用 9 个字符。相比而言,如果使用
    vicfg-user vCLI 指定组 ID,则最多可以指定 10 个字符。

    解决办法:无


  • 运行 esxcfg-pciid 命令时出现警告消息
    当尝试运行 esxcfg-pciid命令以列出以太网控制器和适配器时,可能会出现类似以下内容的警告消息:
    供应商短名称 AMD Inc 与现有的供应商名称 Advanced Micro Devices [AMD] 不匹配
    /etc/vmware/pciid/pata_amd.xml 中的设备 ID 1022:7401 的内核驱动程序映射与定义冲突,原因不明
    /etc/vmware/pciid/pata_amd.xml 中的设备 ID 1022:7409 的内核驱动程序映射与定义冲突,原因不明
    /etc/vmware/pciid/pata_amd.xml 中的设备 ID 1022:7411 的内核驱动程序映射与定义冲突,原因不明
    /etc/vmware/pciid/pata_amd.xml 中的设备 ID 1022:7441 的内核驱动程序映射与定义冲突,原因不明 (Vendor short name AMD Inc does not match existing vendor name Advanced Micro Devices [AMD] kernel driver mapping for device id 1022:7401 in /etc/vmware/pciid/pata_amd.xml conflicts with definition for unknown; kernel driver mapping for device id 1022:7409 in /etc/vmware/pciid/pata_amd.xml conflicts with definition for unknown; kernel driver mapping for device id 1022:7411 in /etc/vmware/pciid/pata_amd.xml conflicts with definition for unknown; kernel driver mapping for device id 1022:7441 in /etc/vmware/pciid/pata_amd.xml conflicts with definition for unknown)

    当平台设备描述符文件和驱动程序特定的描述符文件都包含对同一设备的描述时,会出现此问题。

    解决办法:可以忽略此警告消息。
  • 将 ESXi 4.1.x Embedded 主机添加到 Cisco Nexus 1000V 版本 4.0(4)SV1(3a) 时失败
    可能无法通过 vCenter Server 将 ESXi 4.1.x Embedded 主机添加到 Cisco Nexus 1000V 版本 4.0(4)SV1(3a)。

    解决办法
    要将 ESXi 4.1.x Embedded 主机添加到 Cisco Nexus 1000V 版本 4.0(4)SV1(3a),请使用 vihostupdate实用程序在 ESXi 主机上应用 VEM 捆绑包。
    执行下列步骤,添加 ESXi 4.1.x Embedded 主机:
    1. 设置 Cisco Nexus 1000V 版本 4.0(4)SV1(3a)。
    2. 设置安装了 VUM 插件的 vCenter Server。
    3. 将 Cisco Nexus 1000V 版本 4.0(4)SV1(3a) 连接到 vCenter Server。
    4. 创建数据中心,并将 ESXi 4.1.x Embedded 主机添加到 vCenter Server。
    5. 通过从 vSphere CLI 运行以下命令,将兼容 AV.2 VEM 位的 ESXi 4.1.x 添加到 ESXi 主机:
      vihostupdate.pl --server <Server IP> -i -b <VEM offline metadata path>
      vCLI 上会显示以下提示:
      输入用户名: (Enter username:)
      输入密码: (Enter password:)
      正在安装修补程序,请稍候... (Please wait patch installation is in progress ...)
    6. 更新修补程序之后,请导航到 vCenter Server 中的 [网络] 视图,然后在 Cisco Nexus 1000V 版本 4.0(4)SV1(3a) 中添加主机。
    7. 请验证 ESXi 4.1.x 主机是否已添加到 Cisco Nexus 1000V 版本 4.0(4)SV1(3a)。

网络连接

  • vCPU 的数目不是 2 的幂时,某些版本的 VMXNET 3 驱动程序无法初始化设备(知识库文章 2003484)。
  • 在物理网卡上运行控制操作时,网络连接出现故障且系统崩溃
    在某些情况下,如果多个 X-Frame II s2io 网卡共享同一条 PCI-X 总线,则物理网卡上的控制操作(如更改 MTU)会导致丢失网络连接,且系统会崩溃。

    解决办法:避免让多个 X-Frame II s2io 网卡处于共享同一条 PCI-X 总线的多个插槽中。在有必要使用这样的配置的情况下,请避免在虚拟机正在处理网络 I/O 时在物理网卡上执行控制操作。
  • 在启用 LRO 的流量转发虚拟机中,可能会出现 TCP 性能较差的情况
    某些 Linux 模块无法处理 LRO 生成的数据包。因此,在运行 Linux 客户机操作系统的流量转发虚拟机中,在 VMXNET2 或 VMXNET3 设备上启用 LRO 可能会导致 TCP 性能较差。默认情况下,在这些设备上会启用 LRO。

    解决办法:在运行 Linux 客户机操作系统的流量转发虚拟机中,设置 VMXNET2 或 VMXNET3 Linux 驱动程序的模块加载时间参数以包含 disable_lro=1。
  • 当主机在一个 vDS 上使用超过 1016 个 dvPort 时,出现内存问题
    尽管在 vDS 上每台主机允许的 dvPort 最大数量为 4096,但在主机的 dvPort 数量接近 1016 时,就可能开始出现内存问题。出现内存问题后,将无法向 vDS 添加虚拟机或虚拟适配器。

    解决办法:将 vDS 上每个主机的 dvPort 最大数量配置为 1016。
  • 重新配置 VMXNET3 网卡可能会导致唤醒虚拟机
    在启用 LAN 唤醒且虚拟机处于睡眠状态时重新配置 VMXNET3 网卡会导致恢复该虚拟机。

    解决办法:对 VMXNET3 虚拟网卡进行重新配置(如执行热添加或热移除)之后,手动将虚拟机置回休眠模式。

存储

  • 无法针对具有长逻辑设备名称的网卡配置 iSCSI
    从 vSphere 命令行界面 (vCLI) 界面运行命令
    esxcli swiscsi nic add -n 无法针对逻辑设备名称超过 8 个字符的 VMkernel 网卡配置 iSCSI 操作。使用长度超过 8 个字符的 vmnic 和 vmknic 名称的第三方网卡驱动程序不能与 ESXi 主机中的 iSCSI 端口绑定功能配合使用,且可能会在远程命令行界面中显示异常错误消息。从 vCLI 界面运行类似 esxcli swiscsi nic list、esxcli swiscsi nic add 和 esxcli swiscsi vmnic list 等命令会失败,因为这些命令无法处理第三方驱动程序创建的长 vmnic 名称。

    解决办法:第三方网卡驱动程序需要将其 vmnic 名称限制在 8 个字节以内(包括 8 个字节),以满足 iSCSI 端口绑定要求。
    注意:如果该驱动程序不用于 iSCSI 端口绑定,则其名称仍可以包含最多 32 个字节。这同样适用于不具有端口绑定功能的 iSCSI。


  • 在 /var/log/messages 日志文件中存在大量与存储相关的消息
    ESXi 在包含多个指向存储设备的物理路径的主机上启动时,VMkernel 日志文件会记录大量类似于以下内容的与存储相关的消息:

    Nov 3 23:10:19 vmkernel:0:00:00:44.917 cpu2:4347)Vob:ImplContextAddList:1222:Vob add (@&!*@*@(vob.scsi.scsipath.add)Add path:%s) failed:VOB context overflow
    系统可能会在存储重新扫描过程中记录类似的消息。这些消息是预期行为,并不指示任何故障。可以将其安全忽略。

    解决办法:如果不希望看到这些消息,请关闭日志记录。
  • 在共享 LUN 上持久的预留冲突会导致 ESXi 主机引导时间变长
    启动在 SAN 上共享 LUN 的主机时,可能会遇到显著的延迟。这可能是由于 LUN SCSI 预留之间的冲突引起的。

    解决办法:要解决此问题并加快引导过程,请通过将 Scsi.CRTimeoutDuringBoot参数设置为 10000 以将引导时间期间同步命令的超时更改为 10 秒。

    要从 vSphere Client 修改该参数,请执行下列操作:
    1. 在 vSphere Client 清单面板中,选择主机,单击 [配置] 选项卡,然后单击 [软件] 下的 [高级设置]
    2. 选择 [SCSI]
    3. 将 Scsi.CRTimeoutDuringBoot参数更改为 10000。

支持的硬件

  • 当 allowInterleavedNUMANodes 引导选项为 FALSE 时,ESXi 可能无法引导
    在具有 MAX 5 扩展的 IBM eX5 主机上,ESXi 无法引导,并显示
    SysAbort 消息。当 allowInterleavedNUMANodes 引导选项未设置为 TRUE 时,可能会出现此问题。该选项的默认值为 FALSE。

    解决办法:将
    allowInterleavedNUMANodes 引导选项设置为 TRUE。有关如何配置 ESXi 主机的引导选项的详细信息,请参见 知识库文章 1021454
  • 在 HP ProLiant DL370 G6 上出现 PCI 设备映射错误
    在 HP ProLiant DL370 G6 服务器上运行 I/O 操作时,可能会出现紫屏,或者看到关于 Lint1 中断或 NMI 的警示。HP ProLiant DL370 G6 服务器在 ACPI 直接内存访问重新映射 (DMAR) 结构定义中有两个 Intel I/O 集线器 (IOH) 和一个 BIOS 缺陷,这会导致在错误的 DMA 重新映射单元下描述某些 PCI 设备。由此类错误描述的 PCI 设备所进行的任何 DMA 访问都会触发 IOMMU 故障,且设备会收到 I/O 错误。根据设备,此 I/O 错误可能会产生一条 Lint1 中断或 NMI 警示消息,或者导致系统故障,并显示紫屏。


    解决办法:将 BIOS 更新为 2010.05.21 或更高版本。
  • 在 HP 系统中安装 ESXi 需要具备 HP NMI 驱动程序
    HP 系统(G7 及更早版本)上的 ESXi 4.1 实例要求安装 HP NMI 驱动程序以确保能够正确处理不可屏蔽中断 (NMI)。NMI 驱动程序可确保正确检测 NMI 并将其记录到 IML。没有此驱动程序,则会在运行 ESXi 的 HP 系统上忽略 NMI(NMI 指示硬件出现故障)。
    注意:未能安装此驱动程序可能会导致操作系统忽略 NMI 事件,而忽略 NMI 事件可能会造成系统不稳定。

    解决办法:下载并安装 NMI 驱动程序。在 HP 网站中,以脱机捆绑包形式提供该驱动程序。另请参见 知识库文章 1026431
  • 在 EqualLogic 存储上部署的 iSCSI 数据存储上运行时,虚拟机可能会变为只读的
    如果使用具有更新版本固件的 EqualLogic 阵列,则虚拟机可能会变为只读的。该固件可能偶尔会从阵列队列中丢弃 I/O,从而导致虚拟机在将 I/O 标记为失败后变为只读。


    解决办法:将 EqualLogic 阵列固件升级为版本 4.1.4 或更高版本。
  • 存储阵列升级之后,vSphere Client 中的硬件加速状态在很短的延迟后变为受支持
    如果将存储阵列的固件升级为支持 VAAI 功能的某个版本,则 vSphere 4.1 不会立即注册更改。vSphere Client 会临时显示 [未知] 作为硬件加速的状态。


    解决办法:此延迟没有危害。硬件加速状态在一段很短的时间后会变为 [受支持]。
  • 在带有 P410i 或 P410 Smart Array 控制器的 HP G6 平台的 ESXi 上,虚拟机打开电源或磁盘 I/O 过程中性能低
    一些主机在打开虚拟机电源或生成磁盘 I/O 时可能会显示为低性能。主要症状是 I/O 性能下降,导致将大量类似于以下内容的错误消息记录到 /var/log/messages:

    Mar 25 17:39:25 vmkernel:0:00:08:47.438 cpu1:4097)scsi_cmd_alloc returned NULL
    Mar 25 17:39:25 vmkernel:0:00:08:47.438 cpu1:4097)scsi_cmd_alloc returned NULL
    Mar 25 17:39:26 vmkernel:0:00:08:47.632 cpu1:4097)NMP:nmp_CompleteCommandForPath:Command 0x28 (0x410005060600) to NMP device
    "naa.600508b1001030304643453441300100" failed on physical path "vmhba0:C0:T0:L1" H:0x1 D:0x0 P:0x0 Possible sense data:0x
    Mar 25 17:39:26 0 0x0 0x0.
    Mar 25 17:39:26 vmkernel:0:00:08:47.632 cpu1:4097)WARNING:NMP:nmp_DeviceRetryCommand:Device
    "naa.600508b1001030304643453441300100":awaiting fast path state update for failoverwith I/O blocked.No prior reservation
    exists on the device.
    Mar 25 17:39:26 vmkernel:0:00:08:47.632 cpu1:4097)NMP:nmp_CompleteCommandForPath:Command 0x28 (0x410005060700) to NMP device
    "naa.600508b1001030304643453441300100" failed on physical path "vmhba0:C0:T0:L1" H:0x1 D:0x0 P:0x0 Possible sense data:0x
    Mar 25 17:39:26 0 0x0 0x0


    此问题是由于主机中缺少由电池供电的缓存模块所致。
    如果没有由电池供电的缓存模块,控制器将以零内存 Raid 模式运行,而这将严重限制该控制器可以同时处理的命令的数量。

    解决办法:从 HP 网站安装 HP 256 MB P 系列缓存升级模块。

升级和安装

  • 使用 VMware vCenter Update Manager 从 ESXi 3.5 升级到 ESXi 4.0.x 再升级到 ESXi 4.1 Update 3 的多路径升级失败
    使用 VMware vCenter Update Manager 从 ESXi 3.5 升级到 ESXi 4.0.x 后,尝试将 ESXi 安装升级到 ESXi 4.1 Update 3 失败,并显示类似以下内容的错误消息:

    VMware vCenter Update Manager 出现未知错误。有关详细信息,请检查 [任务和事件] 选项卡和日志文件 (VMware vCenter Update Manager had an unknown error. Check the Tasks and Events tab and log files for details)

    以下升级途径会出现升级失败:

    • ESXi 3.5 到 ESXi 4.0 Update 1 再到 ESXi 4.1 Update 3
    • ESXi 3.5 到 ESXi 4.0 Update 2 再到 ESXi 4.1 Update 3
    • ESXi 3.5 到 ESXi 4.0 Update 3 再到 ESXi 4.1 Update 3
    • ESXi 3.5 到 ESXi 4.0 Update 4 再到 ESXi 4.1 Update 3
    • ESXi 3.5 到 ESXi 4.0 再到 ESXi 4.1 Update 3

    解决办法:升级到 ESXi 4.0.x 后重新启动主机,然后升级到 ESXi 4.1 Update 3。

  • 如果使用 Update Manager 4.1 进行升级,则主机升级至 ESX/ESXi 4.1 Update 1 将失败  (知识库文章 1035436)

  • 安装 vSphere Client 可能会失败,并显示错误消息
    安装 vSphere Client 时,安装程序可能会尝试升级过期的 Microsoft Visual J# 运行时。升级失败且安装 vSphere Client 失败,并显示以下错误: Microsoft Visual J# 2.0 Second Edition 安装程序返回错误代码 4113 (The Microsoft Visual J# 2.0 Second Edition installer returned error code 4113)。

    解决办法:卸载所有早期版本的 Microsoft Visual J#,然后安装 vSphere Client。该安装程序包含一个更新的 Microsoft Visual J# 软件包。
  • 同时访问 USB 闪存驱动器上的两个 ESXi 安装会导致系统显示紧急消息
    如果引导这样一个系统(通过该系统可以访问在两个不同 USB 闪存驱动器上具有相同内部版本号的多个 ESXi 安装),则系统会显示应急消息。

    解决办法:分离其中一个 USB 闪存驱动器,然后重新引导系统。

vMotion 和 Storage vMotion

  • 重新引导 ESXi 4.1 主机后 vMotion 处于禁用状态
    如果在 ESXi 主机上启用 vMotion 并重新引导 ESXi 主机, 则完成重新引导过程后将无法再启用 vMotion


    解决办法:要解决这一问题,请重新安装您的系统供应商提供的最新版本的 ESXi 映像。

  • 重定位交换文件后,热插拔操作失败
    更改交换文件位置后,对于在 DRS 群集中或在独立主机上已打开电源的虚拟机,热插拔操作失败,并导致出现错误消息: 无法恢复目标;找不到虚拟机 (failed to resume destination; VM not found)。

    解决办法:执行以下任务之一:
    • 重新引导受影响的虚拟机以使用它们注册新的交换文件位置,然后执行热插拔操作。
    • 使用 vMotion 迁移受影响的虚拟机。
    • 挂起受影响的虚拟机。

VMware Tools

  • 在 ESXi 4.1 U1 上具有最新 errata 内核的 RHEL3 中安装 VMware Tools 后,无法使用 VMXNET 网络接口卡
    由于 ABI 不兼容,VMware Tools 中使用 RHEL 3.9 模块预建的某些驱动程序与 2.4.21-63 内核无法一起正常运行。结果,当您在 REHL3.9 上安装 VMware Tools 时,不会加载某些设备驱动程序(如 vmxnet 和 vsocket)。

    解决办法:引导到 2.4.21-63 内核。为 2.4.21-63 内核安装 kernel-source 和 gcc 软件包。运行命令 vmware-config-tools.pl, --compile。这将为此内核编译模块,生成的模块应能与正在运行的内核配合使用。

  • Windows 客户机操作系统在虚拟硬件升级后显示错误的网卡设备状态
    当您在 Windows 客户机操作系统上将 ESXi 主机从 ESXi 3.5 升级到 ESXi 4.1,同时将 ESXi 的硬件版本从 4 升级到 7 时,网卡的设备状态显示为:
    This hardware device is not connected to the computer (Code 45)。

    解决办法:卸载并重新安装网卡。此外,在遵循以下链接中介绍的步骤进行操作时,卸载设备管理器中显示为 ghosted的任何相应网卡: http://support.microsoft.com/kb/315539

  • 当重新启动 Microsoft Windows 2000 虚拟机时,VMware Tools 不会执行自动升级
    当通过选择 [虚拟机属性] 窗口中 [高级] 窗格下的 [每次打开电源前 检查并升级 Tools] 选项来配置 VMware Tools 以便在重新启动过程中自动升级时,VMware Tools 不会在 Microsoft Windows 2000 客户机操作系统中执行自动升级。


    解决办法:
    在 Microsoft Windows 2000 客户机操作系统中手动升级 VMware Tools。

 

 

返回页首