VMware ESXi 5.1 Update 2 | 2014 年 1 月 16 日 | ビルド 1483097

最終更新日:2014 年 7 月 24 日

これらのリリース ノートへの追加や更新を確認してください。

リリース ノートの概要

このリリース ノートには、次のトピックが含まれています。

新機能

この VMware ESXi リリースでは、次のように機能が拡張されています。

  • サポートされるゲスト OS の追加 このリリースでは、多数のゲスト OS のサポートが追加されました。
    このリリースでサポートされるゲスト OS の詳細な一覧については、『 VMware 互換性ガイド』(英語版)を参照してください。

  • 解決した問題 このリリースでは、多くのバグも修正されています。これらは、「 解決した問題」セクションに記載されています。

ESXi 5.1 の旧リリース

ESXi 5.1 の機能と既知の問題については、各リリースのリリース ノートに記載されています。ESXi 5.1 の旧リリースのリリース ノートを確認するには、以下を参照してください。

国際化

VMware vSphere 5.1 Update 2 は、次の言語で使用可能です。

  • 英語
  • フランス語
  • ドイツ語
  • 日本語
  • 韓国語
  • 簡体字中国語

互換性およびインストール

ESXi、vCenter Server、および vSphere Web Client のバージョンの互換性

VMware 製品の相互運用性マトリクス』では、ESXi、VMware vCenter Server、vSphere Web Client を含む VMware vSphere コンポーネント、および任意の VMware 製品の現在および以前のバージョンの互換性について、詳細に説明しています。また、ESXi または vCenter Server をインストールする前に、サポート対象の管理エージェントおよびバックアップ エージェントについてこのサイトで確認してください。

vSphere Client と vSphere Web Client は、vCenter Server およびモジュールの ZIP ファイルにパッケージされています。VMware vCenter™ インストーラ ウィザードで、いずれかまたは両方のクライアントをインストールできます。

ESXi、vCenter Server と VDDK との互換性

Virtual Disk Development Kit (VDDK) 5.1.2 では、ESXi 5.1 Update 2 および vCenter Server 5.1 Update 2 のリリースをサポートするようになりました。VDDK の詳細については、 http://www.vmware.com/support/developer/vddk/ を参照してください。

ESXi のハードウェア互換性

vSphere 5.1 Update 2 と互換性のあるプロセッサ、ストレージ デバイス、SAN アレイ、および I/O デバイスを判断するには、『 VMware 互換性ガイド』に記載されている ESXi 5.1 Update 2 の情報を参照してください。

サポートされるプロセッサのリストは、このリリースで拡張されました。このリリースとの互換性のあるプロセッサを確認するには、『 VMware 互換性ガイド』 を参照してください。

ESXi のゲスト OS の互換性

ESXi 5.1 Update 2 と互換性のあるゲスト OS を判断するには、『 VMware 互換性ガイド』に記載されている ESXi 5.1 Update 2 の情報を参照してください。

vSphere 5.1 から、古いゲスト OS のサポート レベルが変更されました。各サポート レベルの詳細については、 ナレッジ ベースの記事 2015161 を参照してください。サポートされるすべてのオペレーティング システムと VMware 製品の各リリースの詳細については、『 VMware 互換性ガイド』 を参照してください。

オペレーティング システムの各ベンダーでサポートされなくなった次のゲスト OS は、廃止されています。vSphere 5.1 Update 2 を除き、将来のリリースの vSphere は、これらのゲスト OS をサポートしません。

  • Windows NT
  • 16 ビットのすべての Windows および DOS リリース (Windows 98、Windows 95、Windows 3.1)
  • Debian 4.0 および 5.0
  • Red Hat Enterprise Linux 2.1
  • SUSE Linux Enterprise 8
  • SP4 より前の SUSE Linux Enterprise 9
  • SP3 より前の SUSE Linux Enterprise 10
  • SP1 より前の SUSE Linux Enterprise 11
  • Ubuntuリリース 8.04、8.10、9.04、9.10 および 10.10
  • Novell Netware のすべてのリリース
  • IBM OS/2 のすべてのリリース

ESXi の仮想マシンの互換性

ESX 3.x 以降 (ハードウェア バージョン 4)と互換性がある仮想マシンは、ESXi 5.1 Update 2 でサポートされています。 ESX 2.x 以降 (ハードウェア バージョン 3)と互換性がある仮想マシンは、サポートされなくなりました。このような仮想マシンを ESXi 5.1 Update 2 で使用するには、仮想マシンの互換性をアップグレードする必要があります。『 vSphere アップグレード』のドキュメントを参照してください。

このリリースのインストールに関する注意事項

ESXi と vCenter Server のインストールおよび構成の具体的な手順については、『 vSphere のインストールとセットアップ』ドキュメントをお読みください。

インストールは簡単ですが、そのあとに重要な構成ステップがいくつかあります。特に次の項目をお読みください。

サードパーティ製ソリューションの移行

ESX または ESXi ホストにインストールされたサードパーティ製ソリューションをホスト アップグレードの一部として直接移行することはできません。ESXi 5.0 と ESXi 5.1 間のアーキテクチャの違いにより、サードパーティ製コンポーネントが失われ、システムが不安定になる可能性があります。このような移行を行うためには、イメージ ビルダーを使用してカスタム ISO ファイルを作成します。サードパーティ関連のカスタマイズを使用したアップグレードの詳細については、『 vSphere Upgrade』ドキュメントを参照してください。カスタム ISO を作成するためのイメージ ビルダーの使用方法の詳細については、『 vSphere Installation and Setup』ドキュメントを参照してください。

サポート対象外の CPU に対するアップグレードおよびインストールの禁止

vSphere 5.1 Update 2 では、LAHF および SAHF CPU 命令セットを備えた CPU のみがサポートされています。インストールまたはアップグレード中に、インストーラによってホスト CPU と vSphere 5.1 Update 2 の互換性がチェックされます。ホスト ハードウェアに互換性がないと非互換性情報メッセージを示す紫色の画面が表示され、vSphere 5.1 Update 1 をインストールすることも、vSphere 5.1 Update 1 にアップグレードすることもできません。

このリリースのアップグレード

vCenter Server および ESX/ESXi ホストのアップグレードの詳細については、『 vSphere アップグレード』ドキュメントを参照してください。

ESXi 5.1 Update 2 は、ESX および ESXi ホストをアップグレードするために次のツールを提供しています。

  •   CD-ROM、DVD、または USB フラッシュ ドライブの ESXi インストーラ ISO イメージを使用した対話型アップグレード:ESXi 5.1 Update 2 インストーラを CD-ROM、DVD、または USB フラッシュ ドライブから実行して、アップグレードを対話的に行うことができます。ホストの数が少ない場合はこの方法が適しています。
  • スクリプトによるアップグレードの実行:アップグレードを効率的かつ無人で実行するため、アップデート スクリプトを実行して、ホストを ESX/ESXi 4.x、ESXi 5.0.x および ESXi 5.1.x から ESXi 5.1 Update 2 にアップグレードまたは移行できます。スクリプトによるアップグレードは、複数のホストをデプロイする場合にも効率的です。スクリプトによる ESXi のアップグレードは、CD-ROM や DVD ドライブから、またはインストーラを PXE 起動して実行できます。

  • vSphere Auto Deploy。ESXi 5.x ホストが vSphere Auto Deploy を使用してデプロイされた場合は、Auto Deploy を使用して、ESXi アップグレードを含む新しいイメージ プロファイルでホストを再起動することによって再プロビジョニングできます。

  • esxcli: esxcli コマンドライン ユーティリティを使用して、ESXi 5.1.x ホストへの更新およびパッチ適用を行うことができます。この操作は、vmware.com のダウンロード デポ、または VMware パートナーが用意したデポのダウンロード済み ZIP ファイルから行うことができます。esxcli を使用して、バージョン 5.1 より前の ESX または ESXI ホストをバージョン 5.1.x にアップグレードすることはできません。

ESXi 5.1 Update 2 へのアップグレードのサポート対象アップグレード パス

アップグレードに含まれている内容

サポート対象のアップグレード ツール

ESXi 5.1 Update 2 へのサポート対象のアップグレード方法

ESX 4.0:
以下を含む
ESX 4.0 Update 1
ESX4.0 Update 2

ESX4.0 Update 3
ESX 4.0 Update 4

ESXi 4.0:
以下を含む
ESXi 4.0 Update 1
ESXi 4.0 Update 2

ESXi 4.0 Update 3
ESXi 4.0 Update 4

ESX 4.1:
以下を含む
ESX 4.1 Update 1
ESX 4.1 Update 2

ESX 4.1 Update 3

 

ESXi 4.1
以下を含む
ESXi 4.1 Update 1

ESXi 4.1 Update 2
ESXi 4.1 Update 3

ESXi 5.0:
以下を含む
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1:
以下を含む
ESXi 5.1 Update 1

VMware-VMvisor-Installer-5.1.0.update02-xxxxxxx.x86_64.iso

  • VMware vCenter Update Manager
  • CD アップグレード
  • スクリプトを使用したアップグレード

update-from-esxi5.1-5.1_update02.zip
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI

なし

なし

なし

なし

VMware ポータル (オンライン) からダウンロードしたパッチ定義の使用

パッチ ベースライン付きの VMware vCenter Update Manager

なし

なし

なし

なし

なし

VMware vSphere 5.1 Update 2 用オープン ソース コンポーネント

vSphere 5.1 Update 2 で配布されるオープン ソース ソフトウェア コンポーネントに適用される著作権情報およびライセンスは、 http://www.vmware.com/download/open_source.html で確認できます。一般的に使用可能な vSphere の最新リリース用の、ソース コードや利用可能なソース コードへの変更のために必要な GPL、LGPL、またはその他の類似のライセンスのソース ファイルがダウンロードできます。

製品サポートに関する注意事項

  • vSphere Client。vSphere 5.1 では、vSphere のすべての新機能は vSphere Web Client 経由でのみ利用できます。従来の vSphere Client は、vSphere 5.0 と同じ機能セットをサポートして引き続き動作しますが、vSphere 5.1 の新機能は公開されません。

    vSphere 5.1 およびそれ以降のアップデート リリースとパッチ リリースは、従来の vSphere Client を含む最後のリリースです。VMware vSphere の今後のメジャー リリースには、vSphere Web Client のみが含まれる予定です。

    vSphere 5.1 では、従来の vSphere Client のバグ修正は、セキュリティの問題または重大な問題に限定されています。重要なバグは、実装可能な回避策がないデータ破損、データ損失、システム クラッシュ、重要な顧客アプリケーションのダウン タイムの原因となる指定された製品機能には関連していません。

  • VMware ツールボックス。vSphere 5.1 は VMware Tools グラフィカル ユーザー インターフェイスである VMware ツールボックスのサポートを含む最新リリースです。VMware では、VMware Tools のすべての機能を実行できるように Toolbox コマンドライン インターフェイス (CLI) が引き続き更新およびサポートされます。

  • VMI 準仮想化。vSphere 4.1 は VMI ゲスト オペレーティング システム 準仮想化インターフェイスをサポートする最新リリースです。VMI が有効になっている仮想マシンを今後の vSphere リリースで実行できるように移行する方法の詳細については、 ナレッジ ベースの記事 1013842 を参照してください。

  • Windows ゲスト OS のカスタマイズ。vSphere 5.1 は Windows 2000 ゲスト OS のカスタマイズをサポートする最後のリリースです。VMware では、新しいバージョンの Windows ゲストのカスタマイズが引き続きサポートされます。

  • VMCI ソケット:vSphere 5.1 リリースでは、ゲスト間通信 (仮想マシンから仮想マシン) が廃止されています。この機能は、次回のメジャー リリースで削除されます。VMware は、ホストからゲストへの通信を引き続きサポートします。

このリリースに含まれるパッチ

このリリースには、この製品のリリース日以前にリリースされた ESXi のすべてのパッチが含まれています。各パッチの詳細については、VMware の 『 パッチのダウンロード』 ページ (英語版) を参照してください。

パッチ リリース ESXi510-Update02 には、次の各パッチが含まれています。

ESXi510-201401201-UG: ESXi 5.1 esx-base vib のアップデート
ESXi510-201401202-UG: ESXi 5.1 tools-light vib のアップデート
ESXi510-201401203-UG: ESXi 5.1 net-tg3 vib のアップデート
ESXi510-201401204-UG: ESXi 5.1 net-e1000e vib のアップデート
ESXi510-201401205-UG: ESXi 5.1 scsi-rste vib のアップデート
ESXi510-201401206-UG: ESXi 5.1 scsi-mpt2sas vib のアップデート
ESXi510-201401207-UG: ESXi 5.1 sata-ata-piix vib のアップデート
ESXi510-201401208-UG: ESXi 5.1 sata-ahci vib のアップデート


パッチ リリース ESXi510-Update01 Security-only には、次の各パッチが含まれています。

ESXi510-201401101-SG: ESXi 5.1 esx-base vib のアップデート
ESXi510-201401102-SG: ESXi 5.1 tools-light vib のアップデート
ESXi510-201401103-SG: ESXi 5.1 esx-xlibs vib のアップデート

Patch Release ESXi510-Update02 には、次のイメージ プロファイルが含まれています。

ESXi-5.1.0-20140102001-standard
ESXi-5.1.0-20140102001-no-tools

パッチ リリース ESXi510-Update02 Security-only には、次のイメージ プロファイルが含まれています。

ESXi-5.1.0-20140101001s-standard
ESXi-5.1.0-20140101001s-no-tools


パッチおよびアップデートの分類に関する情報については、 KB 2014447 を参照してください。

解決した問題

このセクションでは、本リリースで解決された問題について説明します。

CIM および API

  • sfcbd で inode が枯渇するために ESXi ホストが vCenter Server から切断される
    ESXi ホストが vCenter Server から切断され、vCenter Server に再接続できなくなります。この問題は、 /var/run/sfcbディレクトリに 5000 以上のファイルを取り込むハードウェア監視サービス (sfcdb) によって引き起こされます。

    /var/log/にある hostd.logファイルには、次のようにホストが領域不足であることが示されます。
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file.Failed with reason: No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file.Failed with reason: No space left on device

    /var/logにある vmkernel.logファイルには、次のように inode に空きがないことが示されます。
    cpu4:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    今回のリリースで、この問題は修正されました。
  • CIM プロバイダによって不正なエラー メッセージが表示される場合がある
    CIM プロバイダによって次のような不正なエラー メッセージが表示される場合があります。
    \"Request Header Id (886262) != Response Header reqId (0) in request to provider 429 in process 5. Drop response.\"

    今回のリリースで、この問題はエラー ログを更新して sfcbd 管理エージェントを再起動し、次のような正しいエラー メッセージを表示することで解決されました。
    Header Id (373) Request to provider 1 in process 0 failed.Error:Timeout (or other socket error) waiting for response from provider.
  • ハードウェア監視サービスが停止して、[ハードウェアのステータス] タブにエラー メッセージのみが表示される
    ハードウェアのステータス タブに健全性ステータスが表示されず、次のようなエラー メッセージが表示されます。
    Hardware monitoring service on this host is not responding or not available.

    ハードウェア監視サービス (sfcdb) が停止して、 syslogファイルに次のようなエントリが表示される場合があります。

    sfcb-smx[xxxxxx]: spRcvMsg Receive message from 12 (return socket: 6750210)
    sfcb-smx[xxxxxx]: --- spRcvMsg drop bogus request chunking 6 payLoadSize 19 chunkSize 0 from 12 resp 6750210
    sfcb-smx[xxxxxx]: spRecvReq returned error -1. Skipping message.
    sfcb-smx[xxxxxx]: spRcvMsg Receive message from 12 (return socket: 4)
    sfcb-smx[xxxxxx]: --- spRcvMsg drop bogus request chunking 220 payLoadSize 116 chunkSize 104 from 12 resp 4
    ...
    ...
    sfcb-vmware_int[xxxxxx]: spGetMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]: rcvMsg receiving from 40 419746-11 Resource temporarily unavailable
    sfcb-vmware_int[xxxxxx]: Timeout or other socket error


    今回のリリースで、この問題は修正されました。
  • ESXi サーバで WS-Management GetInstance () アクションによって wsa:DestinationUnreachable の障害が発生する場合がある
    一部の ESXi サーバで http://schemas.dmtf.org/wbem/wscim/1/cim-schema/2/CIM_SoftwareIdentity?InstanceID=46.10000に対する WS-Management GetInstance ()アクションによって wsa:DestinationUnreachableの障害が発生する場合があります。 OMC_MCFirmwareIdentityオブジェクト パスは、Intelligent Platform Management Interface (IPMI) の Baseboard Management Controller (BMC) センサーを備えたシステムにおける CIM gi/ei/ein操作で整合性がありません。そのため、ESXi サーバで WS-Management GetInstance ()アクションによって wsa:DestinationUnreachableの障害が発生します。

    今回のリリースで、この問題は修正されました。
  • vmkapimod の vmklinux_9:ipmi_thread で 1 時間の CPU 使用量が 100% と表示される
    ESXi ホストで Intelligent Platform Management Interface (IPMI) ツールを使用して現場で交換可能なユニット (FRU) のインベントリ データを読み取る際に、 vmkapimodの vmklinux_9:ipmi_threadで CPU 使用量が 100% と誤って表示されます。これは、IPMI ツールでインベントリ データを読み取るために Read FRU Dataコマンドが複数回使用されるためです。

    今回のリリースで、この問題は修正されました。
  • ESXi ホストのハードウェア ステータスを監視できない
    トレース モードで SFCBD サービスが有効になっているときにこのサービスが実行を停止すると、ESXi ホストの [ ハードウェアのステータス] タブにエラーが表示されることがあります。ESXi ホストのハードウェア ステータスは、サードパーティ製のツールでは監視できないことがあります。

    今回のリリースで、この問題は修正されました。
  • ESXi ホストの Intelligent Platform Management Interface (IPMI) システム イベント ログ (SEL) を消去できない
    ホスト IPMI のシステム イベント ログがクラスタ環境では消去されません。IPMI SEL を消去する新しい CLI サポートを追加することにより、この問題は修正されました。

    今回のリリースで、この問題は修正されました。
  • LSI CIM プロバイダがファイル記述子をリークする
    LSI CIM プロバイダ (sfcb プロセスの 1 つ) がファイル記述子をリークします。その結果、sfcb-hhrc が停止して sfcbd が再起動する場合があります。syslog ファイルには、次のようなメッセージが記録される可能性があります。
    sfcb-LSIESG_SMIS13_HHR[ ]: Error opening socket pair for getProviderContext: Too many open files
    sfcb-LSIESG_SMIS13_HHR[ ]: Failed to set recv timeout (30) for socket -1. Errno = 9
    ...
    ...
    sfcb-hhrc[ ]: Timeout or other socket error
    sfcb-hhrc[ ]: TIMEOUT DOING SHARED SOCKET RECV RESULT ( )

    今回のリリースで、この問題は修正されました。
  • CIM ポート 5989 で強度の弱い暗号を無効化できない
    クレジット カード業界 (PCI) のコンプライアンスの暗号ブロック連鎖 (CBC) アルゴリズムを無効化するには、場合によってはCIM ポート 5989で強度の弱い暗号を無効化する必要があります。この操作は許可されていません。 

    今回のリリースで、この問題は修正されました。次のコマンドを使用することで、強度の弱い暗号が無効になるように sfcb.cfg の構成を更新できます。
    # vi /etc/sfcb/sfcb.cfg
    sslCipherList: HIGH:!DES-CBC3-SHA
    # /etc/init.d/sfcbd-watchdog restart
  • ESXi ホストに障害が発生して sfcb-CIMXML-Pro-zdump エラーが表示される
    http処理の sfcb サブ プロセスによって atexit が誤って呼び出され、コマンドの fork 後に終了した場合に、ESXi ホストに障害が発生して sfcb-CIMXML-Pro-zdumpエラーが表示されます。

    今回のリリースで、この問題は修正されました。

その他

  • Windows 7 または Windows 8 の仮想マシンで 3D サポートが有効になっている場合に、一部の 3D アプリケーションでジオメトリが誤って表示される
    Windows 7 または Windows 8 の仮想マシンで 3D サポートを有効化 オプションが選択されている場合に、一部の 3D アプリケーションでジオメトリが誤って表示されます。

    今回のリリースで、この問題は修正されました。
  • Netlogond が応答しなくなり、ESXi ホストで Active Directory 機能が失われる場合がある
    アクセスできないドメイン コントローラが複数あると、Active Directory 環境で Netlogond のメモリ消費量が高くなる場合があります。その結果、Netlogond で障害が発生し、ESXi ホストで Active Directory 機能が失われる 場合があります。

    今回のリリースで、この問題は修正されました。
  • 特定の snmp OID に対する snmpwalk コマンドが失敗する
    ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10に対して snmpwalkコマンドを実行すると、次のようなエラー メッセージが表示されます。

    No Such Instance currently exists at this OID for ifHCOutOctets 1.3.6.1.2.1.31.1.1.1.10

    今回のリリースで、この問題は修正されました。
  • vShield Endpoint がインストールされた ESXi ホストで実行中の vSocket ドライバはデッドロック状態になる可能性がある
    vShield Endpoint がインストールされた ESXi ホストで Windows 仮想マシンを実行中、vSocket ドライバはデッドロック状態になる可能性があります。青色の診断画面に次のログが表示されます。
    esx-<host_name>-2013-07-01--09.54/vmfs/volumes/50477c5b-d5ad9a53-8e9c-047d7ba55d90/B15E030S/vmware.log:
    2013-06-27T20:44:05.812Z| vcpu-0| TOOLS installed legacy version 8384, available legacy version 8389
    2013-06-27T20:44:05.813Z| vcpu-0| Guest: toolbox: Version: build-515842
    ...
    2013-06-28T20:38:16.923Z| vcpu-1| Ethernet1 MAC Address: 00:50:56:bf:73:52
    2013-06-28T20:38:16.923Z| vcpu-0| Ethernet0 MAC Address: 00:50:56:bf:73:51
    2013-06-28T20:38:16.927Z| vcpu-1| Ethernet2 MAC Address: 00:50:56:bf:73:53
    2013-06-28T20:39:16.930Z| vcpu-0| Guest: vfile: vf-AUDIT: VFileAuditSvmConnectivity : Lost connectivity to SVM, irpStatus: 0xc0000001 ## disconnect SecureVM
    2013-06-28T20:41:06.185Z| vmx| GuestRpcSendTimedOut: message to toolbox timed out.
    2013-06-28T20:41:06.186Z| vmx| Vix: [4304191 guestCommands.c:2194]: Error VIX_E_TOOLS_NOT_RUNNING in VMAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest
    2013-06-28T20:48:28.341Z| mks| MKS disabling SVGA
    2013-06-28T20:48:34.346Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 30 '
    2013-06-28T20:48:43.349Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 35 '
    2013-06-28T20:48:52.353Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 40 '
    2013-06-28T20:49:01.357Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 45 '
    2013-06-28T20:49:09.360Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 50 '
    2013-06-28T20:49:19.366Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 70 '
    2013-06-28T20:49:28.368Z| mks| WinBSOD: (30) `Dumping physical memory to disk: 80

    今回のリリースで、この問題は修正されました。
  • vShield およびその他のコンポーネントをロール バックできない
    インストールをキャンセルした場合、vShield およびその他のコンポーネントをロール バックできなくなる場合があります。

    今回のリリースで、この問題は修正されました。
  • SVGA コードの実行中にシグナル 11 エラーが発生して、仮想マシンが応答しなくなる
    svga2_map_surface で SVGA コードの実行中にシグナル 11 エラーが発生して、仮想マシンが応答しなくなります。

    今回のリリースで、この問題は修正されました。
  • /tmp フォルダから数千個の 0 バイトの .png ファイルが消去されないために ESXi ホストに障害が発生する
    /tmpフォルダから数千個の 0 バイトの .pngファイルが消去されないために ESXi ホストに障害が発生します。これは、イメージ ユーティリティ機能による vCloud Director からの tempFileName ファイルの消去が失敗するために発生します。この問題は、 tempフォルダから現在の .pngファイルを削除することで解決します。

    今回のリリースで、この問題は修正されました。
  • Hostd の応答が停止し、hostd-worker ダンプが生成される場合がある
    ハード ドライブを取り外したあと、ホストから最新の情報の取得を試みた場合、ESXi 5.1 ホストの応答が停止し、 hostd-workerダンプが生成される場合があります。

    今回のリリースで、この問題は修正されました。
  • リモートでマウントされている vSphere Storage Appliance データストアに仮想マシンを作成できない
    ESXi ホストが、リモートでマウントされている VSA データストアに仮想マシンを作成すると、応答が停止することがあります。これは、VSA NAS プラグインでネットワーク エラーが適切に処理されないことが原因です。

    この問題は、通信エラーと、VSA NSA プラグインに NULL ポインタを返す基本的な関数が原因で発生します。

    今回のリリースで、この問題は修正されました。
  • 仮想マシンの lsilogic が、ターゲットのリセット中、すべてのターゲットのコマンドを待機する
    lsilogic 仮想アダプタは、ターゲットのリセットを実行すると、アダプタのすべてのターゲットのフライト中のコマンドを待機します。この結果、ターゲットのリセットによって、必要以上の時間、仮想マシンがブロックされます。

    今回のリリースで、この問題は修正されました。

ネットワーク

  • 分散ポート グループで NetFlow 監視が有効になっている場合、複数の ESXi 5.1 ホストで応答が断続的に停止することがある
    分散ポート グループで NetFlow 監視が有効になっている場合は、Internet Protocol Flow Information Export (IPFIX) 機能を使用してスイッチのトラフィックを監視します。ハッシュ テーブルにキーが同じレコードが共存していると、IPFIX フィルタ関数で競合状態が発生することがあります。この結果、ESXi ホストが応答を停止し、次のようなバックトレースが表示されます。

    cpu8:42450)Panic: 766: Panic from another CPU (cpu 8, world 42450): ip=0x41801d47b266:
    #GP Exception 13 in world 42450:vmm0:Datacen @ 0x41801d4b7aaf
    cpu8:42450)Backtrace for current CPU #8, worldID=42450, ebp=0x41221749b390
    cpu8:42450)0x41221749b390:[0x41801d4b7aaf]vmk_SPLock@vmkernel#nover+0x12 stack: 0x41221749b3f0, 0xe00000000000
    cpu8:42450)0x41221749b4a0:[0x41801db01409]IpfixFilterPacket@ # +0x7e8 stack: 0x4100102205c0, 0x1, 0x
    cpu8:42450)0x41221749b4e0:[0x41801db01f36]IpfixFilter@ # +0x41 stack: 0x41801db01458, 0x4100101a2e58

    今回のリリースで、この問題は修正されました。
  • ESXi ホストを再起動すると、USB コントローラで、DirectPath I/O パススルー デバイスとしての構成が失われる
    DirectPath を使用して構成された仮想マシンのパススルー デバイスとして USB コントローラが追加され、仮想マシンを実行しているホストが再起動された場合、USB コントローラはパススルー ステータスを失い、仮想マシンへの直接アクセスに使用できなくなります。

    今回のリリースで、この問題は修正されました。
  • 64 ウェイの仮想 CPU (VCPU) を持つ Windows Server 2012 で VMXNET 3 アダプタのロードが失敗することがある
    再起動後、64 ウェイの仮想 CPU (VCPU) を持つ Windows Server 2012 で VMXNET 3 アダプタのロードが失敗することがあります。

    今回のリリースで、この問題は修正されました。

  • tcpdump-uw ユーティリティで、8138 バイトより小さいパケットしかキャプチャできない
    ESXi にバンドルされている tcpdump-uw フレーム キャプチャ ユーティリティで、8138 バイトより小さいパケットしかキャプチャできません。 この問題は、VMware の tcpdump-uw の実装でソケット バッファ サイズが 8 KB に設定されているために発生します。ソケット バッファは 8192 バイトに設定され、約 54 バイトが制御データに必要です。したがって、8138 バイトがキャプチャできる最大サイズとなります。

    この問題を解決するために、デフォルトのバッファ サイズが 64 KB に増やされています。
  • ESXi を 5.0 から 5.1 にアップグレードすると、vmk0 ではない管理ネットワーク インターフェイス カードがデフォルトで vmk0 に設定される
    ESXi 5.0 の管理インターフェイスに vmk0 ではない vmknic を使用していて、ESXi 5.0 を ESXi 5.1 にアップグレードした場合、管理インターフェイスがデフォルトで vmk0 (再起動後に作成される最初の vmknic) に設定されます。これは正しくありません。

    今回のリリースで、この問題は修正されました。
  • 同じ ESXi ホストおよび同じ vSwitch での 2 つの仮想マシン間のネットワーク パケット ドロップが esxtop で誤って報告される
    2 つの仮想マシンがホスト上の同じ vSwitch に e1000 ドライバを使用して構成されている場合、2 つの仮想マシン間のネットワーク トラフィックについて、esxtop で重大なパケット ドロップが報告されることがあります。これは、報告時に分割パケットに関する通知がないために、ゲストから TSO を有効にする際に発生します。

    今回のリリースで、この問題は修正されました。
  • Linux コマンド ip link または ip addr で VMXNET3 アダプタのリンク状態が [アップ] ではなく [不明] と表示されることがある
    VMXNET3 アダプタをゲスト OS で作成すると、Linux コマンドの ip link または ip addr でリンク状態が [アップ] ではなく [不明] と表示されることがあります。この問題は、アダプタのデフォルトのリンク状態が carrier ok モードに設定されていて、その結果、operstate が更新されない場合に発生します。

    今回のリリースで、この問題はアダプタのデフォルトのリンク状態を no carrier モードに設定することにより修正されました。
  • Solaris 10 ゲスト OS と VMXNET3 ドライバを使用する仮想マシンで、コンソールに過剰断片化のログ メッセージが表示される
    Solaris 10 の仮想マシンに VMware Tools をインストールし、このゲスト OS に VMXNET3 デバイスを作成すると、仮想マシンのコンソールに次のようなログ メッセージが表示されます。
    Apr 3 22:44:54 daxa020z last message repeated 274 times Apr 3 22:45:00 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 22:51:35 daxa020z last message repeated 399 times
    Apr 3 22:51:40 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 22:58:12 daxa020z last message repeated 398 times
    Apr 3 22:58:20 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)
    Apr 3 23:04:53 daxa020z last message repeated 393 times
    Apr 3 23:05:00 daxa020z vmxnet3s: [ID 450982 kern.notice] vmxnet3s:0: overfragmented mp (16)

    今回のリリースで、この問題は修正されました。
  • VMXNET3 NIC の永続的な MAC アドレスの取得に失敗する場合がある
    ETHTOOL_GPERMADDR ioctl を使用して VMXNET3 NIC の永続的な MAC アドレスを取得すると、Linux カーネル バージョンが 2.6.13 から 2.6.23 の場合、結果が取得されません。Linux カーネル バージョンが 2.6.23 より上の場合、MAC アドレスはすべてゼロで返されます。

    今回のリリースで、この問題は修正されました。
  • E1000 または E1000e 仮想アダプタを使用する仮想マシンをホストする ESXi 5.x ホストに障害が発生して紫色の診断画面が表示される
    rxRing バッファがいっぱいになり、最大 Rx リングが 2 より多く設定されている場合、ESXi ホストで E1000PollRxRing と E1000DevRx のエラーが発生し、紫色の診断画面が表示されます。2 番目のリングで処理される、次に受信する Rx パケットは NULL であるため、処理エラーが発生します。

    紫色の診断画面、つまりバックトレースには次のようなエントリが記載されます。

    @BlueScreen: #PF Exception 14 in world 63406:vmast.63405 IP 0x41801cd9c266 addr 0x0
    PTEs:0x8442d5027;0x383f35027;0x0;
    Code start: 0x41801cc00000 VMK uptime: 1:08:27:56.829
    0x41229eb9b590:[0x41801cd9c266]E1000PollRxRing@vmkernel#nover+0xdb9 stack: 0x410015264580
    0x41229eb9b600:[0x41801cd9fc73]E1000DevRx@vmkernel#nover+0x18a stack: 0x41229eb9b630
    0x41229eb9b6a0:[0x41801cd3ced0]IOChain_Resume@vmkernel#nover+0x247 stack: 0x41229eb9b6e0
    0x41229eb9b6f0:[0x41801cd2c0e4]PortOutput@vmkernel#nover+0xe3 stack: 0x410012375940
    0x41229eb9b750:[0x41801d1e476f]EtherswitchForwardLeafPortsQuick@ # +0xd6 stack: 0x31200f9
    0x41229eb9b950:[0x41801d1e5fd8]EtherswitchPortDispatch@ # +0x13bb stack: 0x412200000015
    0x41229eb9b9c0:[0x41801cd2b2c7]Port_InputResume@vmkernel#nover+0x146 stack: 0x412445c34cc0
    0x41229eb9ba10:[0x41801cd2ca42]Port_Input_Committed@vmkernel#nover+0x29 stack: 0x41001203aa01
    0x41229eb9ba70:[0x41801cd99a05]E1000DevAsyncTx@vmkernel#nover+0x190 stack: 0x41229eb9bab0
    0x41229eb9bae0:[0x41801cd51813]NetWorldletPerVMCB@vmkernel#nover+0xae stack: 0x2
    0x41229eb9bc60:[0x41801cd0b21b]WorldletProcessQueue@vmkernel#nover+0x486 stack: 0x41229eb9bd10
    0x41229eb9bca0:[0x41801cd0b895]WorldletBHHandler@vmkernel#nover+0x60 stack: 0x10041229eb9bd20
    0x41229eb9bd20:[0x41801cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x41229eb9be20
    0x41229eb9be20:[0x41801cdbc9bc]CpuSchedIdleLoopInt@vmkernel#nover+0x13b stack: 0x29eb9bfa0
    0x41229eb9bf10:[0x41801cdc4c1f]CpuSchedDispatch@vmkernel#nover+0xabe stack: 0x0
    0x41229eb9bf80:[0x41801cdc5f4f]CpuSchedWait@vmkernel#nover+0x242 stack: 0x412200000000
    0x41229eb9bfa0:[0x41801cdc659e]CpuSched_Wait@vmkernel#nover+0x1d stack: 0x41229eb9bff0
    0x41229eb9bff0:[0x41801ccb1a3a]VmAssistantProcessTask@vmkernel#nover+0x445 stack: 0x0
    0x41229eb9bff8:[0x0] stack: 0x0

    今回のリリースで、この問題は修正されました。
  • e1000 NIC を搭載した仮想マシンがサスペンド モードになると、障害が発生することがある
    e1000 NIC ドライバを搭載したゲスト オペレーティング システムがサスペンド モードになると、仮想マシンに障害が発生して、 vmware.logファイルに次のようなエラー メッセージが表示されることがあります。

    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120: Msg_Post: Error
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-08-02T05:28:48Z[+11.453]| vcpu-1| I120+ Unexpected signal: 11

    この問題は、IP エイリアスを使用し、IP アドレスの数が 10 を超えている仮想マシンで発生します。

    今回のリリースで、この問題は修正されました。
  • 複数の vmkernel ポートで管理トラフィックが有効になっている場合、リセット時に、DCUI に表示される IP アドレスが変わる
    複数の vmkernel ポートで管理トラフィックが有効になっている管理ネットワークをリセットすると必ず、ダイレクト コンソール ユーザー インターフェイス (DCUI) に表示される IP アドレスが変わります。

    今回のリリースで、この問題は修正されました。
  • ESXi ホストが紫色の診断画面になり、#PF Exception 14 in world 10669:vmm1:TREND_M IP というエラーが表示される
    DvFilterモジュールのある ESXi ホストでは、紫色の診断画面が表示されることがあります。そして、次のようなバックトレースが表示されます。

    2013-07-18T06:41:39.699Z cpu12:10669)0x412266b5bbe8:[0x41800d50b532]DVFilterDispatchMessage@com.vmware.vmkapi#v2_1_0_0+0x92d stack: 0x10
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bc68:[0x41800d505521]DVFilterCommBHDispatch@com.vmware.vmkapi#v2_1_0_0+0x394 stack: 0x100
    2013-07-18T06:41:39.700Z cpu12:10669)0x412266b5bce8:[0x41800cc2083a]BH_Check@vmkernel#nover+0x185 stack: 0x412266b5bde8, 0x412266b5bd88,

    今回のリリースで、この問題は修正されました。
  • データストアの .dvsData ディレクトリから未使用の vSphere Distributed Switch (VDS) ポートがクリアされない
    vNIC が VDS に接続されている仮想マシンでの vMotion の実行中、VMotion ソース ホストのポート ファイルが時間をおいても .dvsDataディレクトリでクリアされません。

    今回のリリースで、この問題は修正されました。
  • Intel e1000e ネットワーク インターフェイス ドライバで受信 (RX) トラフィックに対する応答が停止することがある
    Intel e1000e ネットワーク インターフェイス ドライバで受信 (RX) トラフィックに対する応答が停止することがあります。

    今回のリリースで、この問題は修正されました。

  • 2 つの DVFilter プロセス間の競合により、ESXi ホストで障害が発生し、紫色の診断画面が表示されることがある
    2 つの DVFilter プロセスが同時に単一の構成変数を管理しようとして、一方のプロセスがフィルタ構成を解放してもう一方のプロセスがそれをロックしようとすると、これによって ESXi ホストで障害が発生することがあります。

    今回のリリースで、この問題は修正されました。
  • vCenter パフォーマンス チャートと vmkernel の net.throughput.usage の戻り値が矛盾している
    net.throughput.usageに関連する値は、vCenter パフォーマンス チャートではキロバイト単位ですが、vmkernel では同じ値がバイト単位で返されます。結果として、vCenter パフォーマンス チャートの値の表示が不正確になります。

    今回のリリースで、この問題は修正されました。
  • L2Echo 機能でネットワーク トラフィックを処理できないときに、ESXi ホストが応答を停止することがある
    ネットワーク健全性チェックが有効化されている場合、L2Echo 機能で高ネットワーク トラフィックが処理できなくなり、ESXi ホストが応答を停止して、紫色の診断画面に次のようなバックトレースが表示されることがあります。

    cpu4:8196)@BlueScreen: PCPU 1: no heartbeat (2/2 IPIs received)
    cpu4:8196)Code start: 0x418024600000 VMK uptime: 44:20:54:02.516
    cpu4:8196)Saved backtrace from: pcpu 1 Heartbeat NMI
    cpu4:8196)0x41220781b480:[0x41802468ded2]SP_WaitLockIRQ@vmkernel#nover+0x199 stack: 0x3b
    cpu4:8196)0x41220781b4a0:[0x4180247f0253]Sched_TreeLockMemAdmit@vmkernel#nover+0x5e stack: 0x20
    cpu4:8196)0x41220781b4c0:[0x4180247d0100]MemSched_ConsumeManagedKernelMemory@vmkernel#nover+0x1b stack: 0x0
    cpu4:8196)0x41220781b500:[0x418024806ac5]SchedKmem_Alloc@vmkernel#nover+0x40 stack: 0x41220781b690
    ...
    cpu4:8196)0x41220781bbb0:[0x4180247a0b13]vmk_PortOutput@vmkernel#nover+0x4a stack: 0x100
    cpu4:8196)0x41220781bc20:[0x418024c65fb2]L2EchoSendPkt@com.vmware.net.healthchk#1.0.0.0+0x85 stack: 0x4100000
    cpu4:8196)0x41220781bcf0:[0x418024c6648e]L2EchoSendPort@com.vmware.net.healthchk#1.0.0.0+0x4b1 stack: 0x0
    cpu4:8196)0x41220781bfa0:[0x418024c685d9]L2EchoRxWorldFn@com.vmware.net.healthchk#1.0.0.0+0x7f8 stack: 0x4122
    cpu4:8196)0x41220781bff0:[0x4180246b6c8f]vmkWorldFunc@vmkernel#nover+0x52 stack: 0x0

    今回のリリースで、この問題は修正されました。
  • 仮想マシンで Receive Side Scaling (RSS) が有効化されていると、VMXNET3 が頻繁にリセットされる
    仮想マシンで Receive Side Scaling (RSS) が有効化されていると、VMXNET3 ネットワーク ドライバが頻繁にリセットされて、仮想マシンのネットワーク接続が短時間失われます。

    今回のリリースで、この問題は修正されました。VMXNET3 ネットワーク ドライバは今回のリリースで更新されています。

セキュリティ

  • 複数のセキュリティ問題を解決する OpenSSL ライブラリの更新
    ESXi userworld OpenSSL ライブラリは、複数のセキュリティ問題を解決するようにバージョン openssl-0.9.8yに更新されています。

    Common Vulnerabilities and Exposures プロジェクト (cve.mitre.org) では、 CVE-2013-0169CVE-2013-0166 という名前を割り当てています。
  • 複数のセキュリティ問題を解決する libxml2 ライブラリの更新
    ESXi userworld libxml2 ライブラリは、セキュリティ問題を解決するように更新されています。

    Common Vulnerabilities and Exposures (CVE) プロジェクト (cve.mitre.org) は、この問題を CVE-2013-0338 として公表しています。
  • X.Org コンポーネントの更新
    ESXi X Window System クライアント ライブラリが更新されています。

サーバ構成

  • NetApp で、iSCSI が非応答状態にならないように SATP 要求ルールの更新が求められていたNetApp では、論理ユニット番号 (LUN) の予約の競合を回避する SATP 要求ルールの更新が求められていました。SATP 要求ルールが更新され、リセット オプションを使用して LUN の予約を取り消し、他のユーザーが予約オプションを設定できるようになりました。

    今回のリリースで、この問題は修正されました。
  • ストレージ エリア ネットワークから起動するときに、ネットワーク バンド幅によっては起動デバイスを検出するのに時間がかかる場合があるSAN から起動するときに、起動デバイスの検出プロセスを完了するのに時間がかかる場合があります。起動プロセスの前に再スキャン タイムアウト パラメータを ESX コマンド ラインに渡すことで、ユーザーはタイムアウト値を構成でき、それによってこの問題が解決されます。

    今回のリリースで、この問題は修正されました。
  • 複数の NFS データストアの削除中にホスト プロファイルを適用しようとすると失敗することがある
    ホスト プロファイル オプションを使用して複数の NFS データストアを削除しようとすると、すでに削除されているデータストアがある可能性があるため、エラーが発生します。

    今回のリリースで、この問題は修正されました。
  • ホストを適用する際、vSwitch の [フェイルバック] や [フェイルオーバーの順序] の設定がホストにコピーされない
    ホストにホスト プロファイルを添付する際、参照ホストから抽出された [フェイルバック] や [フェイルオーバーの順序] などの vSwitch のプロパティがホストに適用されません。

    今回のリリースで、この問題は修正されました。
  • ESXi ホストが hostd.log ファイルで ha-eventmgr について間違ったログイン時間を報告する
    ESXi ホストが root の最終ログイン時間を間違って 1970 と表示することがあります。この情報は、ESXi ホストの Web Client の ha-eventmgrに対して表示されます。今回のリリースでは、この問題の解決のため、システム時間を使用してログイン時間が計算されています。

    今回のリリースで、この問題は修正されました。
  • ESXi ホストのアップグレード試行中に、起動デバイス上に state.tgz バックアップ ファイルが見つからない
    ISO イメージを使用して ESXi ホストのアップグレードを試行中に、起動デバイス上に state.tgz バックアップ ファイルが見つからないことがあります。
     

    この問題は、アップグレードの前にコンピュータが正しくシャットダウンされなかったため、 state.tgz バックアップ ファイルが更新されていない場合に発生します。その結果、ESX ライセンスのリセット時に No such a file (ファイルが見つからない) 例外エラーが表示されます。

    今回のリリースで、この問題は修正されました。

  • ネットワークのフェイルオーバー設定をビーコンの検知に変更すると、ESXi ホストで障害が発生し、ホスト プロファイル エラーが表示される
    ESX ホストへのホスト プロファイルの適用中に、ネットワークのフェイルオーバー検出をビーコンの検知に変更しようとすると、ESXi ホストで障害が発生し、次のようなエラー メッセージが表示されます。
    Associated host profile contains NIC failure criteria settings that cannot be applied to the host

    今回のリリースで、この問題は修正されました。
  • ステートレス キャッシュで、ローカルにキャッシュされたホスト プロファイルが更新されない
    ESXi 5.1 ホストでステートレス キャッシュが有効になっていて、構成の変更後に、キャッシュされたイメージにホスト プロファイルを再び適用した場合、新たに作成されたホスト プロファイル構成は適用されません。

    今回のリリースで、この問題は修正されました。

  • Esxi 5.0.x を Esxi 5.1.x にアップグレードすると、ホストの NAS データストアとその他の構成が失われる
    vCenter Update Manager を使用して ESX 5.0.x を ESX 5.1.x にアップグレードすると、ESX ホストで、Symantec という文字列が含まれる NAS データストア エントリが失われます。今回のリリースでは、この問題の解決のため、アップグレード時に構成ファイルから不要なエントリを削除するようにスクリプトが変更されました。

    今回のリリースで、この問題は修正されました。
  • ゲスト OS で ESXi ホストの bandwidthCap オプションが機能しないことがある
    ESXi ホストで bandwidthCap とスループットの上限が同時に設定されていると、仮想マシンで I/O 調整オプションが機能しなくなることがあります。これは、SCSI スケジューラで調整オプションを設定する際に論理比較を誤ったために発生します。

    今回のリリースで、この問題は修正されました。
  • SNMP を介して ESXi ホストに照会すると、ホストで不正な CPU 負荷平均値が報告される
    CPU 負荷平均を取得するために ESXi ホストに対して SNMP クエリを実行すると、過去 1 分間の hrProcessorLoad の計算ではなく、有効期間全体の CPU 負荷が hrProcessorLoad で計算されます。この結果、ホストで不正な CPU 負荷平均値が報告されます。
    今回のリリースで、この問題は修正されました。
  • ESXi ホストで resourceCpuAllocMax システム カウンタが誤った値で表示される
    ホスト システムに対して resourceCpuAllocMax および resourceMemAllocMax システム カウンタの値を取得しようとすると、ESXi ホストが不正な値を返します。この問題は、vCenter Server に接続された vSphere client で発生します。

    今回のリリースで、この問題は修正されました。
  • ESXi ホスト プロファイルでコンプライアンス エラーが報告され、Annotations.WelcomeMessage オプションが x 基準と一致しないというエラー メッセージが表示される
    Annotations.WelcomeMessage にテキストを追加し、ESXi ホスト プロファイルを作成して、同じホスト プロファイルを他のホストに適用するたびに、他のホストで次のようなエラー メッセージが報告されます。
    Option Annotaitons.WelcomeMessage does not match the specified Criteria
    今回のリリースで、この問題は修正されました。
  • ゲスト OS で ESXi ホストの bandwidthCap オプションが機能しないことがある
    ESXi ホストで bandwidthCap とスループットの上限が同時に設定されていると、仮想マシンで I/O 調整オプションが機能しなくなることがあります。これは、SCSI スケジューラで調整オプションを設定する際に論理比較を誤ったために発生します。

    今回のリリースで、この問題は修正されました。
  • ESXi サーバを vCenter Server に追加するときに、複数の ESXi ホストが応答を停止することがある
    ESXi サーバを vCenter Server に追加しようとすると、複数の ESXi サーバが応答を停止し、次のようなエラー メッセージが表示されることがあります。

    Unable to access the specified host, either it doesn't exist, the server software is not responding, or there is a network problem.

    この問題は、大量の HTTP URL リクエストが hostd に送信されたため、hostd サービスが異常終了すると発生します。

    今回のリリースで、この問題は解決しました。

  • MC5 ステータスの ESX ホスト デコードが正しくないことがある
    ESXi ホストで障害が発生して紫色の画面になったときにメモリ コントローラのエラー メッセージが TLB エラーとして誤って報告される場合がある
    ESXi ホストで障害が発生して紫色の画面になったときに、メモリ コントローラのエラー メッセージが変換索引バッファ (TLB) エラー メッセージ、レベル 2 TLB エラーとして誤って報告される場合があります。

    今回のリリースで、この問題は修正されました。
  • Active Directory ドメインに参加している ESXi ホストの Active Directory ユーザーまたはグループに VI Client から権限を追加できない
    ドメイン ドロップダウン メニューでドメイン名を選択できないため、AD ユーザーまたはグループに権限を追加できないことがあります。


    今回のリリースで、この問題は修正されました。
  • SNMP が有効で、サーバにサード パーティの CIM プロバイダがインストールされているホストで SNMP トラップが受信されない
    SNMP が有効で、サーバにサード パーティの CIM プロバイダがインストールされている ESXi ホストで監視対象のハードウェア ステータスが変わると、SNMP トラップが受信されないことがあります。syslog には次のようなメッセージが記録されます。

    2013-07-11T05:24:39Z snmpd: to_sr_type: unable to convert varbind type '71'
    2013-07-11T05:24:39Z snmpd: convert_value: unknown SR type value 0
    2013-07-11T05:24:39Z snmpd: parse_varbind: invalid varbind with type 0 and value: '2'
    2013-07-11T05:24:39Z snmpd: forward_notifications: parse file '/var/spool/snmp/1373520279_6_1_3582.trp' failed, ignored

    今回のリリースで、この問題は修正されました。
  • vCenter Server からクラスタ全体のストレージの再スキャンを実行すると、ESXi ホストと仮想マシンが応答しなくなる
    直接間接を問わず仮想マシン ファイル システム (VMFS) に関係する特定の操作を実行すると、通常、多数の VMFS データストアを共有する ESXi クラスタ環境で次の問題が発生することがあります。
    • ESXi ホストが断続的に応答を停止する
    • ESXi ホストが vCenter Server から切断される
    • 仮想マシンが断続的に応答を停止する
    • Microsoft Cluster Service (MSCS) の一部である仮想マシンが応答を停止し、その結果、フェイルオーバーが発生する
    • Site Recovery Manager (SRM) でデータ リカバリとフェイルオーバー テストを実行中にホスト通信エラーが発生する

  • IPMI センサー データを取得できない
    exscli hardware ipmi sdr list コマンドを定期的に実行すると、IPMI データ リポジトリが機能しなくなることがあります。

    今回のリリースで、この問題は修正されました。

  • ネットワークの中断後、TCP/SSL リモート ログが自動的に再起動されない
    リモート ログ サーバへのネットワーク接続が中断してリストアすると、TCP/SSL リモート syslog を使用して構成されている VMware ESXi 5.x ホストは、リモート ログ サーバへの syslog の送信を停止します。

    この問題は、 Default Network Retry Timeoutを追加することによって解決します。ホストは、 Default Network Retry Timeoutの経過後、syslog の送信を再試行します。 Default Network Retry Timeoutのデフォルト値は 180 秒です。このデフォルト値は、 esxcli system syslog config set --default-timeout=コマンドで変更できます。

    今回のリリースで、この問題は修正されました。
  • VMFS データストアまたは一部のファイルにアクセスできない
    vCenter Server のデータストア タブに仮想マシン ファイル システム (VMFS) データストアが存在しない、または イベント タブに次のようなイベントが表示されることがあります。
    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX or At least one corrupt on-disk lock was detected on volume [[Image:prio1.png]] ({2}).Other regions of the volume might be damaged too.

    vmkernel.logには次のメッセージが記録されます。

    [lockAddr 36149248] Invalid state: Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING: DLX: 908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk.Corrupt lock detected at offset 2279800: [type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$
    また、vmkernel.log に次のメッセージが記録されることがあります。
    2013-07-24T05:00:43.171Z cpu13:11547)WARNING: Vol3: ValidateFS:2267: XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7: Non-zero generation of VMFS3 volume: 1

    今回のリリースで、この問題は修正されました。
  • ESXi ホストの応答が停止して紫色の診断画面になり、「PCPU XX didn't have a heartbeat」エラーが表示される
    VMotion の実行中に ESXi ホストが反応しなくなり、次のようなトレースが表示されることがあります。
     
    2013-07-18T17:55:06.693Z cpu24:694725)0x4122e7147330:[0x418039b5d12e]Migrate_NiceAllocPage@esx#nover+0x75 stack: 0x4122e7147350
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e71473d0:[0x418039b5f673]Migrate_HeapCreate@esx#nover+0x1ba stack: 0x4122e714742c
    2013-07-18T17:55:06.694Z cpu24:694725)0x4122e7147460:[0x418039b5a7ef]MigrateInfo_Alloc@esx#nover+0x156 stack: 0x4122e71474f0
    2013-07-18T17:55:06.695Z cpu24:694725)0x4122e7147560:[0x418039b5df17]Migrate_InitMigration@esx#nover+0x1c2 stack: 0xe845962100000001
    ...
    2013-07-18T17:55:07.714Z cpu25:694288)WARNING: Heartbeat: 646: PCPU 27 didn't have a heartbeat for 7 seconds; *may* be locked up.
    2013-07-18T17:55:07.714Z cpu27:694729)ALERT: NMI: 1944: NMI IPI received.Was eip(base):ebp:cs

    これは、vMotion の実行中にホストのメモリが過負荷状態になった場合に発生します。

    今回のリリースで、この問題は修正されました。
  • DevFSFileClose 関数で fdshandle が NULL に設定されていると、ESXi ホストに障害が発生して紫色の診断画面が表示される
    fdshandle が NULL に設定されていて、2 つの関数 DevFSFileCloseと DevFSFileResetCommandが同時に fdshandle 値を変更しようとすると、ESXi ホストに障害が発生して紫色の診断画面が表示されることがあります。

    今回のリリースで、この問題は修正されました。
  • BIOS モードで TXT 機能を有効にすると、ESXi サーバの起動に失敗する
    ESXi ホストのシステム BIOS (1.41 バージョン) モードで TPM/TXT を有効にすると、Tboot と ESXi ホストの両方で起動に失敗することがあります。この問題は、IBM 3650 M4 サーバで起こることが確認されています。

    今回のリリースで、この問題は修正されました。
  • SCSIPathTimeoutHandlerFn で ScsiMidlayerFrame を処理すると、ESXi ホストに障害が発生して紫色の診断画面が表示される
    SCSI 機能の vmkCmdオプションを使用して ScsiMidlayerFrameを初期化する前にタイマーを設定した場合、ESXi ホストに障害が発生して紫色の診断画面になり、次のようなエラー メッセージが表示されることがあります。
    PF14 in world 3045899:PathTaskmgmt IP 0x418003489e86 addr 0x48

    今回のリリースで、この問題は修正されました。
  • コア ダンプ パーティションとコア Dump Collector サービスが構成されていないと、ESXi ホストは構成の問題の報告に失敗する
    コア ダンプ パーティションとコア Dump Collector サービスが構成されていないと、ESXi ホストは構成の問題の報告に失敗します。詳細構成オプション UserVars.SuppressCoredumpWarningfollowingを 1 に設定すると、この構成の問題を VI Client で抑制することができます。

    今回のリリースで、この問題は修正されました。
  • 優先パス設定を使用してホスト プロファイルを適用すると、ターゲット ホストに障害が発生し、パス値が無効というエラーが表示される
    固定 PSP を使用して Host1 を構成し、優先パスを構成します。そして、Host1 からプロファイルを抽出し、そのプロファイルを Host2 に適用します。Host2 プロファイルの最初の確認中に、ホスト プロファイル プラグイン モジュールでパス値が無効というエラーが発生し、パス値が無効と報告されることがあります。

    今回のリリースで、この問題は修正されました。

ストレージ

  • ゲスト OS から送信された Request Sense コマンドがデータを返さない
    ゲスト OS から物理モードの Raw デバイス マッピング (RDM) に SCSI Request Senseコマンドが送信されると、返された認識データが NULL (ゼロ) になっていることがあります。コマンドが ESXi ホストから送信された場合、この問題は発生しません。

    今回のリリースで、この問題は修正されました。
  • 大きな VMDK ファイルおよびスナップショット ファイルを持つ仮想マシンのクローン作成とコールド移行に失敗することがある
    大きな仮想マシン ディスク (VMDK) ファイルおよびスナップショット ファイルを持つ仮想マシンの場合、他のデータストアへのクローン作成とコールド移行ができないことがあります。この問題は、コールド移行中に、vpxa プロセスがメモリ割り当て量の上限を超えると発生します。その結果、ESXi ホストは vCenter Server との接続を失い、移行に失敗します。

    今回のリリースで、この問題は修正されました。
  • VMKlinux がデバイス ステータスの設定を誤ると、VMkernel ログ ファイルに Device Busy (D:0x8) ステータス メッセージが誤って表示されることがある
    VMKlinux がデバイス ステータスの設定を誤ると、VMkernel ログ ファイルに次のような Device Busy (D:0x8) ステータス メッセージが誤って表示されることがあります。

    2013-04-04T17:56:47.668Z cpu0:4012)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x412441541f80) 0x16, CmdSN 0x1c9f from world 0 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x0 D:0x8 P:0x0 Possible sense data: 0x0 0x0 0x0

    この問題が発生すると、ストレージ アレイが SCSI コマンドに対して Device Busy ステータス メッセージを送信しなくなったという誤ったアラームが生成されます。
    この問題は、今回のリリースで解決されました。具体的には、デバイス ドライバで発生した次のような問題に対して Host Bus Busy (H:0x2) ステータス メッセージが正しく設定されるようになりました。

    2013-04-04T13:16:27.300Z cpu12:4008)ScsiDeviceIO: SCSICompleteDeviceCommand:2311: Cmd(0x4124819c2f00) 0x2a, CmdSN 0xfffffa80043a2350 from world 4697 to dev "naa.600601601fb12d00565065c6b381e211" failed H:0x2 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0

    今回のリリースで、この問題は修正されました。
  • VMFS データストアの作成中に vCenter Server または vSphere Client が ESXi ホストから切断されることがある
    VMFS データストアの作成中に vCenter Server または vSphere Client が ESXi ホストから切断されることがあります。

    hostd ログに次のようなエラー メッセージを出力して hostd で障害が発生すると、この問題が発生します。
    Panic: Assert Failed: "matchingPart != __null".

    hostd は、パーティション アライメントを必要とする特定のパーティション構成を指定して、VMFS データストアをディスクに作成しているときに失敗します。
  • NFS データストア用のプロビジョニング領域の計算値が間違っているため、誤ったアラームが生成される
    特定の条件のもとで、NFS データストア用のプロビジョニング領域の計算値に間違いが生じ、誤ったアラームが生成されることがあります。

    今回のリリースで、この問題は修正されました。
  • 永続的なデバイス損失の後でデータストアをオンラインに戻すことができない
    ボリューム上で一部の開いているファイルの処理が原因で、永続的なデバイス損失 (PDL) の後、データストアをオンラインに戻すことができません。

    今回のリリースで、この問題は修正されました。
  • ESXi 起動プロセス中に nfsclient モジュールをロードすると、他のモジュールのロードが失敗する
    ネットワーク ファイル システム (NFS) マウント ポイントのホスト名解決で遅延が発生した場合、ESXi 起動プロセス中に nfsclient モジュールをロードすると、esx.conf ファイルが長い時間ロックされることが あります。この結果、migrate や ipmi などの他のモジュールのロードが失敗する場合があります。

    今回のリリースで、この問題は修正されました。
  • VMFS データストアまたは一部のファイルにアクセスできない
    vCenter Server のデータストア タブに仮想マシン ファイル システム (VMFS) データストアが存在しない、または [イベント] タブに次のようなイベントが表示されることがあります。

    XXX esx.problem.vmfs.lock.corruptondisk.v2 XXX or At least one corrupt on-disk lock was detected on volume {1} ({2}).Other regions of the volume might be damaged too.

    vmkernel ログには次のログ メッセージが表示されます。

    [lockAddr 36149248] Invalid state: Owner 00000000-00000000-0000-000000000000 mode 0 numHolders 0 gblNumHolders 4294967295ESC[7m2013-05-12T19:49:11.617Z cpu16:372715)WARNING: DLX: 908: Volume 4e15b3f1-d166c8f8-9bbd-14feb5c781cf ("XXXXXXXXX") might be damaged on the disk.Corrupt lock detected at offset 2279800: [type 10c00001 offset 36149248 v 6231, hb offset 372ESC[0$

    また、vmkernel.log に次のメッセージが記録されることがあります。

    2013-07-24T05:00:43.171Z cpu13:11547)WARNING: Vol3: ValidateFS:2267: XXXXXX/51c27b20-4974c2d8-edad-b8ac6f8710c7: Non-zero generation of VMFS3 volume: 1

    今回のリリースで、この問題は修正されました。
  • ESXi 5.1 ホストに障害が発生して紫色の診断画面になり、DevFSFileClose 関数に関係するエラー メッセージが表示されることがある
    複数のスレッドが同時に同じデバイスを閉じようとすると、ESXi 5.1 ホストに障害が発生して紫色の診断画面になり、次のようなバックトレースが表示されることがあります。
    cpu1:16423)@BlueScreen: #PF Exception 14 in world 16423:helper1-0 IP 0x41801ac50e3e addr 0x18PTEs:0x0;
    cpu1:16423)Code start: 0x41801aa00000 VMK uptime: 0:09:28:51.434
    cpu1:16423)0x4122009dbd70:[0x41801ac50e3e]FDS_CloseDevice@vmkernel#nover+0x9 stack: 0x4122009dbdd0
    cpu1:16423)0x4122009dbdd0:[0x41801ac497b4]DevFSFileClose@vmkernel#nover+0xf7 stack: 0x41000ff3ca98
    cpu1:16423)0x4122009dbe20:[0x41801ac2f701]FSS2CloseFile@vmkernel#nover+0x130 stack: 0x4122009dbe80
    cpu1:16423)0x4122009dbe50:[0x41801ac2f829]FSS2_CloseFile@vmkernel#nover+0xe0 stack: 0x41000fe9a5f0
    cpu1:16423)0x4122009dbe80:[0x41801ac2f89e]FSS_CloseFile@vmkernel#nover+0x31 stack: 0x1
    cpu1:16423)0x4122009dbec0:[0x41801b22d148]CBT_RemoveDev@ # +0x83 stack: 0x41000ff3ca60
    cpu1:16423)0x4122009dbef0:[0x41801ac51a24]FDS_RemoveDev@vmkernel#nover+0xdb stack: 0x4122009dbf60
    cpu1:16423)0x4122009dbf40:[0x41801ac4a188]DevFSUnlinkObj@vmkernel#nover+0xdf stack: 0x0
    cpu1:16423)0x4122009dbf60:[0x41801ac4a2ee]DevFSHelperUnlink@vmkernel#nover+0x51 stack: 0xfffffffffffffff1
    cpu1:16423)0x4122009dbff0:[0x41801aa48418]helpFunc@vmkernel#nover+0x517 stack: 0x0
    cpu1:16423)0x4122009dbff8:[0x0] stack: 0x0
    cpu1:16423)base fs=0x0 gs=0x418040400000 Kgs=0x0
    cpu1:16423)vmkernel 0x0 .data 0x0 .bss 0x0
    cpu1:16423)chardevs 0x41801ae70000 .data 0x417fc0000000 .bss 0x417fc00008a0

    今回のリリースで、この問題は修正されました。
  • fc_fcp_resp 関数で FCP_RSP_INFO の処理中に論理ユニット番号のリセットが失敗する
    NetApp ターゲットでの LUN RESET テストで、LUN RESET が失敗することが確認されています。fc_fcp_resp は、FCP_RSP_INFO が 8 バイトで、そのうちの 4 バイトが予約フィールドであるという前提に立っているため、fc_fcp_resp() では LUN RESET タスクが完了しません。しかし、NetApp ターゲットの場合、LUN RESET を実行する FCP_RSP には FCP_RSP_INFO の 4 バイト分しか含まれていません。この結果、タスクが完了せずに fc_fcp_resp エラーが発生し、最終的に LUN RESET が失敗します。

    今回のリリースで、この問題は修正されました。
  • ESXi ユーザーは、起動デバイスがないファイバ チャネル オーバー イーサネットを無効にできない
    ESX ホストで、ファイバ チャネル オーバー イーサネットのストレージ エリア ネットワークから起動した場合、ユーザーはどのポートでも FCoE を無効にできなくなることがあります。

    今回のリリースで、この問題は修正されました。
  • ソフトウェア iSCSI パラメータの変更が syslog.log ファイルに記録されない
    今回のリリースから、ソフトウェア iSCSI セッションと接続のパラメータへの変更は syslog.log ファイルに記録されるようになり、ファイルには以前のパラメータ値と新しいパラメータ値が含まれます。
  • Oracle Clusterware を使用した場合、共有仮想ディスクを利用する仮想マシンのスナップショットを取得しようとすると失敗することがある
    共有仮想ディスク上でマルチライター オプションと Oracle Clusterware ソフトウェアの Oracle Real Application Cluster (RAC) オプションを併用する場合、仮想マシンのスナップショットを取得しようとすると失敗し、仮想マシンの動作が停止することがあります。ログ ファイルには次のようなエントリが含まれていることがあります。

    Resuming virtual disk scsi1:5 failed.The disk has been modified since a snapshot was taken or the virtual machine was suspended.

    他のクラスタ管理ソフトウェアでも、この問題が見受けられることがあります。

    今回のリリースで、この問題は修正されました。

アップグレードおよびインストール

  • 再起動の影響のみをもつパッチでホストの修正が失敗する
    再起動の影響のみをもつパッチで構成されるパッチ ベースラインを適用して ESXi ホストの修正プロセスを実行すると、Update Manager はパワーオフに失敗するか、ホスト上の仮想マシンをサスペンドします。その結果、ホストはメンテナンス モードに切り替えることができず、修正を完了できません。

    この問題は、今回以降のリリースで作成されるパッチで修正されます。

vCenter Server、vSphere Client、および vSphere Web Client

  • カスタマイズされたパフォーマンス チャートに、仮想マシン オブジェクトの仮想ディスク集約統計データを表示するためのオプションが表示されない
    仮想ディスク メトリックを使用してパフォーマンス チャートを表示すると、使用可能な仮想ディスク オブジェクトのパフォーマンス チャートを表示するためのオプションしか表示されません。

    今回のリリースで、仮想マシン オブジェクトの仮想ディスク パフォーマンス チャートも表示できるようになりました。この機能は、仮想マシン別の仮想ディスクの使用状況に基づいてアラームを起動する必要があるときに便利です。
  • VAAI NAS を搭載したホストのプロビジョニング領域について、サマリ タブに表示される値が正しくない場合がある*
    VAAI NAS を搭載した ESXi ホスト上にシック プロビジョニング (Lazy zeroed 形式) で仮想ディスクを作成すると、データストアおよびデータストア クラスタ ビューで、 サマリ タブに表示されるプロビジョニング領域が、仮想ディスクに設定されたプロビジョニング済みのストレージの 2 倍になる場合があります。
    たとえば、プロビジョニングされたストレージが 75 GBの場合、表示されるプロビジョニング領域が約 150 GB となることがあります。

    今回のリリースで、この問題は修正されました。
  • VAAI NAS を搭載したホストのプロビジョニング領域について、サマリ タブに表示される値が正しくない場合がある*
    VAAI NAS を搭載した ESXi ホスト上にシック プロビジョニング (Lazy zeroed 形式) で仮想ディスクを作成すると、データストアおよびデータストア クラスタ ビューで、 サマリ タブに表示されるプロビジョニング領域が、仮想ディスクに設定されたプロビジョニング済みのストレージの 2 倍になる場合があります。
    たとえば、プロビジョニングされたストレージが 75 GBの場合、表示されるプロビジョニング領域が約 150 GB となることがあります。

    今回のリリースで、この問題は修正されました。

仮想マシンの管理

  • 仮想マシンで、3D ソフトウェア レンダリング オプションを有効にすると、WPF アプリケーションに項目が間違って表示される
    仮想マシンに Windows Presentation Foundation (WPF) アプリケーションをインストールして、3D ソフトウェア レンダリング オプションを有効にすると、WPF アプリケーションでイメージの表示中に不整合が生じることがあります。

    今回のリリースで、この問題は修正されました。
  • 仮想 CPU が 8 個以上ある Windows 2000 Server のインストール中、バグ チェック コード PAGE_FAULT_IN_NONPAGED_AREA が出て、ゲスト オペレーティング システムに障害が発生する
    Windows 2000 Server を仮想マシンにインストールすると、ゲスト オペレーティング システムに障害が発生し、青色の診断画面に PAGE_FAULT_IN_NONPAGED_AREAというエラー メッセージが表示されます。この問題は、8 個以上の仮想 CPU が存在する Windows 2000 仮想マシンで発生します。

    今回のリリースで、この問題は修正されました。
  • 共有ディスク上の書き込みロック競合により、共有非持続性ディスク タスクのホット リムーブに長時間かかる
    Unidesk API を使用して、共有非持続性読み取り専用ディスクを仮想マシンに追加すると、仮想マシンが応答を停止することがあります。これは、仮想マシンが排他モードで読み取り専用ディスクを開くために発生します。
    今回のリリースで、この問題は修正されました。

vMotion および Storage vMotion

  • CBT が有効になっている仮想マシンで、vMotion を使用して VMDK を別のボリュームに移動した後、増分バックアップが QueryChangedDiskAreas の FileFault エラーで失敗することがある
    Changed Block Training (CBT) が有効な仮想マシンで、すべての ChangeID 参照を破棄せずに CBT 情報が再初期化された際に、Storage vMotion を使用して仮想マシン ディスク
    (VMDK) を別のボリュームに移動してから QueryChangedDiskAreas を実行すると、次のような FileFault エラーが表示されることがあります。

    2012-09-04T11:56:17.846+02:00 [03616 info 'Default' opID=52dc4afb] [VpxLRO] -- ERROR task-internal-4118 -- vm-26512 --
    vim.VirtualMachine.queryChangedDiskAreas: vim.fault.FileFault:
    --> Result:
    --> (vim.fault.FileFault) {
    --> dynamicType = <unset>,
    --> faultCause = (vmodl.MethodFault) null, file =
    --> "/vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> msg = "Error caused by file
    /vmfs/volumes/4ff2b68a-8b657a8e-a151-3cd92b04ecdc/VM/VM.vmdk",
    --> }

    この問題を修正するには、Storage vMotion を使用して仮想マシン ディスク (VMDK) を別のデータストアに移動した後、CBT トラッキングが非アクティブ化されてから再アクティブ化されます。CBT を利用してさらに増分バックアップをとるには、すべての ChangeID 参照を破棄してフル バックアップを作成する必要があります。

    この問題は、ディスク変更トラッキング機能がライブラリ関数によって誤って再初期化されると発生します。

    今回のリリースで、この問題は修正されました。

VMware HA および Fault Tolerance

  • 単一のホストをメンテナンス モードにした後で、High Availability クラスタを有効にできない
    同じ High Availability (HA) クラスタの単一のホストをメンテナンス モードにした後で、HA クラスタを有効にできないことがあります。この問題は、 inode 記述子の番号が ESX ルート ファイル システム (VisorFS) で正しく設定されていないため、inode で stat call が失敗する場合に発生します。

    今回のリリースで、この問題は修正されました。

VMware Tools

  • vmhgfs のインストールを有効にした後で vmci と vsock がアップストリームされる場合、VMware Tools インストーラは vmhgfs モジュールをインストールしない
    vmci と vsock がアップストリームされる際に VMware Tools をインストールしようとすると、vmhgfs モジュールのインストールがすでに有効になっている場合、インストーラは vmhgfs モジュールをインストールしないことがあります。この問題は、カーネルのバージョンが 3.9 以降の Linux OS で確認されています。

    今回のリリースで、この問題は修正されました。
  • vmci と vsock をアップストリームすると、Linux カーネル 3.9 で仮想マシン制御インターフェイスがロードに失敗する
    vmci と vsock をアップストリームして VMware Tools をインストールする際、 /etc/vmware-tools/service.sh restartコマンドを実行してサービスをチェックすると、仮想マシン通信インターフェイスのステータスに失敗と表示されることがあります。この問題は、カーネルのバージョンが 3.9 以降の Linux OS で確認されています。

    今回のリリースで、この問題は修正されました。
  • VMware Tools をアップグレードすると、Windows OS が搭載されている仮想マシンで警告メッセージが表示されることがある
    ESXi 5.1 ホストで、VMware Tools をバージョン 9.0 にアップグレードすると、Windows OS が搭載されている仮想マシンで次のような警告メッセージが表示されることがあります。

    Failed registration of app type 2 (Signals) from plugin unity

    今回のリリースで、この問題は修正されました。
  • open-vm-tools が Linux Tools インストーラでアンインストールされる
    open-vm-tools が含まれている OS 上の vSphere でユーザーが VMware Tools インストーラを実行すると、open-vm-tools が自動的にアンインストールされて、VMware Tools がインストールされます。

    今回のリリースで、この問題は解決しました。

  • ESXi 5.1 から VMware Tools をインストールすると、Solaris 10 ゲスト OS が搭載されている仮想マシンが応答しなくなる
    ゲスト OS として Solaris 10 が搭載されている仮想マシンに ESXi 5.1 から VMware Tools をインストールすると、仮想マシンが応答しなくなり、次のようなメッセージが表示されることがあります。
    Wait for the CDE desktop to start

    今回のリリースで、この問題は修正されました。
  • サポートされないファイル システムのボリュームのドライブ文字を含むフィルタ規則を設定しようとすると、Windows Server 2003 または Windows XP の仮想マシンで障害が発生し、ブルー スクリーンになる場合がある
    サポートされないファイル システムのボリュームのドライブ文字を含むフィルタ規則を設定しようとすると、Windows Server 2003 または Windows XP の仮想マシンで障害が発生し、ブルー スクリーンに次のようなエラー メッセージが表示される場合があります。
    Error code 1000007e, parameter1 c0000005, parameter2 baee5d3b, parameter3 baa69a64, parameter4 baa69760.

    詳細については、http://go.microsoft.com/fwlink/events.asp の『ヘルプおよびサポート センター』を参照してください。データは次のとおりです。

    0000: 53 79 73 74 65 6d 20 45 System E
    0008: 72 72 6f 72 20 20 45 72 rror Er
    0010: 72 6f 72 20 63 6f 64 65 ror code
    0018: 20 31 30 30 30 30 30 37 10000070020: 65 20 20 50 61 72 61 6d e Param
    0028: 65 74 65 72 73 20 63 30 eters c
    00030: 30 30 30 30 30 35 2c 20 000005,
    0038: 62 61 65 65 35 64 33 62 baee5d3b
    0040: 2c 20 62 61 61 36 39 61 , baa69a
    0048: 36 34 2c 20 62 61 61 36 64, baa6
    0050: 39 37 36 30 9760

    この問題はほとんどの場合、Microsoft App-V によって作成されたドライブ文字 Q:\をフィルタ規則に追加したときに発生します。今回のリリースで、この問題は修正されました。
  • VMware Tools が更新され、SUSE Linux Enterprise 11 SP3、2.6.39-200/300/400 カーネルの Oracle Linux 5.x、
    および 2.6.39-200/300/400 カーネルの Oracle Linux 6.x 用のビルド済みモジュールが提供されるようになりました。
  • VMware Tools のアップデート時、vCenter 保護エージェントにより、署名なし実行可能ファイルに対して「VSS ドライバを登録解除します」という警告メッセージが表示される
    VMware Workstation で VMware Tools をアップデートしようとすると、vCenter 保護エージェントによって、署名なし実行可能ファイルの使用を示す 「VSS ドライバを登録解除しています」という警告メッセージが表示されます。この問題は、インストール フォルダにコピーされるファイルのリストに実行可能ファイルを含めることで解決します。

    今回のリリースで、この問題は修正されました。
  • ツールの vShield MSM に vnetflt.sys カーネル ドライバと関連ファイルを含める
    ツールの vShield MSM に vnetflt.sys カーネル ドライバと関連ファイルを含めます。これは、デフォルトの引数を追加していくつかの VM Installer API を変更する場合に役立ちます。これらの引数を使用して、グループ内にあるサービスの起動の順序付けに使用するタグを作成できます。

    今回のリリースで、この問題は修正されました。
  • vmci ドライバと vsock ドライバを clobber オプションとともにインストールすると、VMware Tools の起動に失敗する
    VMware Tools を --clobber-kernel-modules=vmci,vsockオプションとともにインストールすると、VMware Tools サービスの起動に失敗し、次のようなエラー メッセージが表示されます。

    Creating a new initrd boot image for the kernel.
    update-initramfs: Generating /boot/initrd.img-3.9.0-rc2-custom
    vmware-tools-thinprint start/running
    initctl: Job failed to start
    Unable to start services for VMware Tools

    Execution aborted.

    今回のリリースで、この問題は修正されました。カーネル バージョンが 3.9 以降の Linux で vmci ドライバと vsock ドライバをアップストリームした後、これらのドライバをインストールできなくなりました。
  • Window Server 2003 での VMwareTools のアンインストール
    Windows Server 2003 で VMware Tools をアンインストールしようとすると、仮想マシン (VM) による VMware Tools のアンインストールに失敗し、エラー メッセージが表示されます。

    今回のリリースで、この問題は解決しました。

既知の問題

既知の問題で以前記載されていなかったものには、* 記号が付加されています。既知の問題は、次のようにグループ化されています。

インストールとアップグレードの問題

  • インベントリ オブジェクトが、Postgres データベースで構成された vCenter Server Appliance をアップグレードした後に非表示になる場合がある
    Postgres データベースで構成された vCenter Server Appliance を 5.0 Update 2 から 5.1 Update 1 にアップグレードすると、アップグレード前に存在していたデータセンター、vDS などのインベントリ オブジェクトが非表示になる場合があります。この問題は、vSphere Web Client を使用して vCenter Server Appliance に接続すると発生します。

    回避策:vCenter Server Appliance をアップグレードした後に Inventory Service を再起動します。

  • Auto Deploy のステートフル インストールについて、ESX/ESXi がすでに USB 上にインストールされているシステム上で、ESX の firstdisk 引数を使用できない
    Auto Deploy でステートフル インストールを設定するホストについて、ホスト プロファイルを構成します。構成の一部として、ディスクとして USB を選択し、最初の引数として esx を指定します。現在そのホストでは、USB に ESX/ESXi がインストールされています。USB に ESXi がインストールされずに、Auto Deploy では ESXi がローカル ディスクにインストールされます。

    回避策:なし。

  • Auto Deploy の PowerCLI コマンドレット Copy-DeployRule および Set-DeployRule は、オブジェクトの入力を必要とする
    Copy-DeployRuleまたは Set-DeployRuleコマンドレットを実行するときにイメージ プロファイルまたはホスト プロファイルの名前を渡すと、エラーが発生します。

    回避策:イメージ プロファイルまたはホスト プロファイルのオブジェクトを渡します。

  • 選択したディスクに ESX がインストールされていると、ステートレス キャッシュが有効な Auto Deploy を使用するよう設定されているホスト プロファイルの適用に失敗する
    ステートレス キャッシュが有効になっている Auto Deploy を設定するには、ホスト プロファイルを使用します。ホスト プロファイルで、ESX (ESXi ではない) のバージョンがインストールされているディスクを選択します。ホスト プロファイルを適用すると、次のテキストを含むエラーが表示されます。
    2 つの起動バンクが求められていますが、0 個が見つかりました

    回避策:ESX ソフトウェアをディスクから削除するか異なるディスクを選択して、ステートレス キャッシュを使用します。

  • Auto Deploy サーバをホストするマシンの IP アドレスを変更すると、vSphere Auto Deploy が動作しなくなる
    vCenter Server と異なるマシンに Auto Deploy をインストールし、Auto Deploy サーバをホストするマシンの IP アドレスを変更します。変更後、Auto Deploy コマンドが動作しなくなります。

    回避策:Auto Deploy サーバ サービスを再起動します。
    net start vmware-autodeploy-waiter
    サービスを再起動しても問題が解決しない場合は、Auto Deploy サーバの再登録が必要となることがあります。すべてのオプションを指定して次のコマンドを実行します。
    autodeploy-register.exe -R -a  vCenter-IP -p  vCenter-Port -u  user_name -w  password -s  setup-file-path

  • HP DL980 G7 で、オンボード NIC を使用している場合に ESXi ホストが Auto Deploy 経由で起動しない
    システムで PXE 起動用にオンボード (LOM Netxen) NIC を使用していると、Auto Deploy を使用して HP DL980 G7 システムを起動できません。

    回避策:HP で承認されたアドオンの NIC (HP NC3 60T など) をホストにインストールし、その NIC を PXE 起動用に使用します。

  • esxcli のライブ アップデートが VibDownloadError で失敗する
    ユーザーは、2 つのアップデートを次の順番で実行します。

    1. esxcli software profile update または esxclivib update コマンドを使用したライブ インストール アップデート。
    2. 再起動を必要とするアップデート。

    2 番目のトランザクションは失敗します。よく発生する問題は、署名の検証です。これは、VIB のダウンロード後にしか確認できません。

    回避策:問題解決のプロセスには 2 つの段階があります。

    1. ESXi ホストを再起動して、状態をクリーンアップします。
    2. ライブ インストールを繰り返します。
  • マシンの NIC が接続されていないと、ESXi のインストール用スクリプトで CD-ROM ドライブ上のキックスタート (ks) ファイルを検出できない
    NIC が接続されていないシステムの CD-ROM ドライブにキックスタート ファイルが存在すると、インストーラによって次のようなエラー メッセージが表示されます。 Can't find the kickstart file on cd-rom with path < path_to_ks_file>.

    回避策:NIC を再接続してネットワーク接続を確立し、再度インストールを行います。

  • SWFCoE LUN でスクリプトによるインストールに失敗する
    キックスタート (ks) ファイルを使用するインストールが ESXi インストーラから呼び出された場合、すべての FCoE LUN のスキャンと取り込みが、インストールの開始前までに行われません。このため、すべての LUN でスクリプトによるインストールは失敗します。このエラーは、 https、 http、または ftpプロトコルを使用してキックスタート ファイルにアクセスする場合に発生します。

    回避策:キックスタート ファイルの %preセクションに、2 分のスリープを設定します。
    %pre --interpreter=busybox
    sleep 120

  • vCenter Server をアップグレードしても Auto Deploy サーバをアップグレードしないと潜在的な問題が存在する
    vCenter Server をアップグレードすると、vCenter Server により、各 ESXi ホストで vSphere HA エージェント (vmware-fdm) バージョン 5.0 が新しいエージェントに置き換えられます。この置き換えは、ESXi ホストを再起動するたびに行われます。vCenter Server を使用できない場合、ESXi ホストはクラスタに参加できません。

    回避策:可能であれば、Auto Deploy サーバをアップグレードします。
    Auto Deploy サーバをアップグレードできない場合は、vSphere PowerCLI に含まれている Image Builder PowerCLI コマンドレットを使用して、新しい vmware-fdm VIB を含む ESXi 5.0 イメージ プロファイルを作成できます。そのイメージ プロファイルをホストで指定できます。

    1. ESXi 5.0 ソフトウェア デポを追加し、新しい vmware-fdm VIB を含むソフトウェア デポを追加します。
      Add-EsxSoftwareDepot C:\  Path\VMware-Esxi-5.0.0-  buildnumber-depot.zip Add-EsxSoftwareDepot http://  vcenter server/vSphere-HA-depot
    2. 既存のイメージ プロファイルをクローン作成し、vmware-fdm VIB を追加します。
      New-EsxImageProfile -CloneProfile "ESXi-5.0.0-  buildnumber-standard" -name "  Imagename" Add-EsxSoftwarePackage -ImageProfile "  ImageName" -SoftwarePackage vmware-fdm
    3. 新しいイメージ プロファイルをホストに割り当てる新しいルールを作成し、そのルールをルールセットに追加します。
      New-DeployRule -Name "  Rule Name" -Item "  Image Name" -Pattern "  my host pattern" Add-DeployRule -DeployRule "  Rule Name"
    4. ホストのコンプライアンスのテストと修復操作を実行します。
      Test-DeployRuleSetCompliance  Host_list
  • ステートレス キャッシュがオンの場合に Auto Deploy サーバが使用できなくなると、格納されているイメージを使用してホストが自動的に起動しないことがある
    Auto Deploy を使用するステートレス キャッシュ用に設定されているホストは、Auto Deploy サーバが使用できなくなった場合に、イメージが格納されているディスクから自動的に起動しないことがあります。これは、目的の起動デバイス論理起動順序で次にあっても発生します。実際のエラー内容は、サーバ ベンダーの BIOS 設定によって異なります。

    回避策:キャッシュされたイメージが起動デバイスとして設定されているディスクを手動で選択します。

  • ESXCLI を使用して ESXi 5.0 ホストを ESXi 5.1 にアップグレードしているときに、VMotion とフォールト トレランス (FT) のログ設定が失われる
    ESXi 5.0 ホストで、ポート グループの vMotion と FT を有効にします。コマンド esxcli software profile update を実行してホストをアップグレードします。アップグレードに成功すると、vMotion の設定とフォールト トレランスのログ設定はデフォルト設定に戻ります。つまり、これらの設定が無効になります。

    回避策:vSphere Update Manager を使用してホストをアップグレードするか、vMotion とフォールト トレランスをアップグレード前の設定に手動で戻します。

ネットワークの問題
  • SR-IOV に対応する ESXi ホストで、仮想機能に関連付けられた仮想マシンが起動に失敗する場合がある
    Intel ixgbe NIC を搭載した ESXi 5.1 ホストで SR-IOV を有効にした環境でいくつかの仮想機能を有効にすると、一部の仮想マシンが起動に失敗する場合があります。
    次のようなメッセージが vmware.log ファイルに表示されます。
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    回避策: 影響を受ける仮想マシンに関連付ける仮想機能の数を減らし、仮想マシンを起動します。

  • Auto Deploy で ESXi 5.1 または 5.0 U1 をプロビジョニングするとき、TFTP/HTTP 転送中にシステムの応答が停止する
    Emulex 10GbE NC553i FlexFabric 2 ポート上で、最新のオープンソースの gPXE を使用して Auto Deploy で ESXi 5.1 または 5.0 U1 をプロビジョニングすると、TFTP/HTTP 転送中にシステムの応答が停止します。

    Emulex 10GbE PCI-E コントローラは、メモリ マッピング済みのコントローラです。このコントローラ上で動作する PXE/UNDI スタックは、ネットワーク経由でパケットの送受信を行うために、PXE TFTP/HTTP 転送中にリアル モードからビッグ リアル モードへ切り替えて、1MB を超えて配置されるデバイス特有のレジスタをプログラムする必要があります。このプロセス中に、CPU の割り込みが不注意に有効化され、CPU モードの切り替え中に他のデバイスの割り込みが発生した場合にシステムの応答が停止します。

    回避策:NIC ファームウェアをビルド 4.1.450.7 以降にアップグレードします。

  • 標準仮想スイッチ上のポート数を変更しても、ホストを再起動するまでそれが有効化されない
    標準仮想スイッチ上でポート数を変更すると、その変更はホストを再起動するまで有効になりません。これは、ポート数の変更が即時有効となる分散仮想スイッチの動作とは異なります。

    標準仮想スイッチ上のポート数を変更する場合、ホスト上の標準および分散の両方のスイッチからのポート数の合計が、4096 を超えないようにしてください。

    回避策:なし。

  • 物理 NIC の管理状態がダウンとして正しく報告されない
    管理目的のための物理 NIC のダウン設定は、IEEE 標準に準拠していません。仮想スイッチ コマンドを使用して物理 NIC を 「ダウン」 に設定すると、既知の 2 つの問題が発生します。

    • ESXi で処理できる以上にトラフィックが増加し、ESXi に面している物理スイッチでのネットワーク リソースおよび ESXi 自体のリソースが無駄になります。

    • NIC が予期しない動作をします。オペレータは NIC のパワーダウンが表示されることを予期していますが、NIC には引き続きアクティブと表示されます。

    次の点に注意して、ESXCLI ネットワーク ダウン コマンド -n vmnicN を使用することをお勧めします。
    • このコマンドは、ドライバのみをオフにします。NIC をパワーオフするものではありません。ESXi 物理ネットワーク アダプタが ESXi システムに面している物理スイッチの管理インターフェイスから表示される場合、標準スイッチのアップリンクは引き続きアクティブと表示されます。

    • NIC の管理状態は、ESXCLI または UI には表示されません。デバッグ時には、/etc/vmware/esx.conf を調べて状態を必ず確認する必要があります。

    • 管理状態は SNMP エージェントから報告されますが、まず第一に動作状態がダウンの場合に NIC がダウンに設定されていると、正しく報告されません。動作状態がアクティブの場合に NIC がダウンに設定されていれば、管理状態は正しく報告されます。

    回避策:仮想スイッチ コマンドを使用する代わりに、ESXi システムに面している物理スイッチの管理状態をダウンに変更します。

  • Linux ドライバのサポート変更
    VMXNET2 または VMXNET (フレキシブル) 仮想 NIC のデバイス ドライバは、Linux カーネル バージョン 3.3 以降を実行している仮想マシンでは使用できません。

    回避策:Linux カーネル バージョン 3.3 以降を実行している仮想マシンには、VMXNET3 または e1000 仮想 NIC を使用します。

  • vSphere 5.0 ネットワーク I/O コントロールのバンド幅割り当てが、複数のアップリンクで均等に分散されない
    vSphere 5.0 の場合、ネットワーク I/O コントロールの使用中にリソース プールでネットワーク バンド幅の制限が設定されていると、この制限がホスト レベルのアップリンクのチーム全体に強制されます。このバンド幅の上限は、トークンの分散アルゴリズムによって実装されますが、これは複数のアップリンク間でバンド幅を均等に分散するようには設計されていません。

    回避策:vSphere 5.1 ネットワーク I/O コントロールの制限は、アップリンク単位に絞られています。

  • ミラー パケットの長さ設定により、リモート ミラーリング ソース セッションが動作しないことがある
    [ミラー パケットの長さ] オプションを使用してリモート ミラーリング ソース セッションを構成すると、ターゲットで一部のミラー パケットが受信されません。ただし、オプションを無効にすると、パケットが再び受信されます。
    [ミラー パケットの長さ] オプションが設定されていると、指定の長さを超えるパケットは切り詰められ、パケットがドロップされます。下位レイヤー コードは断片化を行わず、ドロップされたパケットのチェックサムを再計算します。パケットがドロップされる原因には、次の 2 つがあります。

    • ミラー パケットの長さが最大転送ユニット (MTU) より大きい
      環境で TSO が有効になっていると、元のパケットが非常に大きい可能性があります。ミラー パケットの長さで切り詰められた後でも MTU より大きいため、物理 NIC によってドロップされます。

    • 中間スイッチで L3 チェックが実行される
      切り詰められた一部のパケットは、パケットの長さとチェックサムに誤りがある場合があります。一部の高度な物理スイッチでは、L3 情報がチェックされ、無効なパケットがドロップされます。ターゲットでは、パケットが受信されません。
       

    回避策

    • TCP セグメンテーション オフロード (TSO) が有効な場合は、[ミラー パケットの長さ] オプションを無効にします。

    • Cisco 4500 シリーズ スイッチなどの一部スイッチでは、L3 チェックを有効または無効にすることができます。このようなスイッチを使用している場合は、L3 チェックを無効にします。構成できないスイッチについては、[ミラー パケットの長さ] オプションを無効にします。
  • 16 を超える VMkernel ネットワーク アダプタを有効化すると、vMotion が失敗する
    vSphere 5.x には、vMotion 対応のホスト 1 台あたりに対して有効化する VMkernel ネットワーク アダプタは 16 までという制限があります。特定ホスト上の vMotion で 16 を超える VMkernel ネットワーク アダプタを有効化すると、そのホストとの間の vMotion 移行に失敗する可能性があります。VMkernel ログオン ESXi に、[ 17 ストリーム IP エントリの初期化要求を拒否しています] というエラー メッセージが表示されます。数値は、vMotion で有効化した VMkernel ネットワーク アダプタ数を示します。

    回避策:vMotion で有効化されている VMkernel ネットワーク アダプタ数が合計 16 になるまで無効化します。

  • VLAN 環境で nx_nic ドライバを使用していると、vSphere ネットワーク コアダンプが動作しない
    VLAN の一部であるホストでネットワーク コアダンプが構成されている場合、NIC で QLogic インテリジェント イーサネット アダプタ ドライバ (nx_nic) を使用すると、ネットワーク コアダンプに失敗します。アップリンク アダプタで nx_nic を使用すると、受信されたネットワーク コアダンプ パケットに正しい VLAN タグが付けられません。

    回避策:VLAN でネットワーク コアダンプを構成する場合は、異なるドライバを持つ別のアップリンク アダプタを使用します。

  • スクリプトによるインストールのキックスタート ファイルで使用中の NIC を呼び出すと、インストールに失敗する
    キックスタート ファイルを使用してインストール後の管理ネットワークを設定し、使用中の NIC をキックスタート ファイルから呼び出すと、次のようなエラー メッセージが表示されます。 Sysinfo error on operation returned status: Busy.エラーの詳細については、VMkernel ログを確認してください] というエラー メッセージが表示されます。

    このエラーは、2 つの NIC が存在する 1 つのシステムでスクリプトによるインストールを開始した場合に発生します。 この場合、1 つの NIC は SWFCoE/SWiSCSI 用に構成されており、もう 1 つの NIC はネットワーク用に構成されています。起動オプションで netdevice=<nic> または BOOTIF=<MAC of the NIC> のいずれかを指定することによって、ネットワーク NIC を使用してスクリプトによるインストールを開始すると、キックスタート ファイルのネットワーク行にある他の NIC netdevice=<nic configured for SWFCoE / SWiSCSI> を使用して、管理ネットワークが構成されます。

    インストール (ディスクのパーティショニング) は正常に行われますが、キックスタート ファイルで指定されたネットワーク パラメータを使用してホストの管理ネットワークをインストーラで構成しようとすると、NIC が SWFCoE/SWiSCSI で使用されているため操作に失敗します。

    回避策:キックスタート ファイルで使用可能な NIC を使用して、インストール後の管理ネットワークを設定します。

  • VMXNET3 を pNIC としても使用している ESX を実行する仮想マシンがクラッシュする可能性がある
    VMXNET3 のサポートは試験的であるため、VMXNET3 を pNIC としても使用している ESX をゲストとして実行している仮想マシンがクラッシュする可能性があります。ESX 仮想マシンのデフォルトの NIC は e1000 であり、この問題はデフォルトをオーバーライドし、VMXNET3 を選択した場合にのみ発生します。

    回避策:ESX 仮想マシンの pNIC として、e1000 または e1000e を使用してください。

  • 大量の dvPort が使用されているときにエラー メッセージが表示される
    すでに大量の dvPort を使用中であるホスト上で dvPort のある仮想マシンをパワーオンすると、[ メモリ不足] または [ リソース不足] のエラーが表示されます。これは、esxcli コマンドを使用してホスト上のスイッチをリストするときにも発生します。

    回避策:dvsLargeHeap サイズを増やします。

    1. ホストの詳細構成オプションを次のように変更します:
      • esxcli コマンド: esxcfg-advcfg -s /Net/DVSLargeHeapMaxSize 100
      • Virtual Center: [ホスト構成] > [ソフトウェア パネル] > [詳細設定] > 「ネット」の下を参照し、DVSLargeHeapMaxSize の値を 80 から 100 へ変更します。
      • vSphere 5.1 Web Client: [ホストの管理] > [設定] > [システムの詳細設定] > [フィルタ] を参照します。DVSLargeHeapMaxSize の値を 80 から 100 へ変更します。
    2. ホストからホスト プロファイルを取得します。プロファイルをホストに関連付け、応答ファイルを更新します。
    3. ホストを再起動し、値が適用されていることを確認します。

    :/Net/DVSLargeHeapMaxSize の最大値は 128 です。

    /Net/DVSLargeHeapMaxSize を 128 に変更した後の大規模導入中に問題が発生し、ログに次のいずれかのエラー メッセージが表示される場合は、VMware サポートにお問い合わせください。

    ポートを追加できません。ステータス(bad0006)= 制限超過

    vmkernel ステータスから DVS 状態を取得できませんでした(bad0014)= メモリ不足

  • Emulex BladeEngine-3 10G NIC(be2net ドライバ)で ESXi が失敗する
    vCDNI がバッキングするネットワーク プールを VMware vCloud Director を使用して構成すると、Emulex BladeEngine-3 10G NIC のあるシステム上で ESXi が失敗する場合があります。このデバイスでネットワーク プールを構成する場合は、Emulex から更新済みのデバイス ドライバを取得する必要があります。

    回避策:なし。

ストレージの問題

  • 仮想マシンを VMFS データストアから NFS データストアに移行すると RDM LUN が切断される
    vSphere Web クライアントを使用して RDM LUN を使用する仮想マシンを VMFS データストアから NFS データストアに移行すると、移行の操作はエラーや警告メッセージなしで完了しますが、移行後に RDM LUN が仮想マシンから切断されます。ただし、NFS データストアの RDM LUN と同じサイズの vmdk ファイルが移行操作時に作成され、RDM LUN に置換されます。
    vSphere Client を使用すると、適切なエラー メッセージが移行ウィザードの互換性のセクションに表示されます。

    回避策:なし
  • EMC Symmetrix VMAX/VMAXe ストレージ アレイを使用すると、VMFS5 データストアの作成に失敗することがある
    ESXi ホストが VMAX/VMAXe アレイに接続されていると、アレイに表示される LUN で VMFS5 データストアを作成できないことがあります。その場合、次のエラーが表示されます。 An error occurred during host configuration.このエラーは、以前に書き込みが行われていない LUN で新しいデータストアを禁止する Symmetrix Enginuity マイクロコード (VMAX 5875.x) の ATS (VAAI) 部分の結果です。

    回避策

    1. ESXi ホストでハードウェア アクセラレーション ロックを無効にします。
    2. VMFS5 データストアを作成します。
    3. ホストでハードウェア アクセラレーション ロックを再度有効にします。

    ハードウェア アクセラレーション ロック パラメータを無効にし、再度有効にするには、次のタスクを使用します。

    vSphere Web Client の場合

    1. vSphere Web Client ナビゲータで、ホストを参照して移動します。
    2. 管理 タブをクリックし、 設定 をクリックします。
    3. [システム] の下で システムの詳細設定 をクリックします。
    4. VMFS3.HardwareAcceleratedLocking を選択し、[編集] アイコンをクリックします。
    5. VMFS3.HardwareAcceleratedLocking パラメータの値を次のように変更します。
      • 0: 無効
      • 1: 有効

    vSphere Client の場合

    1. vSphere Client のインベントリ パネルでホストを選択します。
    2. 構成 タブをクリックし、[ソフトウェア] の 詳細設定 をクリックします。
    3. VMFS3.HardwareAcceleratedLocking パラメータの値を次のように変更します。
      • 0: 無効
      • 1: 有効
  • Storagesystem::updateDiskPartitions()を使用していると、空のディスクで GPT パーティションの作成に失敗することがある
    Storagesystem::computeDiskPartitionInfoAPI を使用してディスク仕様を取得してから、ディスク仕様を使用してディスクにラベルを付け、 Storagesystem::updateDiskPartitions()を使用してパーティションを作成できます。ただし、ディスクが最初に空になっており、ターゲットのディスク フォーマットが GPT の場合は、パーティションの作成に失敗することがあります。

    回避策:回避策: DatastoreSystem::createVmfsDatastoreを代わりに使用して、空のディスクのラベル付けとパーティションの作成を行い、VMFS5 データストアを作成します。

  • GPT ディスクで診断パーティションの作成に失敗することがある
    GPT ディスクにパーティションがないか、ディスクの末尾部分が空の場合、ディスクで診断パーティションを作成できないことがあります。

    回避策:診断パーティションには、GPT フォーマットのディスクを使用しないでください。既存の空の GPT ディスクを診断パーティション用に使用する必要がある場合は、ディスクを MBR フォーマットに変換します。

    1. ディスクで VMFS3 データストアを作成します。
    2. データストアを削除します。

    ディスク フォーマットが GPT から MBR に変わります。
  • 2TB を超えているか Intel FCoE NIC からアクセスされる FCoE LUN から ESXi を起動できない
    2TB を超えているか Intel FCoE NIC からアクセスされる FCoE 起動 LUN に ESXi をインストールする場合、インストールは成功することがあります。ただし、ESXi ホストを起動しようとしても、失敗します。次のエラー メッセージが表示されます。 ERROR: No suitable geometry for this disk capacity!and ERROR: Failed to connect to any configured disk!at BIOS time.

    回避策:FCoE LUN が 2TB を超えており、FCoE 起動用に構成された Intel FCoE NIC に接続されている場合は、ESXi を FCoE LUN にインストールしないでください。2TB 未満の FCoE LUN に ESXi をインストールします。

サーバ構成の問題
  • コンソールから VMFS フォルダへのアクセス中に、ホスト プロファイルの適用に失敗することがある
    ホスト プロファイルがホストに適用されているときに、ユーザーがコンソールから VMFS データストア フォルダにアクセスしていると、修正または適用タスクに失敗することがあります。このエラーは、ホスト プロファイルでステートレス キャッシュが有効になっている場合、または Auto Deploy インストールが行われた場合に発生します。

    回避策:ホスト プロファイルの修正中には、コンソールから VMFS データストアにアクセスしないでください。

  • ログイン バナーの先頭に空白が含まれていると、ホスト プロファイルのコンプライアンス エラーが発生する
    ホスト プロファイルを編集して [ログイン バナー (今日のメッセージ)] オプションのテキストを変更するときに、バナー テキストの先頭に空白を追加すると、プロファイルの適用時にコンプライアンス エラーが発生します。[ ログイン バナーが変更されました] というコンプライアンス エラーが表示されます。

    回避策:ホスト プロファイルを編集し、[ログイン バナー] ポリシー オプションから先頭の空白を削除します。

  • ESXi 5.0 から抽出されたホスト プロファイルは、Active Directory が有効になっている ESX 5.1 ホストに適用できない
    ESXi 5.0 から最初に抽出され、Active Directory が有効になっているホスト プロファイルを ESX 5.1 ホストに適用しようとすると、適用タスクに失敗します。likewise システム リソース プールに最大メモリ サイズを設定すると、エラーが発生することがあります。Active Directory が有効になっている場合、likewise システム リソース プール内のサービスは、ESXi 5.0 ホスト プロファイルから取得した ESXi 5.0 のデフォルトの最大メモリ制限より多くのメモリを消費します。その結果、最大メモリ制限を ESXi 5.0 レベルに設定するときに、ESXi 5.0 ホスト プロファイルの適用に失敗します。

    回避策:次のいずれかの手順を実行します。

    • ホスト プロファイルを手動で編集して、likewise グループの最大メモリ制限を増やします。
      1. ホスト プロファイル エディタで リソース プール フォルダに移動し、 host/vim/vmvisor/plugins/likewise を表示します。
      2. 最大メモリ (MB) 設定を 20 (ESXi 5.0 のデフォルト) から 25 (ESXi 5.1 のデフォルト) に変更します。
    • likewise グループのサブプロファイルを無効にします。次のいずれかの処理を行います。
      • vSphere Web Client で、ホスト プロファイルを編集し、 リソース プール フォルダのチェックボックスを選択解除します。この操作により、すべてのリソース プール管理が無効になります。この無効化を リソース プール フォルダの host/vim/vmvisor/plugins/likewise 項目に限定することもできます。
      • vSphere Client で、ホスト プロファイルを右クリックし、メニューから プロファイル構成の有効化/無効化... を選択します。
  • ESXi 5.0.x ホスト プロファイルをステートフル ESXi 5.1 ホストに再適用すると、ホスト ゲートウェイが削除されコンプライアンス エラーが発生する
    新しくインストールされた ESXi 5.1 ホストに ESXi 5.0.x ホスト プロファイルを適用すると、プロファイルのコンプライアンス ステータスが非準拠になります。同じプロファイルを再度適用すると、ホストのゲートウェイ IP が削除され、[ IP ルート構成は仕様と一致しません] というステータス メッセージが表示されてコンプライアンス ステータスが引き続き非準拠と表示されます。

    回避策:次のいずれかの回避策を実行します。

    • DCUI からホストにログインし、次の esxcliコマンドを使用してデフォルトのゲートウェイを手動で追加します。
      esxcli network ip route ipv4 add --gateway xx.xx.xx.xx --network yy.yy.yy.yy
    • ESX 5.0 ホスト プロファイルを 1 度適用した後で、ESX 5.1 ホストから新しいホスト プロファイルを抽出します。ESX 5.1 ホストを ESX 5.1 ベースの新しいホスト プロファイルに移行します。
  • USB ディスクでステートレス キャッシュを有効にすると、コンプライアンス エラーが発生することがある
    ホスト プロファイルで USB ディスクへのステートレス キャッシュが有効になっていると、修正後にコンプライアンス エラーが発生することがあります。修正した変更内容を適用するためにホストを再起動すると、ステートレス キャッシュは成功しますが、コンプライアンス エラーは引き続き発生します。

    回避策:回避策はありません。

  • ステートレス キャッシュが有効になっているホスト プロファイルを適用すると、多数のデータストアが存在するホストでタイムアウトが発生する
    ステートレス キャッシュが有効になっているホスト プロファイルを適用すると、多数のデータストアが存在するホストでタイムアウトが発生します。

    回避策:vSphere Client を使用して、タイムアウト値を増やします。

    1. [管理]   - [vCenter Server 設定]   を選択します。
    2. タイムアウト設定 を選択します。
    3. Normal Operations と Long Operations の値を 3600 秒に変更します。
  • vmknic で IPv4 が無効になっていると、ホストからホスト プロファイルを抽出できない
    すべての vmknic からすべての IPv4 アドレスを削除すると、そのホストからホスト プロファイルを抽出できません。この環境では、ホスト プロファイルがホスト構成を保存する唯一の方法であるため、この操作は Auto Deploy を使用してプロビジョニングされたホストに最も影響を及ぼします。

    回避策:少なくとも 1 つの vmknic を 1 つの IPv4 アドレスに割り当てます。

  • ESXi 4.1 ホストから抽出したホスト プロファイルを ESXi 5.1 ホストに適用する場合、ホスト プロファイルの適用に失敗する
    ESXi 4.1 でホストを設定し、このホスト (vCenter Server を使用) からホスト プロファイルを抽出して、ESXi 5.1 ホストにプロファイルを添付しようとすると、プロファイルの適用操作に失敗します。次のエラー メッセージが表示されることがあります。 NTP service turned off.

    ESXi 4.1 では、 /etc/ntp.confで NTP サーバを指定しなくても、NTPD サービスが実行している (オン状態) ことがあります。ESXi 5.1 では、サービスの実行に明示的な NTP サーバが必要です。

    回避策: /etc/ntp.confで有効な NTP サーバを追加して NTP サービスをオンにし、5.1 ホストで NTP デーモンを再起動します。再起動後にサービスが保持されていることを確認します。この操作により、NTP サービスがホストに対して同期され、プロファイルが適用されることが保証されます。

  • プロファイルを正常に適用した後、ホスト プロファイルに非準拠と表示される
    この問題は、ESXi 5.0 ホストからホスト プロファイルを抽出し、ローカル SAS デバイスを含む ESXi 5.1 ホストにそのホスト プロファイルを適用する場合に発生します。ホスト プロファイルの修正が正常に行われても、ホスト プロファイル コンプライアンスに非準拠と表示されます。

    次のようなエラーが表示されることがあります。

    • Specification state absent from host: device naa.500000e014ab4f70 Path Selection Policy needs to be set to VMW_PSP_FIXED
    • Specification state absent from host: device naa.500000e014ab4f70 parameters needs to be set to State = on" Queue Full Sample Size = "0" Queue Full Threshold = "0"

    ESXi 5.0 ホスト プロファイルのストレージ プラグインでは、PSA および NMP デバイス構成のローカル SAS デバイスが含まれますが、ESXi 5.1 ではこのようなデバイス構成が除外されます。このため、古いホスト プロファイルを新しいホストに適用するときに、デバイスが見つからないという結果になります。

    回避策:ホスト プロファイルを手動で編集し、すべてのローカル SAS デバイスについて PSA および NMP デバイス構成エントリを削除します。デバイスがローカル SAS であるかどうかを確認するには、次の esxcli コマンドを入力します。
    esxcli storage core device list

    次の行が返された場合、デバイスはローカル SAS です。
    Is Local SAS Device

  • デフォルトのシステム サービスが、Auto Deploy を使用してプロビジョニングされた ESXi ホストで常に開始する
    Auto Deploy を使用してプロビジョニングされた ESXi ホストでは、関連するホスト プロファイルの [サービス構成] セクションにあるサービス起動ポリシーは完全には考慮されません。特に、ESXi で デフォルトでオンになっているいずれかのサービスで [起動ポリシー] の値が offになっていても、Auto Deploy を使用してプロビジョニングされた ESXi ホストの起動時にはそのサービスが開始します。

    回避策:ESXi ホストの起動後に、サービスを手動で停止します。

  • snmpd の再起動後に、VMWARE-VMINFO-MIB からの情報取得が正しく行われない
    ESXi シェルから /etc/init.d/snmpd restartを使用して snmpd デーモンを再起動した後、SNMPWalk 時に VMWARE-VMINFO-MIB の一部の情報が不足していることがあります。

    回避策: /etc/init.d/snmpd restartは使用しないでください。SNMP デーモンの開始または停止には、 esxcli system snmp set --enableコマンドを使用する必要があります。 /etc/init.d/snmpd restartを使用して ESXi シェルから snmpd を再起動した場合は、DCUI から、または ESXi シェルから /etc/init.d/hostd restartを使用して Hostd を再起動します。

vCenter Server および vSphere Client の問題
  • View Storage Accelerator を有効または無効にすると、ESXi ホストと vCenter Server の接続が失われる場合がある
    VMware View が vSphere 5.1 でデプロイされている場合、View 管理者がデスクトップ プールの View Storage Accelerator を有効または無効にすると、ESXi 5.1 ホストと vCenter Server 5.1 の接続が失われる可能性があります。

    View Storage Accelerator の機能は、コンテンツ ベースの読み取りキャッシュとも呼ばれます。View 5.1 View Administrator コンソールでは、この機能はホスト キャッシュと呼ばれています。

    回避策:vSphere 5.1 でデプロイされた View 環境で View Storage Accelerator を有効または無効にしないようにします。

仮想マシンの管理の問題
  • ESX 3.x 以降(仮想マシン バージョン 4)からの仮想マシン互換性のアップグレードにより、Windows システムのデフォルト ドライバに対する Windows 仮想マシンのフレキシブル アダプタが誤って構成される
    VMware Accelerated AMD PCnet アダプタ ドライバ用に構成されているフレキシブル ネットワーク アダプタ付きの Windows ゲスト OS の場合、仮想マシンの互換性を ESX 3.x 以降(仮想マシン バージョン 4) から ESXi 4.x 以降(仮想マシン バージョン 7) などの、さらに新しい互換性設定へアップグレードすると、Windows はフレキシブル アダプタを Windows AMD PCNET Family PCI Ethernet Adapter のデフォルト ドライバに構成します。
    この誤った構成は、VMware Tools ドライバが署名されておらず、Windows が署名済みのデフォルトの Windows ドライバを選択するために発生します。互換性のアップグレードの前に存在していたフレキシブル アダプタ ネットワーク設定は失われ、NIC のネットワーク速度が 1Gbps から 10Mbps へ変更されます。

    回避策:仮想マシンの互換性をアップグレードした後に、フレキシブル ネットワーク アダプタが Windows ゲスト OS で VMXNET ドライバを使用するように構成します。お使いのゲストを ESXi5.1 VMware Tools で更新すると、VMXNET ドライバは次の場所にインストールされます。 C:\Program Files\Common Files\VMware\Drivers\vmxnet\.

  • 仮想マシンに VMware Tools をインストールして再起動すると、ネットワークが使用できなくなる
    CentOS 6.3 および Oracle Linux 6.3 オペレーティング システムが搭載された仮想マシンでは、VMware Tools を正常にインストールし仮想マシンを再起動した後で、ネットワークが使用できなくなります。DHCP サーバから IP アドレスを、またはコマンド ラインから固定 IP アドレスを手動で取得しようとすると、[ メモリを割り当てることができません] というエラーが表示されます。
    デフォルトで使用されるフレキシブル ネットワーク アダプタがオペレーティング システムに適していないということが問題です。

    回避策:次のように、ネットワーク アダプタをフレキシブルから E1000 または VMXNET 3 に変更します。

    1. vmware-uninstall-tools.plコマンドを実行して、VMware Tools をアンインストールします。
    2. 仮想マシンをパワーオフします。
    3. vSphere Web Client で仮想マシンを右クリックして、 設定の編集 を選択します。
    4. [仮想ハードウェア] をクリックし、[削除] アイコンをクリックして現在のネットワーク アダプタを削除します。
    5. 新しいネットワーク アダプタを追加し、アダプタ タイプに E1000 または VMXNET 3 を選択します。
    6. 仮想マシンをオンにします。
    7. VMware Tools を再インストールします。
  • ESXi の VMFS 以外の仮想ディスクが含まれるクローン作成操作または移行操作が失敗してエラーが表示される
    vmkfstools コマンドやクライアントを使用して、ホスト型フォーマットの仮想ディスクでクローン作成操作、コピー操作、または移行操作を実行しても、それらの操作は失敗して次のエラー メッセージが表示されます。 The system cannot find the file specified.

    回避策:ホスト型フォーマットの仮想ディスクでクローン作成、コピー、または移行操作を実行するには、VMkernel マルチエクステント モジュールを ESXi にロードする必要があります。

    1. ESXi Shell にログインし、マルチエクステント モジュールをロードします。
      # vmkload_mod multiextent
    2. いずれかの仮想マシン ディスクがホスト型であるかどうかを確認します。ホスト型ディスクの末尾には、 -s00x.vmdk拡張子が付いています。
    3. ホスト型フォーマットの仮想ディスクをいずれかの VMFS フォーマットに変換します。
      1. ソースのホスト型ディスク test1.vmdk を test2.vmdk にクローン作成します。
        # vmkfstools -i test1.vmdk test2.vmdk -d zeroedthick|eagerzereodthick|thin
      2. クローン作成が正常に行われたら、ホスト型ディスク test1.vmdk を削除します。
        # vmkfstools -U test1.vmdk
      3. クローン作成した vmfs 型ディスク test2.vmdk の名前を test1.vmdk に変更します。
        # vmkfstools -E test2.vmdk test1.vmdk
    4. マルチエクステント モジュールをアンロードします。
      #vmkload_mod -u multiextent
  • 仮想マシンに割り当てられた IP アドレスが存在せず、操作状態にあることが表示されない
    この問題の原因は、ゲスト OS が発した LUN リセット要求にあります。この問題は、ソフトウェア FCoE が ESXi ホストで構成されている IBM XIV Fibre Channel アレイに特有のものです。LUN に常駐する仮想マシンは、次の問題を示します:

    • 仮想マシンに IP アドレスが割り当てられません。
    • 仮想マシンのパワーオンまたはパワーオフを実行できません。
    • マウス カーソルがコンソール内に表示されません。結果として、ゲスト OS 内で影響を受けている仮想マシンのコントロールまたは相互作用を行うことができなくなります。

    回避策:お使いの ESXi ホストから、問題のある仮想マシンが常駐している LUN をリセットします。

    1. 次のコマンドを実行して、LUN 情報を取得します。
      # vmkfstools -P /vmfs/volumes/ DATASTORE_NAME
    2. 出力の中で次の行を検索し、LUN の UID を取得します。
      Partitions spanned (on 'lvm'): eui.001738004XXXXXX:1
      eui.001738004XXXXXXis the device UID.
    3. 次のコマンドを実行して、LUN をリセットします。
      # vmkfstools -L lunreset /vmfs/devices/disks/eui.001738004XXXXXX
    4. エクステントの追加など、関連付けられている LUN が複数存在するデータストアに応答しない仮想マシンが常駐している場合は、すべてのデータストア エクステントについて LUN のリセットを実行してください。
移行の問題
  • Storage vMotion を使用して複数のリンク クローン仮想マシンを移行しようとすると失敗する
    この問題は、一般的にリンク クローン仮想マシンに影響を及ぼします。この問題は、差分ディスクのサイズが 1 MB で、コンテンツ ベースの読み取りキャッシュ (CBRC) 機能が ESXi ホストで有効になっている場合に発生します。次のエラー メッセージが表示されます。 ソースはターゲットがレジュームに失敗したことを検出しました。

    回避策:次のいずれかの方法を使用して Storage vMotion の問題を回避します。

    • 差分ディスクのサイズとして 4 KB を使用します。

    • Storage vMotion を使用せずに、パワーオフした仮想マシンを新しいデータストアに移行します。

VMware HA およびフォールト トレランスの問題
  • フォールト トレランス対応の仮想マシンは、vCenter Server のベータ ビルドで統計情報を記録するように設定されているとクラッシュする
    vmx*3 機能では、ユーザーが stats vmx を実行して、サポートの問題をデバッグするためにパフォーマンス統計を収集できます。stats vmx は、vCenter Server のベータ ビルドでフォールト トレランスが有効になっている場合には互換性がありません。

    回避策:フォールト トレランスを有効にする場合は、vCenter Server のベータ ビルドで仮想マシンが統計を記録するように設定されていないことを確認してください。

サポート対象のハードウェアの問題
  • Apple Mac Pro サーバで、PCI の 不明 不明ステータスが vCenter Server に表示される
    Apple Mac Pro の一部の PCI デバイスでは、Sphere 5.1 の [ハードウェア ステータス] タブに、[ 不明 不明] と表示されます。これは、Apple Mac Pro のこれらの PCI デバイスにハードウェアの説明が欠けているからです。[ハードウェア ステータス] タブにエラーが表示されても、PCI デバイスは問題なく動作します。

    回避策:なし。

  • AMD PileDriver で、PCI の 不明 不明ステータスが vCenter Server に表示される
    AMD PileDriver の一部の PCI デバイスでは、Sphere 5.1 の [ハードウェア ステータス] タブに、[ 不明 不明] と表示されます。これは、AMD PileDriver のこれらの PCI デバイスにハードウェアの説明が欠けているからです。[ハードウェア ステータス] タブにエラーが表示されても、PCI デバイスは問題なく動作します。

    回避策:なし。

  • Apple Mac Pro サーバで DPM がサポートされていない
    vSphere 5.1 の DPM (Distributed Power Management) 機能は、Apple Mac Pro ではサポートされていません。DPM が有効になっているクラスタに Apple Mac Pro を追加しないでください。ホストが 「スタンバイ」 状態になると、パワーオン コマンドを実行してもスタンバイ状態が終了せず、[ 操作がタイムアウトになりました] というエラーが表示されます。Apple Mac Pro は、ホストをスタンバイ状態にするために vSphere で使用されるソフトウェアのパワーオフ コマンドから再開できません。

    回避策:Apple Mac Pro ホストが 「スタンバイ」 状態になった場合は、物理的に電源ボタンを押してホストをパワーオンする必要があります。

  • Apple Mac Pro サーバで IPMI がサポートされていない
    vSphere 5.1 の [ハードウェア ステータス] タブに正しいデータが表示されないか、Apple Mac Pro の一部のハードウェア コンポーネントにデータがありません。これは、Apple Mac Pro で IPMI がサポートされていないからです。

    回避策:なし。

その他の問題
  • ネットワークまたはストレージが中断した後、TCP 経由の syslog、SSL 経由の syslog、ストレージ ログが自動的に再起動されない
    ネットワークまたはストレージが中断した後、特定の構成で syslog サービスが自動的に再起動されません。このような構成には、TCP 経由の syslog、SSL 経由の syslog、ストレージ ログの中断があります。

    回避策:次のコマンドを実行して syslog を明示的に再起動します。
    esxcli system syslog reloadまた、自動的に起動される UDP 経由の syslog を構成することもできます。

  • Windows Server 2012 のフェイルオーバー クラスタリングがサポートされていない
    Windows Server 2012 でフェイルオーバー クラスタリング用にクラスタを作成し、検証テストの実行を選択すると、ウィザードで警告が表示されて検証テストが終了しその後、検証テストが再度実行されます。Windows Server 2012 ゲスト OS のウィザードは、クラスタの作成ステージに続行しません。

    回避策:なし。

 
 
VMware ESXi 5.1 Update 2 | 2014 年 1 月 16 日 | ビルド 1483097 最終更新日:2014 年 7 月 24 日 これらのリリース ノートへの追加や更新を確認してください。
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 VMware-VMvisor-Installer-5.1.0.update02-xxxxxxx.x86_64.iso
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
  • VMware vCenter Update Manager
  • CD アップグレード
  • スクリプトを使用したアップグレード
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   update-from-esxi5.1-5.1_update02.zip
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   なし
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 VMware ポータル (オンライン) からダウンロードしたパッチ定義の使用
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   パッチ ベースライン付きの VMware vCenter Update Manager
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   なし
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
VMware ESXi 5.1 Update 2 | 2014 年 1 月 16 日 | ビルド 1483097 最終更新日:2014 年 7 月 24 日 これらのリリース ノートへの追加や更新を確認してください。
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 VMware-VMvisor-Installer-5.1.0.update02-xxxxxxx.x86_64.iso
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
  • VMware vCenter Update Manager
  • CD アップグレード
  • スクリプトを使用したアップグレード
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   update-from-esxi5.1-5.1_update02.zip
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
  • VMware vCenter Update Manager
  • ESXCLI
  • VMware vSphere CLI
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   なし
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3  
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 VMware ポータル (オンライン) からダウンロードしたパッチ定義の使用
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   パッチ ベースライン付きの VMware vCenter Update Manager
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3   なし
アップグレードに含まれている内容 ESX 4.0: 以下を含む ESX 4.0 Update 1 ESX4.0 Update 2 ESX4.0 Update 3 ESX 4.0 Update 4 なし
サポート対象のアップグレード ツール ESXi 4.0: 以下を含む ESXi 4.0 Update 1 ESXi 4.0 Update 2 ESXi 4.0 Update 3 ESXi 4.0 Update 4 なし
ESXi 5.1 Update 2 へのサポート対象のアップグレード方法 ESX 4.1: 以下を含む ESX 4.1 Update 1 ESX 4.1 Update 2 ESX 4.1 Update 3