Cisco Nexus 1000V システム管理コンフィギュレーション ガイド リリース 4.2(1)SV1(5.1)
iSCSI マルチパスの設定
iSCSI マルチパスの設定
発行日;2012/05/24 | 英語版ドキュメント(2012/04/18 版) | ドキュメントご利用ガイド | ダウンロード ; この章pdf , ドキュメント全体pdf (PDF - 3MB) | フィードバック

目次

iSCSI マルチパスの設定

iSCSI マルチパスについて

概要

サポートされる iSCSI アダプタ

VMware スイッチの iSCSI マルチパス設定

注意事項および制約事項

前提条件

デフォルト設定

iSCSI マルチパスの設定

アップリンクのピン接続とストレージのバインド

アップリンクのピン接続とストレージのバインドのプロセス

のポート プロファイルの作成

の作成およびポート プロファイルの適用

NIC の手動ピン接続

物理 NIC の iSCSI アダプタの特定

vSphere Client の iSCSI アダプタの特定

ホスト サーバの iSCSI アダプタの特定

iSCSI アダプタへの のバインド

ハードウェアの iSCSI 設定への変換

ハードウェアの iSCSI 設定への変換のプロセス

ソフトウェアの iSCSI アダプタへのバインドの解除

DVS へのハードウェアの NIC の追加

アクセス VLAN の変更

アクセス VLAN の変更のプロセス

アクセス VLAN の変更

iSCSI マルチパスの設定の確認

ストレージ切断の検出の管理

その他の関連資料

関連資料

標準

iSCSI マルチパス機能の履歴

iSCSI マルチパスの設定

この章では、サーバとそのストレージ デバイス間の複数のルートのために iSCSI マルチパスを設定する方法について説明します。次の内容が含まれます。

「iSCSI マルチパスについて」

「注意事項および制約事項」

「前提条件」

「デフォルト設定」

「iSCSI マルチパスの設定」

「iSCSI マルチパスの設定の確認」

「ストレージ切断の検出の管理」

「その他の関連資料」

「iSCSI マルチパス機能の履歴」

iSCSI マルチパスについて

ここでは、次の内容について説明します。

「概要」

「サポートされる iSCSI アダプタ」

「VMware スイッチの iSCSI マルチパス設定」

概要

iSCSI マルチパスとは、サーバとそのストレージ デバイスとの間に複数のルートをセットアップする機能です。常時接続の維持と、トラフィック負荷の分散が可能になります。マルチパス ソフトウェアによって、すべての入力/出力要求が処理され、要求は最善のパスを通して送信されます。ホスト サーバから共有ストレージへのトラフィックの伝送には、iSCSI プロトコルが使用されます。この iSCSI プロトコルによって、SCSI コマンドが iSCSI パケットにパッケージ化され、このパケットがイーサネット ネットワーク上で伝送されます。

iSCSI マルチパスは、パス フェールオーバーを可能にします。パスまたはそのコンポーネントのいずれかで障害が発生した場合、サーバは別の使用可能なパスを選択します。パス フェールオーバーに加えて、マルチパスは、複数の物理パス間でストレージの負荷を分散することで潜在的なボトルネックを低減、またはなくします。

Cisco Nexus 1000V DVS は iSCSI ターゲットに関係なく、iSCSI マルチパスを実行します。ESX サーバの iSCSI デーモンは、ホスト上の 2 つ以上の VMkernel NIC を使用して複数のセッションの iSCSI ターゲットと通信し、それらを Cisco Nexus 1000V の物理 NIC にピン接続します。アップリンクのピン接続は、Cisco Nexus 1000V によって提供されるマルチパスの唯一の機能です。ストレージのバインド、パス選択、パス フェールオーバーなどの他のマルチパス機能は、VMkernel で実行される VMware コードによって提供されます。

iSCSI マルチパスを設定するには、次の手順を実行します。

1. アップリンクのピン接続

iSCSI アクセス用に作成された VMkernel の各ポートは、1 つの物理 NIC にピン接続されます。

これは、NIC チーミング ポリシーまたはポート バンドリング ポリシーを無効にします。VMkernel ポートからのトラフィックはすべて、アップストリーム スイッチに到達するためにピン接続されたアップリンクのみ使用します。

2. ストレージのバインド

VMkernel の各ポートは、VMkernel ポートがピン接続される物理 NIC に関連付けられた VMware iSCSI ホスト バス アダプタ(VMHBA)にピン接続されます。

ESX または ESXi ホストは物理 NIC 用に次の VMHBA を作成します。

ソフトウェアの iSCSI では、すべての物理 NIC に対して VMHBA が 1 つだけ作成されます。

ハードウェアの iSCSI では、ハードウェアの iSCSI オフロードをサポートする物理 NIC ごとに VMHBA が 1 つ作成されます。

iSCSI ストレージ エリア ネットワーク(SAN)とともに VMware ESX および VMware ESXi のシステムを使用する方法の詳細については、『 iSCSI SAN Configuration Guide 』を参照してください。

サポートされる iSCSI アダプタ

この項では、使用可能な VMware iSCSI ホスト バス アダプタ(VMHBA)の一覧、および Cisco Nexus 1000V によってサポートされるものを示します。

VMware iSCSI ホスト バス アダプタ(VMHBA)
VSM のサポート対象か。
説明
VMkernel ネットワーキングが必要か。

ソフトウェア

Yes

標準の NIC が IP ネットワーク上のリモート iSCSI ターゲットにホストを接続できるようにします。

Yes

依存するハードウェア

Yes

サードパーティのアダプタはホストからの iSCSI およびネットワーク処理をオフロードしますが、iSCSI 制御処理はオフロードしません。

Yes

独立したハードウェア

No

サードパーティのアダプタはホストからの iSCSI 制御およびネットワーク処理をオフロードします。vSphere Client から直接設定されるため、VSM で設定を行う必要はありません。

No

VMware スイッチの iSCSI マルチパス設定

マルチパスをイネーブルにするか、または設定する前に、ソフトウェアまたはハードウェアの iSCSI アダプタのネットワーキングを設定する必要があります。この設定には、iSCSI アダプタと物理 NIC 間のトラフィック用の VMkernel iSCSI ポートの作成が含まれます。

vSwitch では、アップリンクのピン接続は、管理者の手動により、vSphere Client 上で行われます。

ストレージのバインドも、管理者の手動により、ESX ホスト上で直接行われるか、または RCLI を使用して行われます。

ソフトウェアの iSCSI の場合、全体の実装に VMHBA が 1 つだけ必要です。VMkernel のすべてのポートは、このアダプタにバインドされます。たとえば、図 13-1 では、vmk1 と vmk2 の両方が VMHBA35 にバインドされています。

ハードウェアの iSCSI の場合、NIC ごとに別々のアダプタが必要です。VMkernel の各ポートは、ピン接続されている物理 VM NIC のアダプタにバインドされます。たとえば、図 13-1 では、vmk1 は、vmnic1 と関連付けられていて、vmk1 がピン接続されている iSCSI アダプタである VMHBA33 にバインドされています。同様に vmk2 は VMHBA34 にバインドされています。

図 13-1 VMware 仮想スイッチの iSCSI マルチパス

 

 

次の表は 図 13-1 に示されているハードウェアおよびソフトウェアの iSCSI マルチパスの設定で使用されるアダプタおよび NIC を示しています。

ソフトウェア HBA
VMkernel NIC
VM NIC

VMHBA35

1

1

2

2

ハードウェア HBA

VMHBA33

1

1

VMHBA34

2

2

注意事項および制約事項

iSCSI マルチパス機能に関する注意事項および制約事項は、次のとおりです。

vEthernet タイプのポート プロファイルのみ、 capability iscsi-multipath を指定して設定できます。

iSCSI マルチパスに使用されるポート プロファイルは、トランク ポート プロファイルではなくアクセス ポート プロファイルである必要があります。

capability iscsi-multipath を指定して設定したポート プロファイルでは、次のことはできません。

capability l3 control を指定してポート プロファイルを設定することもできません。

ポート プロファイルが VMkernel NIC によって継承される場合のシステム VLAN の変更。

ポート プロファイルが VMkernel NIC によって継承される場合のアクセス VLAN の変更。

ポート モードからトランク モードへの変更。

VMkernel NIC ポートのみ capability iscsi-multipath を指定して設定されているポート プロファイルを継承できます。

Cisco Nexus 1000V のアップリンクの自動ピン接続を無効にしようとする場合、次の制限が適用されます。

VMkernel ポートは、1 つの物理 NIC にのみピン接続できます。

ソフトウェア物理 NIC には VMkernel の複数のポートをピン接続できます。

ハードウェア物理 NIC には VMkernel の 1 つのポートのみピン接続できます。

iSCSI イニシエータとストレージがすでに動作可能である必要があります。

ESX 4.0 Update1 以降ではソフトウェアの iSCSI マルチパスのみサポートされます。

ESX 4.1 以降ではソフトウェアとハードウェアの iSCSI マルチパスの両方がサポートされます。

ソフトウェアまたはハードウェアの iSCSI でマルチパスをイネーブルにする、または設定する前に VMkernel ポートを作成する必要があります。

VMkernel ネットワーキングが iSCSI トラフィックに対して機能している必要があります。

アクティブな VMkernel NIC がピン接続されているアップリンクを DVS から取り外す前に、VMkernel NIC とその VMHBA 間のバインドを解除する必要があります。次のシステム メッセージは警告として表示されます。

vsm# 2010 Nov 10 02:22:12 sekrishn-bl-vsm %VEM_MGR-SLOT8-1-VEM_SYSLOG_ALERT: sfport : Removing Uplink Port Eth8/3 (ltl 19), when vmknic lveth8/1 (ltl 49) is pinned to this port for iSCSI Multipathing

ハードウェアの iSCSI は、Cisco Nexus 1000V Release 4.2(1)SV1(5.1) の新機能です。以前のリリースでソフトウェアの iSCSI マルチパスを設定している場合は、アップグレード後も次の内容が維持されます。

マルチパス

ソフトウェアの iSCSI アップリンクのピン接続

VMHBA アダプタのバインド

iSCSI ストレージへのホスト アクセス

ハードウェア オフロードが可能な NIC を ESX 4.1 で利用するには、「ハードウェアの iSCSI 設定への変換」を参照してください。

iSCSI ターゲットとイニシエータは同じサブネットにある必要があります。

前提条件

iSCSI マルチパス機能を使用するための前提条件は次のとおりです。

VMware iSCSI SAN ストレージ仮想化について理解している。iSCSI ストレージ エリア ネットワーク(SAN)とともに VMware ESX および VMware ESXi のシステムを使用する方法の詳細については、『 iSCSI SAN Configuration Guide 』を参照してください。

iSCSI イニシエータを VMware ESX/ESXi ホストでセットアップする方法を理解している。

ホストが次のいずれかですでに機能している。

VMware ESX 4.0.1 Update 01(ソフトウェアの iSCSI の場合)

VMware ESX 4.1 以降(ソフトウェアとハードウェアの iSCSI の場合)

iSCSI マルチパス化およびパス フェールオーバーについて理解している。

VMware カーネル NIC が SAN 外部ストレージにアクセスするように設定されている。

デフォルト設定

表 13-1 に、iSCSI マルチパス コンフィギュレーション内のデフォルト設定を示します。

 

表 13-1 iSCSI マルチパスのデフォルト

パラメータ
デフォルト

タイプ(port-profile)

vEthernet

説明(port-profile)

なし

VMware ポート グループ名(port-profile)

ポート プロファイルの名前

スイッチポート モード(port-profile)

アクセス

ステート(port-profile)

ディセーブル

iSCSI マルチパスの設定

iSCSI マルチパスを設定するには、次の手順を使用します。

「アップリンクのピン接続とストレージのバインド」

「ハードウェアの iSCSI 設定への変換」

「VMkernel NIC アクセス VLAN の変更」

アップリンクのピン接続とストレージのバインド

ここでは、システム VLAN を使用して設定されている iSCSI マルチパス ポート プロファイルに vEthernet インターフェイスを割り当てることで、iSCSI プロトコルを介してホストとターゲット間に iSCSI マルチパスを設定する方法を説明します。

アップリンクのピン接続とストレージのバインドのプロセス


ステップ 1 「VMkernel NIC のポート プロファイルの作成」

ステップ 2 「VMkernel NIC の作成およびポート プロファイルの適用」

ステップ 3 次のいずれかを実行します。

NICS の自動ピン接続を無効にする場合は、「NIC の手動ピン接続」に進みます。

そうでない場合は、ストレージのバインドを続行します。

アップリンクのピン接続を完了しました。ストレージのバインドの次のステップに進みます。

ステップ 4 「物理 NIC の iSCSI アダプタの特定」

ステップ 5 「iSCSI アダプタへの VMkernel NIC のバインド」

ステップ 6 「iSCSI マルチパスの設定の確認」


 

VMkernel NIC のポート プロファイルの作成

VMkernel NIC のポート プロファイルを作成するには、この手順を使用します。

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

2 つ以上の物理 NIC が含まれる 1 つのポート チャネルを持つホストを設定済みです。

マルチパス化をインターフェイス上で設定する必要があります。設定するには、この手順を使用して iSCSI マルチパス ポート プロファイルを作成し、そのポート プロファイルにインターフェイスを割り当てます。

EXEC モードで CLI にログインしていること。

この iSCSI マルチパス ポート プロファイルに追加する VLAN の VLAN ID がわかっている必要があります。

その VLAN は Cisco Nexus 1000V 上であらかじめ作成しておく必要があります。

この iSCSI マルチパス ポート プロファイルに割り当てる VLAN は、システム VLAN であることが必要です。

いずれかのアップリンク ポートのシステム VLAN 範囲にこの VLAN がすでに含まれている必要があります。

ポート プロファイルは、アクセス ポート プロファイルであることが必要です。トランク ポート プロファイルであってはなりません。ここで説明する手順の中で、ポート プロファイルをアクセス ポート プロファイルとして設定します。

手順の概要

1. config t

2. port-profile type vethernet name

3. vmware port-group [ name ]

4. switchport mode access

5. switchport access vlan vlanID

6. no shutdown

7. (任意)system vlan vlanID

8. capability iscsi-multipath

9. state enabled

10. (任意) show port-profile name

11. (任意)copy running-config startup-config

手順の詳細

 

コマンド
目的

ステップ 1

config t

Example:

n1000v# config t

n1000v(config)#

CLI グローバル コンフィギュレーション モードを開始します。

ステップ 2

port-profile type vethernet name

Example:

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)#

指定したポート プロファイルの CLI ポート プロファイル コンフィギュレーション モードを開始します。

type :ポート プロファイルを Ethernet タイプまたは vEthernet タイプとして定義します。この設定を後で変更することはできません。デフォルトは vEthernet タイプです。

(注) ポート プロファイルを Ethernet タイプとして設定すると、VMware 仮想ポートの設定には使用できなくなります。

name :ポート プロファイル名の長さは最大 80 文字です。Cisco Nexus 1000V 上の各ポート プロファイルの名前は一意でなければなりません。

ステップ 3

description profile description

 

Example:

n1000v(config-port-prof)# description “Port Profile for iSCSI multipath”

n1000v(config-port-prof)#

ポート プロファイルに説明を追加します。この説明は、自動的に vCenter Server にプッシュされます。

profile description :最大 80 の ASCII 文字

(注) 説明にスペースが含まれる場合、引用符で囲む必要があります。

ステップ 4

vmware port-group [ name ]

Example:

n1000v(config-port-prof)# vmware port-group VMK-port-profile

n1000v(config-port-prof)#

ポート プロファイルを VMware ポート グループとして指定します。

ポート プロファイルは、同じ名前の VMware ポート グループにマッピングされます。vCenter Server 接続が確立すると、Cisco Nexus 1000V で作成されたポート グループは、vCenter Server の仮想スイッチに配信されます。

nameVMware ポート グループ名。ポート プロファイルを別のポート グループ名にマッピングする場合は、別の名前を使用してください。

ステップ 5

switchport mode access

Example:

n1000v(config-port-prof)# switchport mode access

n1000v(config-port-prof)#

インターフェイスがスイッチ アクセス ポート(デフォルト)であることを指定します。

ステップ 6

switchport access vlan vlanID

Example:

n1000v(config-port-prof)# switchport access vlan 254

n1000v(config-port-prof)#

システム VLAN ID を、このポート プロファイルのアクセス ポートに割り当てます。

(注) この iSCSI ポート プロファイルに割り当てられる VLAN は、システム VLAN でなければなりません。

ステップ 7

no shutdown

Example:

n1000v(config-port-prof)# no shutdown

n1000v(config-port-prof)#

管理上の目的でプロファイル内のすべてのポートをイネーブルにします。

ステップ 8

system vlan vlanID

Example:

n1000v(config-port-prof)# system vlan 254

n1000v(config-port-prof)#

システム VLAN を、このポート プロファイルに追加します。

これで、ホストが初めて追加されたときや後で再起動されるときに、VEM が確実に VSM に到達できるようになります。いずれかのアップリンク ポートのシステム VLAN 範囲にこの VLAN が含まれている必要があります。

ステップ 9

capability iscsi-multipath

Example:

n1000v(config-port-prof)# capability iscsi-multipath

n1000v(config-port-prof)#

ポートを iSCSI マルチパス化に使用できるようになります。

vCenter Server で、iSCSI マルチパス ポート プロファイルが選択され、VMkernel NIC ポートに割り当てられている必要があります。

ステップ 10

state enabled

Example:

n1000v(config-port-prof)# state enabled

n1000v(config-port-prof)#

ポート プロファイルをイネーブルにします。

このポート プロファイルの設定が、割り当てられたポートに適用されます。また、vCenter Server 上の VMware vSwitch 内にポート グループが作成されます。

ステップ 11

show port-profile name name

Example:

n1000v(config-port-prof)# show port-profile name multipath-profile

n1000v(config-port-prof)#

(任意)ポート プロファイルの現在のコンフィギュレーションを表示します。

ステップ 12

copy running-config startup-config

Example:

n1000v(config-port-prof)# copy running-config startup-config

(任意)リブート後に永続的な実行コンフィギュレーションを保存し、スタートアップ コンフィギュレーションにコピーして再起動します。

ステップ 13

「アップリンクのピン接続とストレージのバインドのプロセス」

VMkernel NIC の作成およびポート プロファイルの適用

この手順を使用して、VMkernel NIC を作成し、それらにポート プロファイルを適用することができます。適用すると、VMkernel NIC が物理 NIC に自動的にピン接続されます。

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

「VMkernel NIC のポート プロファイルの作成」を使用してポート プロファイルをすでに作成しており、このポート プロファイルの名前を知っている必要があります。

VMkernel ポートが、vSphere Client 上に直接作成されている必要があります。

iSCSI VLAN を伝送する物理 NIC ごとに VMkernel NIC を 1 つ作成します。ストレージ デバイスへのパスの数が、作成した VMkernel NIC の数と同じである必要があります。

この手順の 2 を行うと、VMkernel NIC が物理 NIC に自動的にピン接続されます。そのため、自動ピン接続に関する次のルールを理解しておく必要があります。

VMkernel NIC とアップリンクが同じ VLAN を伝送する場合のみ、VMkernel NIC はアップリンクにピン接続されます。

iSCSI VLAN を伝送する物理 NIC が多数ある場合は、ハードウェアの iSCSI NIC が最初に選択されます。

ソフトウェアの iSCSI NIC は、使用可能なハードウェアの iSCSI NIC がない場合にのみ選択されます。

2 つの VMkernel NIC が同じハードウェアの iSCSI NIC にピン接続されることはありません。

2 つの VMkernel NIC を同じソフトウェアの iSCSI NIC にピン接続できます。


ステップ 1 iSCSI VLAN を伝送する物理 NIC ごとに VMkernel NIC を 1 つ作成します。

たとえば、2 つのパスを設定する場合は、Cisco Nexus 1000V DVS に 2 つの物理 NIC を作成して iSCSI VLAN を伝送します。2 つの物理 NIC は、他の VLAN を伝送する場合があります。2 つのパス用の VMkernel NIC を 2 つ作成します。

ステップ 2 capability iscsi-multipath を指定して設定したポート プロファイルを VMkernel ポートに適用します。

Cisco Nexus 1000V は、VMkernel NIC を物理 NIC に自動的にピン接続します。

ステップ 3 ESX ホストで、自動ピン接続の設定を表示して確認します。

~ # vemcmd show iscsi pinning

Example:
~ # vemcmd show iscsi pinning
Vmknic LTL Pinned_Uplink LTL
vmk6 49 vmnic2 19
vmk5 50 vmnic1 18
 

ステップ 4 これで手順は完了です。「アップリンクのピン接続とストレージのバインドのプロセス」に戻ってください。


 

NIC の手動ピン接続

この手順を使用して、Cisco Nexus 1000V によって行われる NIC の自動ピン接続を無効にして、VMkernel NIC を物理 NIC に手動でピン接続できます。


) Cisco Nexus 1000V によって自動的に行われたピン接続が最適ではない場合、またはピン接続を変更する場合は、この手順で説明されている、ESX ホストで vemcmd を使用してピン接続を無効にする方法を参照してください。


はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

ESX ホストにログインしている。

VMkernel NIC をすでに作成していて、ポート プロファイルを適用している場合は、「VMkernel NIC の作成およびポート プロファイルの適用」を使用します。

ピン接続を変更する前に、iSCSI VMkernel NIC と VMHBA 間のバインドを解除する必要があります。この手順には、解除のステップも含まれています。

手動のピン接続は、ESX ホストのリブート後も維持されます。VMkernel NICを DVS から vSwitch に移動して戻した場合、手動のピン接続は失われます。


ステップ 1 各 VMHBA のバインドを表示して、解除するバインドを特定します(iSCSI VMkernel NIC から VMHBA)。

esxcli swiscsi nic list -d vmhba nn

Example:
esxcli swiscsi nic list -d vmhba33
vmk6
pNic name: vmnic2
ipv4 address: 169.254.0.1
ipv4 net mask: 255.255.0.0
ipv6 addresses:
mac address: 00:1a:64:d2:ac:94
mtu: 1500
toe: false
tso: true
tcp checksum: false
vlan: true
link connected: true
ethernet speed: 1000
packets received: 3548617
packets sent: 102313
NIC driver: bnx2
driver version: 1.6.9
firmware version: 3.4.4
vmk5
pNic name: vmnic3
ipv4 address: 169.254.0.2
ipv4 net mask: 255.255.0.0
ipv6 addresses:
mac address: 00:1a:64:d2:ac:94
mtu: 1500
toe: false
tso: true
tcp checksum: false
vlan: true
link connected: true
ethernet speed: 1000
packets received: 3548617
packets sent: 102313
NIC driver: bnx2
driver version: 1.6.9
firmware version: 3.4.4

 

ステップ 2 iSCSI VMkernel NIC と VMHBA 間のバインドを解除します。

Example:
esxcli swiscsi nic remove --adapter vmhba33 --nic vmk6
esxcli swiscsi nic remove --adapter vmhba33 --nic vmk5
 

) アクティブな iSCSI セッションがホストとターゲットの間に存在する場合、iSCSI ポートは接続解除できません。


ステップ 3 EXS のホストで自動ピン接続の設定を表示します。

~ # vemcmd show iscsi pinning

Example:
~ # vemcmd show iscsi pinning
Vmknic LTL Pinned_Uplink LTL
vmk6 49 vmnic2 19
vmk5 50 vmnic1 18

 

ステップ 4 VMkernel NIC を物理 NIC に手動でピン接続して、自動ピン接続の設定を無効にします。

~ # vemcmd set iscsi pinning vmk-ltl vmnic-ltl

Example:

~ # vemcmd set iscsi pinning 50 20

ステップ 5 手動のピン接続を確認します。

~ # vemcmd show iscsi pinning

Example:
~ # vemcmd show iscsi pinning
Vmknic LTL Pinned_Uplink LTL
vmk6 49 vmnic2 19
vmk5 50 vmnic3 20

 

ステップ 6 これで手順は完了です。「アップリンクのピン接続とストレージのバインドのプロセス」に戻ってください。


 

物理 NIC の iSCSI アダプタの特定

次の手順のいずれかを使用して、物理 NIC に関連付けられている iSCSI アダプタを特定できます。

「vSphere Client の iSCSI アダプタの特定」

「ホスト サーバの iSCSI アダプタの特定」

vSphere Client の iSCSI アダプタの特定

vSphere Client でこの手順を使用して、物理 NIC に関連付けられている iSCSI アダプタを特定できます。

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

vSphere Client にログインしている。


ステップ 1 [Inventory] パネルでホストを選択します。

ステップ 2 [Configuration] タブをクリックします。

ステップ 3 [Hardware] パネルの [Storage Adapters] をクリックします。

依存するハードウェアの iSCSI アダプタが、ストレージ アダプタのリストに表示されます。

ステップ 4 アダプタを選択し、[Properties] をクリックします。

iSCSI イニシエータの [Properties] ダイアログボックスには、iSCSI 名および iSCSI エイリアスを含むアダプタに関する情報が表示されます。

ステップ 5 iSCSI アダプタに関連付けられている物理 NIC の名前を探します。

デフォルトの iSCSI エイリアスは次の形式になります。driver_name-vmnic #、
vmnic # は、iSCSI アダプタに関連付けられている NIC です。

ステップ 6 これで手順は完了です。「アップリンクのピン接続とストレージのバインドのプロセス」に戻ってください。


 

ホスト サーバの iSCSI アダプタの特定

ESX または ESXi ホストでこの手順を使用して、物理 NIC に関連付けられている iSCSI アダプタを特定できます。

はじめる前に

この手順を開始する前に、次のことを実行する必要があります。

サーバ ホストにログインする。


ステップ 1 サーバのストレージ アダプタを一覧表示します。

esxcfg-scsidevs -a

Example:
esxcfg-scsidevs -a
vmhba33 bnx2i unbound iscsi.vmhba33 Broadcom iSCSI Adapter
vmhba34 bnx2i online iscsi.vmhba34 Broadcom iSCSI Adapter

 

ステップ 2 アダプタごとに、バインドされている物理 NIC を表示します。

esxcli swiscsi vmnic list -d adapter-name

Example:
esxcli swiscsi vmnic list -d vmhba33 | grep name
vmnic name: vmnic2
esxcli swiscsi vmnic list -d vmhba34 | grep name
vmnic name: vmnic3

 

ソフトウェアの iSCSI アダプタの場合、サーバのすべての物理 NIC が一覧表示されます。

ハードウェアの iSCSI アダプタごとに、1 つの物理 NIC が表示されます。

ステップ 3 これで手順は完了です。次に示されている項に戻ります。

「アップリンクのピン接続とストレージのバインドのプロセス」

「ハードウェアの iSCSI 設定への変換のプロセス」

「アクセス VLAN の変更のプロセス」


 

iSCSI アダプタへの VMkernel NIC のバインド

この手順を使用して、ピン接続されている物理 NIC に対応する iSCSI アダプタに物理 VMkernel NIC を手動でバインドできます。

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

ESX ホストにログインしている。

「物理 NIC の iSCSI アダプタの特定」 で確認した、物理 NIC と関連付けられている iSCSI アダプタがわかっている。


ステップ 1 VEM が VMkernel NIC にピン接続されている物理 NIC を見つけます。

Example:
Vmknic LTL Pinned_Uplink LTL
vmk2 48 vmnic2 18
vmk3 49 vmnic3 19
 

ステップ 2 「物理 NIC の iSCSI アダプタの特定」 で確認した iSCSI アダプタに物理 NIC をバインドします。

Example:
esxcli swiscsi nic add --adapter vmhba33 --nic vmk2
 
Example:
esxcli swiscsi nic add --adapter vmhba34 --nic vmk3
 

ステップ 3 これで手順は完了です。次に示されている項に戻ります。

「アップリンクのピン接続とストレージのバインドのプロセス」

「ハードウェアの iSCSI 設定への変換のプロセス」

「アクセス VLAN の変更のプロセス」


 

ハードウェアの iSCSI 設定への変換

ESX 4.1 ホストでこの項の手順を使用して、ソフトウェアの iSCSI からハードウェアの iSCSI に変換できます。

はじめる前に

ここに示す手順を開始する前に、次の点を理解または実行しておく必要があります。

この変換用のメンテナンス時間をスケジュールしている。ソフトウェアからハードウェアの iSCSI への設定の変換には、ストレージの更新が含まれます。

ハードウェアの iSCSI 設定への変換のプロセス

次の手順を使用して、ハードウェアの iSCSI 設定に変換できます。


ステップ 1 vSphere Client で、iSCSI NIC で行ったストレージ設定を解除します。

ステップ 2 iSCSI ターゲットへのパスを削除します。

ステップ 3 「ソフトウェアの iSCSI アダプタへのバインドの解除」 を使用して、VMkernel NIC と iSCSI アダプタ間のバインドを解除します。

ステップ 4 VMkernel NIC を Cisco Nexus 1000V DVS から vSwitch に移動します。

ステップ 5 ESX ホストにハードウェアの NIC をインストールします(まだインストールされていない場合)。

ステップ 6 次のいずれかを実行します。

ハードウェアの NIC がすでに Cisco Nexus 1000V DVS に存在する場合は、次のステップに進みます。

ハードウェアの NIC がまだ Cisco Nexus 1000V DVS に存在しない場合は、「DVS へのハードウェアの NIC の追加」に進みます。

ステップ 7 VMkernel NIC を vSwitch から Cisco Nexus 1000V DVS に戻します。

ステップ 8 「物理 NIC の iSCSI アダプタの特定」 を使用して iSCSI アダプタを検索します。

ステップ 9 「iSCSI アダプタへの VMkernel NIC のバインド」 を使用して NIC をアダプタにバインドします。

ステップ 10 「iSCSI マルチパスの設定の確認」 を使用して iSCSI マルチパス設定を確認します。


 

ソフトウェアの iSCSI アダプタへのバインドの解除

この手順を使用して、iSCSI VMkernel NIC とソフトウェアの iSCSI アダプタ間のバインドを解除できます。


ステップ 1 VMHBA への iSCSI VMkernel NIC のバインドを解除します。

Example:
esxcli swiscsi nic remove --adapter vmhba33 --nic vmk6
esxcli swiscsi nic remove --adapter vmhba33 --nic vmk5

 

ステップ 2 これで手順は完了です。「ハードウェアの iSCSI 設定への変換のプロセス」に戻ってください。


 

DVS へのハードウェアの NIC の追加

この手順を使用して、ハードウェアの NIC が Cisco Nexus 1000V DVS にない場合に、vSphere Client を使用して DVS にアップリンクを追加できます。

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

vSphere Client にログインしている。

この手順では、サーバのリブートが必要です。


ステップ 1 [Inventory] パネルでサーバを選択します。

ステップ 2 [Configuration] タブをクリックします。

ステップ 3 [Configuration] パネルで、[Networking] をクリックします。

ステップ 4 [vNetwork Distributed Switch] をクリックします。

ステップ 5 [Manage Physical Adapters] をクリックします。

ステップ 6 ハードウェア NIC に使用するポート プロファイルを選択します。

ステップ 7 [Click to Add NIC] をクリックします。

ステップ 8 [Unclaimed Adapters] で、物理 NIC を選択し、[OK] をクリックします。

ステップ 9 [Manage Physical Adapters] ウィンドウで [OK] をクリックします。

ステップ 10 vSwitch から Cisco Nexus 1000V DVS に iSCSI VMkernel NIC を移動します。

VMkernel NIC は、ハードウェアの NIC に自動的にピン接続されます。

ステップ 11 これで手順は完了です。「ハードウェアの iSCSI 設定への変換のプロセス」に戻ってください。


 

VMkernel NIC アクセス VLAN の変更

この項の手順を使用して、iSCSI VMkernel のアクセス VLAN、またはネットワーキング設定を変更できます。

アクセス VLAN の変更のプロセス

次の手順を使用して、VMkernel NIC アクセス VLAN を変更できます。


ステップ 1 vSphere Client で、iSCSI NIC で行ったストレージ設定を解除します。

ステップ 2 iSCSI ターゲットへのパスを削除します。

ステップ 3 「ソフトウェアの iSCSI アダプタへのバインドの解除」 を使用して、VMkernel NIC と iSCSI アダプタ間のバインドを解除します。

ステップ 4 VMkernel NIC を Cisco Nexus 1000V DVS から vSwitch に移動します。

ステップ 5 「アクセス VLAN の変更」 を使用してアクセス VLAN を変更します。

ステップ 6 VMkernel NIC を vSwitch から Cisco Nexus 1000V DVS に戻します。

ステップ 7 「物理 NIC の iSCSI アダプタの特定」 を使用して iSCSI アダプタを検索します。

ステップ 8 「iSCSI アダプタへの VMkernel NIC のバインド」 を使用して NIC をアダプタにバインドします。

ステップ 9 「iSCSI マルチパスの設定の確認」 を使用して iSCSI マルチパス設定を確認します。


 

アクセス VLAN の変更

はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

ESX ホストにログインしている。

iSCSI マルチパス ポート プロファイルのアクセス VLAN は、VMkernel NIC によって継承されている場合は変更できません。継承を確認するには、 show port-profile name profile-name コマンドを使用します。


ステップ 1 vSphere Client から iSCSI ターゲットへのパスを削除します。

ステップ 2 各 VMHBA のバインドを表示して、解除するバインドを特定します(iSCSI VMkernel NIC から VMHBA)。

esxcli swiscsi nic list -d vmhba nn

Example:
esxcli swiscsi nic list -d vmhba33
vmk6
pNic name: vmnic2
ipv4 address: 169.254.0.1
ipv4 net mask: 255.255.0.0
ipv6 addresses:
mac address: 00:1a:64:d2:ac:94
mtu: 1500
toe: false
tso: true
tcp checksum: false
vlan: true
link connected: true
ethernet speed: 1000
packets received: 3548617
packets sent: 102313
NIC driver: bnx2
driver version: 1.6.9
firmware version: 3.4.4
vmk5
pNic name: vmnic3
ipv4 address: 169.254.0.2
ipv4 net mask: 255.255.0.0
ipv6 addresses:
mac address: 00:1a:64:d2:ac:94
mtu: 1500
toe: false
tso: true
tcp checksum: false
vlan: true
link connected: true
ethernet speed: 1000
packets received: 3548617
packets sent: 102313
NIC driver: bnx2
driver version: 1.6.9
firmware version: 3.4.4

 

ステップ 3 VMHBA への iSCSI VMkernel NIC のバインドを解除します。

Example:
esxcli swiscsi nic remove --adapter vmhba33 --nic vmk6 esxcli swiscsi nic remove --adapter vmhba33 --nic vmk5

 

ステップ 4 ポート プロファイルから capability iscsi-multipath の設定を削除します。

no capability iscsi-multipath

Example:
n1000v# config t

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)# no capability iscsi-multipath
 

ステップ 5 システム VLAN を削除します。

no system vlan vlanID

Example:
n1000v# config t

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)# no system vlan 300
 

ステップ 6 ポート プロファイルのアクセス VLAN を変更します。

switchport access vlan vlanID

Example:
n1000v# config t

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)# switchport access vlan 300
 

ステップ 7 システム VLAN を追加します。

system vlan vlanID

Example:
n1000v# config t

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)# system vlan 300
 

ステップ 8 ポート プロファイルに capability iscsi-multipath の設定を追加し直します。

capability iscsi-multipath

Example:
n1000v# config t

n1000v(config)# port-profile type vethernet VMK-port-profile

n1000v(config-port-prof)# capability iscsi-multipath
 

ステップ 9 これで手順は完了です。「アクセス VLAN の変更のプロセス」に戻ってください。


 

iSCSI マルチパスの設定の確認

この項のコマンドを使用して、iSCSI マルチパスの設定を確認できます。

 

コマンド
目的

~ # vemcmd show iscsi pinning

VMkernel NIC の自動ピン接続を表示します

例 13-1(P.13-18) を参照してください。

esxcli swiscsi nic list -d vmhba33

VMkernel NIC の iSCSI アダプタのバインドを表示します。

例 13-2(P.13-18) を参照してください。

show port-profile [ brief | expand-interface | usage ] [ name profile-name ]

ポート プロファイルの設定を表示します。

例 13-3(P.13-18) を参照してください。

例 13-1 ~ # vemcmd show iscsi pinning

~ # vemcmd show iscsi pinning
Vmknic LTL Pinned_Uplink LTL
vmk6 49 vmnic2 19
vmk5 50 vmnic1 18

例 13-2 esxcli swiscsi nic list -d vmhbann

esxcli swiscsi nic list -d vmhba33
vmk6
pNic name: vmnic2
ipv4 address: 169.254.0.1
ipv4 net mask: 255.255.0.0
ipv6 addresses:
mac address: 00:1a:64:d2:ac:94
mtu: 1500
toe: false
tso: true
tcp checksum: false
vlan: true
link connected: true
ethernet speed: 1000
packets received: 3548617
packets sent: 102313
NIC driver: bnx2
driver version: 1.6.9
firmware version: 3.4.4

例 13-3 show port-profile name iscsi-profile

n1000v# show port-profile name iscsi-profile
port-profile iscsi-profile
type: Vethernet
description:
status: enabled
max-ports: 32
inherit:
config attributes:
evaluated config attributes:
assigned interfaces:
port-group:
system vlans: 254
capability l3control: no
capability iscsi-multipath: yes
port-profile role: none
port-binding: static
n1000v#
 

ストレージ切断の検出の管理

ここでは、ストレージ接続の切断を検出する設定を行い、ストレージの切断が検出されたときにサポートを提供するコマンドについて説明します。VSM が NFS または iSCSI などのリモート ストレージ システムでホストされている場合、ストレージの接続が失われる可能性があります。この接続の切断によって予期しない VSM 動作が生じることがあります。

ストレージの切断の検出を設定するには、次のコマンド構文を使用します。

system storage-loss { log | reboot } [ time <interval> ] | no system storage-loss [ { log | reboot } ] [ time <interval> ]

時間間隔値は、VSM がストレージ接続のステータスをチェックする間隔です。ストレージの切断が検出されると、Syslog が表示されます。デフォルトの間隔は 30 秒です。30 ~ 600 秒の間で間隔を設定できます。このコマンドのデフォルト設定は次のとおりです。

system storage-loss log time 30


) このコマンドは EXEC モードで設定します。コンフィギュレーション モードは使用しないでください。


次に、このコマンドがストレージの切断の検出を管理する方法について説明します。

ログのみ:ストレージの切断が発生したことを示す Syslog メッセージが表示されます。管理者は予期せぬ VSM 状態にならないようにただちにアクションを取る必要があります。

リセット:ストレージの切断が検出された VSM が予期せぬ VSM 状態にならないように自動的にリロードされます。

アクティブ VSM のストレージの切断:アクティブ VSM がリロードされます。スタンバイ VSM がアクティブになり、ホストを制御します。

スタンバイ VSM のストレージの切断:スタンバイ VSM がリロードされます。アクティブ VSM がホストを制御し続けます。


) ストレージの切断が VSM の動作に影響を与えないように、同じリモート ストレージにアクティブ VSM とスタンバイ VSM を設定しないでください。


はじめる前に

この手順を開始する前に、次のことを確認または実行する必要があります。

EXEC モードで CLI にログインしていること。

手順の概要

1. system storage-loss {time <interval>}

2. copy running-config startup-config

手順の詳細

コマンド
目的

ステップ 1

system storage-loss log time 30
Example:
n1000v# system storage-loss log time 30
n1000v#

秒単位の時間間隔を設定してストレージ接続をチェックし、ステータスを記録します。デフォルトの間隔は 30 秒です。

ステップ 2

copy running-config startup-config
Example:
n1000v# copy run start
n1000v#

持続性メモリ内のスタートアップ コンフィギュレーションに実行コンフィギュレーションの設定の変更を保存します。

次のコマンドは、storage-loss のチェックをディセーブルにします。VSM がローカル ストレージにインストールされている場合は常に、これが推奨の設定です。

n1000v# no system storage-loss

) 両方の VSM がローカル ストレージにある場合は、ストレージの切断のチェックをディセーブルにします。


次のコマンドは、アクティブまたはスタンバイ VSM のストレージの切断の検出時間間隔をイネーブルにし、ストレージの切断に関する Syslog メッセージを表示します。この例では、VSM のストレージの切断は 60 秒ごとにチェックされます。管理者は、ストレージを回復するためのアクションを取り、矛盾した VSM 状態にならないようにする必要があります。

n1000v# system storage-loss log time 60
 

以下のコマンドにより、50 秒ごとにストレージの切断の検出が実行されます。

n1000v# system storage-loss log time 50
 

次の例は、ストレージの切断が検出された場合にだけログを記録するように設定するために使用するコマンドを示しています。

n1000v# system storage-loss log time 60
n1000v# copy run start

 

次の例は、ストレージの切断が検出された場合にリブートするように VSM を設定するために使用するコマンドを示しています。

n1000v# system storage-loss reboot time 60
n1000v# copy run start

 

次の例は、ストレージの切断のチェックをディセーブルにするために使用するコマンドを示しています。

n1000v# no system storage-loss
n1000v# copy run start
 

その他の関連資料

iSCSI マルチパスの実装に関連する詳細情報については、次の項を参照してください。

「関連資料」

「標準」

関連資料

関連項目
参照先

VMware SAN 設定

『VMware SAN Configuration Guide』

ポート プロファイルの設定

Cisco Nexus 1000V Port Profile Configuration Guide, Release 4.2(1)SV1(5.1)

インターフェイス コンフィギュレーション

Cisco Nexus 1000V Interface Configuration Guide, Release 4.2(1)SV1(5.1)

Cisco Nexus 1000V のすべてのコマンドのコマンド構文、コマンド モード、コマンド履歴、デフォルト値、使用上の注意、および例

Cisco Nexus 1000V Command Reference, Release 4.2(1)SV1(5.1)

標準

標準
タイトル

この機能でサポートされる新規の標準または変更された標準はありません。また、既存の標準のサポートは変更されていません。

--

iSCSI マルチパス機能の履歴

表 13-2 に、iSCSI マルチパス機能のリリース履歴を示します。

 

表 13-2 iSCSI マルチパス機能の履歴

機能名
リリース
機能情報

ハードウェアの iSCSI マルチパス

4.2(1)SV1(4)

ハードウェアの iSCSI マルチパスのサポートが追加されました。

iSCSI マルチパス

4.0(4)SV1(2)

iSCSI マルチパス機能が追加されました。