Cisco UCS サーバ RAID ガイド
Cisco UCS Manager を使用した RAID の設定と監視
Cisco UCS Manager を使用した RAID の設定と監視
発行日;2012/08/21 | 英語版ドキュメント(2012/06/18 版) | ドキュメントご利用ガイド | ダウンロード ; この章pdf , ドキュメント全体pdf (PDF - 2MB) | フィードバック

目次

Cisco UCS Manager を使用した RAID の設定と監視

Cisco UCS Manager の設定

ローカル ディスク設定ポリシー

すべてのローカル ディスク設定ポリシーに関するガイドライン

RAID 用に設定されているローカル ディスク設定ポリシーに関するガイドライン

ローカル ディスク設定ポリシーの作成

ローカル ディスク設定ポリシーの変更

ローカル ディスク設定ポリシーの削除

サーバ ディスク ドライブ モニタリング

ディスク ドライブ モニタリングのサポート

ディスク ドライブのステータスの表示

監視対象ディスク ドライブのステータスの解釈

UCS サーバ内の RAID コントローラ

サーバに搭載されているコントローラの確認

RAID コントローラ

Quiet Boot のディセーブル化

ROM ベースのコントローラ ユーティリティへのアクセス

RAID コントローラと LSI ユーティリティのマニュアル

UCS ソフトウェア バージョン 1.4(1) を使用した RAID クラスタの移動

UCS ソフトウェア バージョン 1.4(2) 以降のリリースを使用した RAID クラスタの移動

B200 M3 サーバ間での RAID クラスタの移動

RAID クラスタ内の障害の発生したドライブの交換

Cisco UCS Manager を使用した RAID の設定と監視

この章では、Cisco UCS Manager を使用して RAID コントローラを監視および設定する方法について説明します。Cisco B シリーズ サーバには、ストレージ(RAID を含む)用の監視ツールと設定ツールが組み込まれています。

この章の内容は、次のとおりです。

「Cisco UCS Manager の設定」

「サーバ ディスク ドライブ モニタリング」

「UCS サーバ内の RAID コントローラ」


) Cisco UCS Manager は、B シリーズ ブレード サーバ、および統合されている C シリーズ ラック サーバの両方で使用されます。


Cisco UCS Manager の設定

Cisco UCS Manager は、LSI コントローラおよびソフトウェアに対するインターフェイスを備えており、ローカル ディスク設定ポリシーを作成する際に RAID 設定を作成します。したがって、多数のサーバに対して同じ設定手順を一度に適用することができます。

ローカル ディスク設定ポリシー

このポリシーは、ローカル ドライブのオンボード RAID コントローラを通じて、サーバ上にインストールされているオプションの SAS ローカル ドライブを設定します。このポリシーでは、ローカル ディスク設定ポリシーをインクルードしているサービス プロファイルに関連付けられたすべてのサーバに対してローカル ディスク モードを設定できます。

ローカル ディスク モードには次のものがあります。

No Local Storage:ディスクレス サーバまたは SAN 専用の設定で使用します。このオプションを選択する場合、このポリシーを使用する任意のサービス プロファイルを、ローカル ディスクを持つサーバに関連付けることができません。

RAID 0 Striped:データはアレイのすべてのディスクにストライプ化され、高速スループットを提供します。データの冗長性はなく、いずれかのディスクで障害が発生すると、すべてのデータが失われます。

RAID 1 Mirrored:データが 2 つのディスクに書き込まれ、1 つのディスクで障害が発生した場合に完全なデータ冗長性を提供します。最大アレイ サイズは、2 つのドライブの小さい方の空き容量に等しくなります。

Any Configuration:変更なしのローカル ディスク設定を転送するサーバ設定で使用します。

No RAID:RAID を削除し、ディスク MBR およびペイロードを変更しない状態のままにするサーバ設定で使用します。

RAID 5 Striped Parity:データはアレイのすべてのディスクにストライプ化されます。各ディスクの容量の一部に、ディスクの障害発生時にデータの再構築に使用できるパリティ情報が格納されます。RAID 5 は、高い読み取り要求レートで、アプリケーションに適切なデータ スループットを提供します。

RAID 6 Striped Dual Parity:データはアレイのすべてのディスクにストライプ化され、2 つのパリティ ディスクを使用して、最大 2 つの物理ディスクの障害に対する保護を提供します。データ ブロックの各行に、2 セットのパリティ データが格納されます。

RAID10 Mirrored and Striped:RAID 10 はミラー化されたディスクのペアを使用して、完全なデータ冗長性と高いスループット レートを提供します。

このポリシーはサービス プロファイルにインクルードする必要があります。また。このポリシーを有効にするには、サーバに関連付ける必要があります。

すべてのローカル ディスク設定ポリシーに関するガイドライン

ローカル ディスク設定ポリシーを作成する前に、次のガイドラインを考慮してください。

HDD と SSD を混合しない

単一のサーバまたは RAID 設定内に HDD と SSD を混在させることはサポートされていません。

デフォルトのローカル ディスク設定ポリシーが含まれるサービス プロファイルを B200 M1 または M2 から B200 M3 に割り当てない

B200 M1 と M2 サーバのストレージ コントローラと B200 M3 サーバのストレージ コントローラには、提供される RAID/JBOD サポートに違いがあるため、デフォルトのローカル ディスク設定ポリシーが含まれるサービス プロファイルを B200 M1 または M2 サーバから B200 M3 サーバに割り当てまたは再割り当てすることはできません。デフォルトのローカル ディスク設定ポリシーには、Any Configuration モードまたは JBOD モードが含まれます。

Release 1.3(1i) 以降へのアップグレードの影響

古い Cisco UCS ファームウェア リリースを Release 1.3(1i) 以降にアップグレードすると、アップグレード後にサーバが初めてサーバ プロファイルに関連付けられるとき、ローカル ディスク設定ポリシーの Protect Configuration プロパティに次の影響が生じます。

関連付けられていないサーバ

Cisco UCS ドメインをアップグレードした後、ローカル ディスク設定ポリシーがサーバ ハードウェアと一致してもしなくても、最初のサーバ アソシエーションは設定エラーなしで進行します。Protect Configuration プロパティをイネーブルにしていても、前のサービス プロファイルと新しいサービス プロファイルの間でローカル ディスク設定ポリシーの設定に不一致がある場合、Cisco UCS はサーバ上のユーザ データを保護しません。


) Protect Configuration プロパティをイネーブルにした場合、前のサービス プロファイルと新しいサービス プロファイルの間でローカル ディスク設定ポリシーに不一致があると、サーバに対する後続のサービス プロファイル アソシエーションはすべてブロックされます。


関連付けられているサーバ

サービス プロファイルにすでに関連付けられているサーバは、アップグレード後にリブートしません。Cisco UCS Manager は、ローカル ディスク設定ポリシーとサーバ ハードウェアの間に不一致が存在しても、設定エラーを報告しません。

サービス プロファイルがサーバとの関連付けを解除され、新しいサービス プロファイルが関連付けられた場合、新しいサービス プロファイル内の Protect Configuration プロパティの設定が優先され、前のサービス プロファイル内の設定は上書きされます。

RAID 用に設定されているローカル ディスク設定ポリシーに関するガイドライン

HDD と SSD を混合しない

HDD と SSD を単一の RAID 設定に含めないでください。

MegaRAID ストレージ コントローラを搭載したサーバ上で Any Configuration モードを使用しない

Cisco UCS ドメイン内のブレード サーバまたはラックマウント サーバに MegaRAID ストレージ コントローラが搭載されている場合は、そのサーバ用のサービス プロファイル内のローカル ディスク設定ポリシーに Any Configuration モードを設定しないでください。MegaRAID ストレージ コントローラを搭載したサーバにこのモードを使用すると、オペレーティング システムのインストーラは、サーバ上のローカル ストレージを検出できなくなります。

MegaRAID ストレージ コントローラを搭載したサーバ上のローカル ストレージにオペレーティング システムをインストールする場合は、サーバ上のそのボリュームに対して RAID LUN(論理ユニット番号)を作成するモードをローカル ディスク設定ポリシーに設定する必要があります。

サーバ プロファイルで Any Configuration モードが指定されている場合、RAID 1 クラスタ移行後にサーバが起動しない

RAID 1 クラスタの移行後、サービス プロファイルをサーバに関連付ける必要があります。サービス プロファイル内のローカル ディスク設定ポリシーに RAID 1 ではなく Any Configuration モードが設定されていると、RAID LUN は、関連付け中およびその後も「非アクティブ」状態のままになります。その結果、サーバは起動できなくなります。

この問題を回避するには、サーバに関連付けるサービス プロファイルに、移行前の元のサービス プロファイルとまったく同じローカル ディスク設定ポリシーが含まれるようにし、Any Configuration モードは含まれないようにします。

MegaRAID ストレージ コントローラを搭載したサーバ用のローカル ディスク設定ポリシーに RAID 設定を設定する

ブレード サーバまたは統合されたラックマウント サーバに MegaRAID コントローラが搭載されている場合、そのサーバのサービス プロファイルに含まれるローカル ディスク設定ポリシーでドライブの RAID 設定を設定する必要があります。

OS をインストールする前に RAID LUN を設定していないと、インストール時にディスク検出エラーが発生し、「No Device Found」といったエラー メッセージが表示される可能性があります。

MegaRAID ストレージ コントローラを搭載したサーバ上で JBOD モードを使用しない

MegaRAID ストレージ コントローラが搭載されたブレード サーバまたは統合ラックマウント サーバ上で JBOD モードまたは JBOD 操作を設定または使用しないでください。JBOD モードおよび JBOD 操作は、これらのサーバ上でサポートされていません。

統合されたラックマウント サーバ内の RAID ボリュームと RAID コントローラはそれぞれ 1 つまで

Cisco UCS Manager と統合されているラックマウント サーバは、サーバ上に存在するハード ドライブの数とは関係なく、RAID ボリュームを 1 つまでしか設定できません。

統合されたラックマウント サーバ内のローカル ハード ドライブは、1 つの RAID コントローラのみにすべて接続される必要があります。Cisco UCS Manager との統合では、ローカル ハード ドライブが単一のラックマウント サーバ内の複数の RAID コントローラに接続することはサポートされていません。そのため、Cisco UCS Manager と統合されるラックマウント サーバを発注する際は、単一の RAID コントローラ構成を要求することを推奨します。

また、サードパーティ製のツールを使用して、ラックマウント サーバ上に複数の RAID LUN を作成しないでください。Cisco UCS Manager では、そのような設定はサポートされていません。

ブレード サーバ内の RAID ボリュームと RAID コントローラはそれぞれ 1 つまで

ブレード サーバは、サーバ内に存在するドライブの数とは関係なく、RAID ボリュームを 1 つまでしか設定できません。ローカル ハード ドライブは、1 つの RAID コントローラのみにすべて接続される必要があります。たとえば、B200 M3 に LSI コントローラと Intel Patsburg コントローラが搭載されていても、LSI コントローラだけが RAID コントローラして使用できます。

また、サードパーティ製のツールを使用して、ブレード サーバ上に複数の RAID LUN を作成しないでください。Cisco UCS Manager では、そのような設定はサポートされていません。

ミラー RAID で選択されるディスクの数は 2 つまでにする

ミラー RAID で選択されたディスクの数が 2 つを超えると、RAID 1 は RAID 10 LUN として作成されます。この問題は、Cisco UCS B440 M1 サーバと B440 M2 サーバで発生する可能性があります。

ローカル ディスク設定ポリシーの作成


ステップ 1 [Navigation] ペインで、[Servers] タブをクリックします。

ステップ 2 [Servers] タブで、[Servers] > [Policies] の順に展開します。

ステップ 3 ポリシーを作成する組織のノードを展開します。

システムにマルチテナント機能が備えられていない場合は、[root] ノードを展開します。

ステップ 4 [Local Disk Config Policies] を右クリックし、[Create Local Disk Configuration Policy] を選択します。

ステップ 5 [Create Local Disk Configuration Policy] ダイアログボックスで、次のフィールドに値を入力します。

 

名前
説明

[Name] フィールド

ポリシーの名前。

この名前には、1 ~ 16 文字の英数字を使用できます。スペースは使用できません。また、-(ハイフン)、_(アンダースコア)、:(コロン)、および .(ピリオド)以外の特殊文字も使用できません。オブジェクトの保存後は、この名前を変更できません。

[Description] フィールド

ポリシーの説明。ポリシーが使用される場所と条件についての情報を含めることを推奨します。

256 文字以下で入力します。^(キャラット)、\(バックスラッシュ)、>(大なり記号)、<(小なり記号)、'(一重引用符)、"(二重引用符)、`(アクセント記号)、=(等号)を除いた任意の文字またはスペースを使用できます。

[Mode] ドロップダウン リスト

次のローカル ディスク ポリシー モードのいずれかを選択できます。

No Local Storage:ディスクレス サーバまたは SAN 専用の設定で使用します。このオプションを選択する場合、このポリシーを使用する任意のサービス プロファイルを、ローカル ディスクを持つサーバに関連付けることができません。

RAID 0 Striped:データはアレイのすべてのディスクにストライプ化され、高速スループットを提供します。データの冗長性はなく、いずれかのディスクで障害が発生すると、すべてのデータが失われます。

RAID 1 Mirrored:データが 2 つのディスクに書き込まれ、1 つのディスクで障害が発生した場合に完全なデータ冗長性を提供します。最大アレイ サイズは、2 つのドライブの小さい方の空き容量に等しくなります。

Any Configuration:変更なしのローカル ディスク設定を転送するサーバ設定で使用します。

No RAID:RAID を削除し、ディスク MBR およびペイロードを変更しない状態のままにするサーバ設定で使用します。

RAID 5 Striped Parity:データはアレイのすべてのディスクにストライプ化されます。各ディスクの容量の一部に、ディスクの障害発生時にデータの再構築に使用できるパリティ情報が格納されます。RAID 5 は、高い読み取り要求レートで、アプリケーションに適切なデータ スループットを提供します。

RAID 6 Striped Dual Parity:データはアレイのすべてのディスクにストライプ化され、2 つのパリティ ディスクを使用して、最大 2 つの物理ディスクの障害に対する保護を提供します。データ ブロックの各行に、2 セットのパリティ データが格納されます。

RAID10 Mirrored and Striped:RAID 10 はミラー化されたディスクのペアを使用して、完全なデータ冗長性と高いスループット レートを提供します。

(注) No RAID を選択し、このポリシーをすでに RAID ストレージが設定されているオペレーティング システムを使用するサーバに適用した場合、システムによってディスクの内容が削除されません。そのため、No RAID モードの適用後に違いがわからないことがあります。

以前のすべての RAID 設定情報をディスクから削除させるには、No RAID コンフィギュレーション モードの適用後にすべてのディスク情報を削除するスクラブ ポリシーを適用します。

[Protect Configuration] チェックボックス

オンにすると、サーバは、サービス プロファイルとの関連付けが解除されても、ローカル ディスク設定ポリシー内の設定を保持します。


注意 サーバ内の 1 つ以上のディスクに障害が発生すると、Protect Configuration は機能しなくなります。

このプロパティは、デフォルトでオンになっています。

サービス プロファイルがサーバとの関連付けを解除され、新しいサービス プロファイルが関連付けられた場合、新しいサービス プロファイル内の Protect Configuration プロパティの設定が優先され、前のサービス プロファイル内の設定は上書きされます。

(注) このオプションがイネーブルの状態でサーバとサービス プロファイルの関連付けを解除した後、そのサーバに新しいサービス プロファイルを関連付け、そのサービス プロファイル内のローカル ディスク設定ポリシーに前とは異なるプロパティが含まれていると、サーバから設定不一致のエラーが返され、関連付けは失敗します。

ステップ 6 [OK] をクリックします。


 

ローカル ディスク設定ポリシーの変更

この手順は、関連付けられたサービス プロファイルからローカル ディスク設定ポリシーを変更する方法について説明します。[Servers] タブの [Policies] ノードからローカル ディスク設定ポリシーを変更することもできます。


ステップ 1 [Navigation] ペインで、[Servers] タブをクリックします。

ステップ 2 [Servers] タブで、[Servers] > [Service Profiles] の順に展開します。

ステップ 3 変更するローカル ディスク設定ポリシーを持つサービス プロファイルを含む組織を展開します。

システムにマルチテナント機能が備えられていない場合は、[root] ノードを展開します。

ステップ 4 変更するローカル ディスク設定ポリシーを含むサービス プロファイルをクリックします。

ステップ 5 [Work] ペインで、[Policies] タブをクリックします。

ステップ 6 [Actions] 領域で、[Change Local Disk Configuration Policy] をクリックします。

ステップ 7 [Change Local Disk Configuration Policy] ダイアログボックスで、[Select the Local Disk Configuration Policy] ドロップダウン リストから次のいずれかのオプションを選択します。

 

オプション
説明

Use a Disk Policy

このオプションのリストから既存のローカル ディスク設定ポリシーを選択します。Cisco UCS Manager は、このポリシーをサービス プロファイルに割り当てます。

Create a Local Disk Policy

選択されたサービス プロファイルだけがアクセスできるローカル ディスク設定ポリシーを作成できます。

No Disk Policy

選択したサービス プロファイルにはローカル ディスク設定ポリシーを使用しません。

ステップ 8 [OK] をクリックします。

ステップ 9 (オプション)[Local Disk Configuration Policy] 領域を展開し、変更が行われたことを確認します。


 

ローカル ディスク設定ポリシーの削除


ステップ 1 [Navigation] ペインで、[Servers] タブをクリックします。

ステップ 2 [Servers] タブで、[Servers] > [Policies] > [Organization_Name] の順に展開します。

ステップ 3 [Local Disk Config Policies] ノードを展開します。

ステップ 4 削除するポリシーを右クリックし、[Delete] を選択します。

ステップ 5 Cisco UCS Manager GUI に確認ダイアログボックスが表示されたら、[Yes] をクリックします。


 

サーバ ディスク ドライブ モニタリング

Cisco UCS のディスク ドライブ モニタリングにより、Cisco UCS ドメイン内のサポート対象ブレード サーバについて、ブレードに搭載されているディスク ドライブのステータスが Cisco UCS Manager に提供されます。ディスク ドライブ モニタリングは、LSI ファームウェアから Cisco UCS Manager への単方向の障害信号により、ステータス情報を提供します。

次のサーバ コンポーネントおよびファームウェア コンポーネントが、サーバ内のディスク ドライブ ステータスに関する情報の収集、送信、および集約を行います。

物理的なプレゼンス センサー:ディスク ドライブがサーバ ドライブ ベイに挿入されているかどうかを調べます。

物理的な障害センサー:ディスク ドライブの LSI ストレージ コントローラ ファームウェアからレポートされる操作可能性のステータスを調べます。

IPMI ディスク ドライブの障害センサーおよびプレゼンス センサー:センサーの結果を Cisco UCS Manager に送信します。

ディスク ドライブの障害 LED 制御および関連する IPMI センサー:ディスク ドライブの障害 LED の状態(オン/オフ)を制御し、それらの状態を Cisco UCS Manager に伝えます。

ディスク ドライブ モニタリングのサポート

ディスク ドライブ モニタリングは、一部のブレード サーバと特定の LSI ストレージ コントローラ ファームウェア レベルのみをサポートします。

Cisco UCS Manager では、次のサーバのディスク ドライブを監視できます。

B200 ブレード サーバ

B230 ブレード サーバ

B250 ブレード サーバ

B440 ブレード サーバ

その他のブレード サーバやラックマウント サーバのディスク ドライブは、Cisco UCS Manager で監視することはできません。

サポートされているサーバ上のストレージ コントローラには、LSI ファームウェアがインストールされている必要があります。

Cisco UCS Manager は、ストレージ コントローラ ファームウェアのバージョンが異なるサーバ内のディスク ドライブを監視することはできません。

ディスク ドライブ モニタリングで有用なステータス情報を得るには、サーバとストレージ コントローラ ファームウェア バージョンがサポートされていることに加えて、次の前提条件が満たされていることを確認する必要があります。

ドライブがサーバ ドライブ ベイに挿入されている。

サーバの電源が投入されている。

サーバが検出を完了している。

BIOS POST の完了結果が正常である。

ディスク ドライブのステータスの表示


ステップ 1 [Navigation] ペインで、[Equipment] タブをクリックします。

ステップ 2 [Equipment] タブで、[Equipment] > [Chassis] > [Chassis Number] > [Servers] の順に展開します。

ステップ 3 ディスク ドライブのステータスを表示するサーバをクリックします。

ステップ 4 [Work] ペインの [Inventory] タブをクリックします。

ステップ 5 [Storage] サブタブをクリックします。

ステップ 6 下矢印をクリックして [Disks] バーを展開し、各ディスク ドライブの [States] セクション内のフィールドを確認します。

 

名前
説明

[Operability] フィールド

ディスク ドライブの動作状態。次のいずれかになります。

[Operable]:ディスク ドライブは操作可能です。

[Inoperable]:ディスク ドライブは操作不可能です。不良ブロックなどのハードウェアの問題が原因である可能性があります。

[N/A]:ディスク ドライブの操作可能性を調べることができません。サーバまたはファームウェアがディスク ドライブ モニタリングでサポートされていないか、サーバの電源がオフになっている可能性があります。

(注) [Operability] フィールドには、破損した RAID セットにディスクが含まれている場合や BIOS POST(電源投入時自己診断テスト)が完了していない場合などの理由により、誤ったステータスが表示されることがあります。

[Presence] フィールド

ディスク ドライブの存在(サーバ ドライブ ベイ内で検出されるかどうかであり、動作状態は関係ない)。次のいずれかになります。

[Equipped]:サーバ ドライブ ベイ内でディスク ドライブが検出されています。

[Missing]:サーバ ドライブ ベイ内でディスク ドライブが検出されません。


 

監視対象ディスク ドライブのステータスの解釈

Cisco UCS Manager は、監視対象のディスク ドライブごとに次のプロパティを表示します。

[Operability]:ディスク ドライブの動作状態。

[Presence]:ディスク ドライブの存在(サーバ ドライブ ベイ内で検出されるかどうかであり、動作状態は関係ない)。

監視対象のディスク ドライブのステータスを判断するには、両方のプロパティを確認する必要があります。次の表に、これらのプロパティ値の一般的な解釈を示します。

 

表 3-1 ディスクの状態

[Operability] のステータス
[Presence] のステータス
解釈

Operable

Equipped

障害が発生していない状態。ディスク ドライブは、サーバ内に存在し、使用できます。

Inoperable

Equipped

障害が発生している状態。ディスク ドライブはサーバ内に存在していますが、次のいずれかが原因で操作可能性の問題が発生している可能性があります。

不良ブロックなどのハードウェアの問題が原因でディスク ドライブを使用できません。

ストレージ コントローラへの IPMI リンクに問題が発生しています。

N/A

Missing

障害が発生している状態。サーバ ドライブ ベイにディスク ドライブが搭載されていません。

N/A

Equipped

障害が発生している状態。ディスク ドライブはサーバ内に存在していますが、次のいずれかが原因で操作可能性の問題が発生している可能性があります。

サーバの電源がオフになっています。

ストレージ コントローラ ファームウェアは、バージョンが不適切なため、ディスク ドライブ モニタリングをサポートしていません。

サーバでディスク ドライブ モニタリングがサポートされていません。


) [Operability] フィールドには、破損した RAID セットにディスクが含まれている場合や BIOS POST(電源投入時自己診断テスト)が完了していない場合などの理由により、誤ったステータスが表示されることがあります。


UCS サーバ内の RAID コントローラ

 

表 3-2 C シリーズの RAID コントローラ

サーバ モデル
オンボード コントローラ
統合コントローラ
MegaRAID コントローラ

C200 LFF

Intel ICH10R

LSI 1064E

LSI MR 9260-4i
LSI MR 9280-4i4e

C200 SFF

Intel ICH10R

LSI 1068E

LSI MR 9260-8i
LSI MR 9280-4i4e

C210

Intel ICH10R

LSI 1064E

LSI MR 9280-4i4e
LSI MR 9261-8i

C250

--

LSI SAS 3081E-R

LSI MR 9261-8i

C260

--

--

LSI MR 9261-8i

C460

--

--

LSI MR 9240-8i
LSI MR 9260-8i

C220

組み込み MegaRAID

Cisco SAS 2008M-8i

LSI MR 9266-8i
LSI MR SAS 9266CV-8i
LSI MR 9285CV-8e

C240

組み込み MegaRAID

Cisco SAS 2008M-8i

LSI MR 9266-8i
LSI MR SAS 9266CV-8i
LSI MR 9285CV-8e

B シリーズ サーバでは、現場交換不能な固定されたオンボード コントローラが使用されます。このコントローラでは、C シリーズ サーバと同じ統合 SAS または MegaRAID ファームウェアが使用されます。注意書きがある場合を除き、設定やその他のソフトウェア タスクは、Cisco UCS Manager を使用して行われます。 表 3-3 に、B シリーズの RAID コントローラを示します。

 

表 3-3 B シリーズの RAID コントローラ

サーバ モデル
SAS コントローラ
MegaRAID コントローラ

B200
(M1 および M2)

LSI 1064E

--

B200 M3

LSI SAS 2004

--

B230

--

LSI SAS 2008(LSI MegaRAID 9240 のオンボード バージョン)

(注) このサーバ モデルのディスクは 2 台のみ

B250
(M1 および M2)

LSI 1064E

--

B440

--

LSI SAS 2108(LSI MegaRAID 9260 のオンボード バージョン)

B22

LSI SAS 2002

--

サーバに搭載されているコントローラの確認

Cisco UCS Manager GUI の [Inventory] タブを使用して、どのコントローラがサーバに搭載されているか確認できます。CIMC にも同様の機能があります。

サーバで使用されているデバイスについての記録がない場合は、システムのブートアップ時に画面上に表示されるメッセージから読み取ることができます。これらのメッセージには、サーバに搭載されているデバイスに関する情報が表示されます。

冗長ブートの一部として、搭載されているカードのモデル情報が表示されます。また、それらのカードの構成ユーティリティを起動するため、Ctrl を押した状態で H を押すように求めるプロンプトが表示されます。リリース 1.2(1) よりも前の CIMC ファームウェアを実行しているサーバの場合は、「リリース 1.2(1) よりも前の CIMC ファームウェアでの Quiet Boot のディセーブル化」も参照してください。

メザニン型のカードがイネーブルになっている場合、それらのカードの設定を起動するため、Ctrl を押した状態で C を押すように求めるプロンプトが表示されます。

カードのモデルは表示されていないが RAID 設定が存在する場合は、サーバでオンボード ICH10R コントローラが使用されています。また、このコントローラの構成ユーティリティを起動する Ctrl+M キーを押すプロンプトも表示されます。

図 3-1 ICH10R 起動ウィンドウ

 

RAID コントローラ

次の RAID コントローラ オプション付きの B シリーズ サーバを発注または設定できます。

Cisco UCS B200 および B250 サーバでは、LSI 1064E コントローラがマザーボードに搭載されています。このコントローラは、最大 2 台の SAS ドライブまたは SATA ドライブに対して RAID 0 および 1 をサポートします。このコントローラは、RAID を設定する前に Cisco UCS Manager でイネーブルにしておく必要があります。すべての RAID オプションを Cisco UCS Manager から設定できます。

Cisco UCS B440 サーバには、LSI MegaRAID コントローラ(サーバによってモデルは異なる)が搭載されています。インストールされたライセンス キーに応じて、これらのコントローラは、最大 4 台の SAS ドライブまたは SATA ドライブに対する RAID 0、1、5、6、および 10 のサポートを提供します。

Cisco B200 M3 サーバでは、LSI SAS 2004 RAID コントローラがマザーボードに搭載されています。このコントローラは、最大 2 台の SAS ドライブまたは SATA ドライブに対して RAID 0 および 1 をサポートします。


) RAID クラスタをサーバ間で移動させる必要がある場合は、そのクラスタの新旧両方のサーバで同じ LSI コントローラが使用されている必要があります。たとえば、LSI 1064E を搭載したサーバから LSI MegaRAID を搭載したサーバへの移行はサポートされていません。


サーバで使用されているオプションについての記録がない場合は、Quiet Boot 機能をディセーブルにし、システムのブート時に表示されるメッセージから読み取ります。搭載されている RAID コントローラのモデルに関する情報は、冗長ブート機能の一部として表示されます。それらのコントローラの構成ユーティリティを起動するため、Ctrl を押した状態で H を押すように求めるプロンプトが表示されます。

Quiet Boot のディセーブル化

Quiet Boot 機能がディセーブルになっている場合、ブートアップ時にコントローラの情報と、オプションの ROM ベースの LSI ユーティリティのプロンプトが表示されます。


ステップ 1 サーバをブートし、ブート プロセス中に F2 キーの押下を求めるプロンプトが表示されるのを待ちます。

ステップ 2 BIOS セットアップ ユーティリティを起動するために、プロンプトが表示されたら F2 を押します。

ステップ 3 BIOS セットアップ ユーティリティのメイン ページで、[Quiet Boot] を [disabled] に設定します。

この操作により、ブートアップ時にシスコのロゴ ウィンドウではなく、デフォルトではないメッセージ、プロンプト、および POST メッセージが表示されるようになります。

ステップ 4 F10 を押して変更内容を保存し、ユーティリティを終了します。


 

ROM ベースのコントローラ ユーティリティへのアクセス

ハード ドライブの RAID 設定を変更するには、ホスト OS の上にインストールされたホストベースのユーティリティを使用します。また、サーバ上にインストールされている LSI オプションの ROM ベースのユーティリティを使用することもできます。


ステップ 1 Quiet モードをディセーブルにしてサーバを起動します。

コントローラに関する情報が、コントローラの LSI オプションの ROM ベースのユーティリティを起動するためのキーの組み合わせのプロンプトとともに表示されます。

ステップ 2 冗長ブート プロセス中に、目的のコントローラのプロンプトが表示されたら、次のいずれかの制御コマンドを入力します。

Ctrl+H のプロンプトが表示された場合、Ctrl+H を押して LSI コントローラ カード ユーティリティを起動します。

Ctrl+M のプロンプトが表示された場合、Ctrl+M を押してオンボード Intel ICH10R コントローラ ユーティリティを起動します。


 

RAID コントローラと LSI ユーティリティのマニュアル

LSI ユーティリティにはメーカーのマニュアルが用意されています。Cisco UCS 固有の情報以外の RAID に関する情報、および LSI ユーティリティの使用方法については、次のマニュアルを参照してください。

LSI MegaRAID SAS Software User's Guide 』(LSI MegaRAID 用)

LSI Fusion-MPT Device Management User's Guide 』(LSI 3081E 用)

LSI SAS2 Integrated RAID Solution User Guide 』(LSI SAS1064E 用)

UCS ソフトウェア バージョン 1.4(1) を使用した RAID クラスタの移動

別のサーバ上で作成された RAID クラスタを認識するようにサーバを設定できます。この手順は、M1 バージョンのサーバを M2 バージョンのサーバにアップグレードする際に役立ちます。また、RAID クラスタ上のデータをサーバ間で移動させなければならなくなったときにも使用できます。


) クラスタの新旧両方のサーバで同じ LSI コントローラが使用されている必要があります。たとえば、LSI 1064E を搭載したサーバから LSI MegaRAID を搭載したサーバへの移行はサポートされていません。


はじめる前に

移動元と移動先の両方のサーバのサービス プロファイルが、まったく同じローカル ディスク設定ポリシーを持ち、正常に起動できることを確認します。


ステップ 1 RAID クラスタの移動元と移動先の両方のサーバを関連付けられている状態にします。

ステップ 2 両方のサーバをシャットダウンします。


) M1 から M2 へのアップグレード時またはスロット内の直接交換時にこの手順を使用した場合、プロセスのこの時点では、移動先サーバの関連付けはまだ行われてなく、ディスク ポリシーもありません。移動元サーバが搭載されていたスロットに移動先サーバが装着されたときに、移動元サーバのポリシーが移動先サーバに継承されます。RAID コントローラと PnuOS は、後続のアソシエーション時(PnuOS の起動時)にディスクと RAID ボリュームの詳細情報を読み込みます。


ステップ 3 サーバの電源がオフになったら、アレイ内のドライブを移動先のサーバに物理的に移します。サーバを変更しても、ドライブは同じスロットのままにする場合は、元のサーバのスロットに新しいサーバを挿入します。

ステップ 4 KVM ドングルを接続します。

ステップ 5 モニタ、キーボード、およびマウスを移動先サーバに接続します。

ステップ 6 サーバの前面にある電源スイッチを使用して、移動先サーバを起動します。必要ならば、Quiet Boot 機能をディセーブルにし、再起動します。

ステップ 7 LSI Configuration Utility のバナーが表示されるまで待ちます。

ステップ 8 LSI Configuration Utility を起動するために、Ctrl+C を押します。

ステップ 9 [SAS Adapter List] ウィンドウから、サーバ内で使用される SAS アダプタを選択します。

ステップ 10 [RAID Properties] を選択します。[View Array] ウィンドウが表示されます。

ステップ 11 [Manage Array] を選択します。[Manage Array] ウィンドウが表示されます。

ステップ 12 [Activate Array] を選択します。アクティベーションが完了すると、RAID ステータスが [Optimal] に変化します。

ステップ 13 [Manage Array] ウィンドウで、[Synchronize Array] を選択します。

ステップ 14 ミラー同期化が完了するまで待ちます(表示されている経過表示バーを監視します)。


) 同期化が完了するまでの時間は、RAID アレイ内のディスクのサイズによって異なります。


ステップ 15 ミラー同期化が完了したら、Esc キーを数回押してウィンドウを順番に戻り(一度に 1 つ)、LSI Configuration Utility を終了します。

ステップ 16 [reboot] オプションを選択して、変更を完了します。


 

UCS ソフトウェア バージョン 1.4(2) 以降のリリースを使用した RAID クラスタの移動

別のサーバ上で作成された RAID アレイを認識するようにサーバを設定できます。この手順は、M1 バージョンのサーバを M2 バージョンのサーバにアップグレードする際に役立ちます。また、RAID アレイ上のデータをサーバ間で移動させなければならなくなったときにも使用できます。


) クラスタの新旧両方のサーバで同じ LSI コントローラ ファミリが使用されている必要があります。たとえば、LSI 1064 を搭載したサーバから LSI MegaRAID を搭載したサーバへの移行はサポートされていません。


はじめる前に

移動元と移動先の両方のサーバのサービス プロファイルが、まったく同じローカル ディスク設定ポリシーを持ち、正常に起動できることを確認します。


ステップ 1 Cisco UCS Manager から移動元と移動先の両方のサーバの稼働を中止します。

ステップ 2 サーバがシャットダウンするのを待ちます(サーバの稼働中止では、サーバをシャットダウンするように求められます)。


) M1 から M2 へのアップグレード時またはスロット内の直接交換時にこの手順を使用した場合、プロセスのこの時点では、移動先サーバの関連付けはまだ行われてなく、ディスク ポリシーもありません。移動元サーバが搭載されていたスロットに移動先サーバが装着されたときに、移動元サーバのポリシーが移動先サーバに継承されます。RAID コントローラと PnuOS は、後続のアソシエーション時(PnuOS の起動時)にディスクと RAID ボリュームの詳細情報を読み込みます。


ステップ 3 サーバの電源がオフになったら、アレイ内のドライブを移動先のサーバに物理的に移します。

サーバを変更しても、ドライブは同じスロットのままにする場合は、元のサーバのスロットに新しいサーバを挿入します。

ステップ 4 各サーバの前面にある電源スイッチを押して、サーバの電源をオンにします。

ステップ 5 各スロット(移動元と移動先)の [Reacknowledge Slot] を選択します。Cisco UCS Manager からスロットの問題を解決するように求められた場合は、[Resolve Slot] ウィンドウ内の [here] リンクを選択し、スロットの問題を解決してから、サーバ ディスカバリを開始します。

ステップ 6 各サーバのサーバ ディスカバリとアソシエーションが完了するのを待ちます。

前述のステップがそれぞれ問題なく実行されれば、RAID クラスタの移行前に RAID ボリュームにインストールされていた OS で各サーバが起動します。


 

B200 M3 サーバ間での RAID クラスタの移動

別のサーバ上で作成された RAID クラスタを認識するようにサーバを設定できます。また、RAID クラスタ上のデータをサーバ間で移動させなければならなくなったときにも使用できます。

はじめる前に

移動元と移動先の両方のサーバのサービス プロファイルが、まったく同じローカル ディスク設定ポリシーを持ち、正常に起動できることを確認します。


ステップ 1 移動元サーバのオペレーティング システムをそのオペレーティング システム内からシャットダウンします。

先に進む前に、OS が完全にシャットダウンし、自動で再起動していないことを確認します。

ステップ 2 B200M3 サーバに現在適用されているサービス プロファイルの関連付けを解除します。

ステップ 3 アレイ内のドライブを移動先のサーバに物理的に移します。

サーバを変更する場合は、新しいサーバでも元のサーバと同じスロットにドライブを装着する必要があります。

ステップ 4 前に使用していたのと同じ論理ドライブ設定ポリシーが維持されるように、サービス プロファイルを新しいブレードに再関連付けします。

ステップ 5 各サーバの前面にある電源スイッチを押して、サーバの電源をオンにします。

ステップ 6 新しいサーバへの KVM 接続を開き、Storage Web BIOS Utility が起動するのを待ちます。

ステップ 7 この Web BIOS ユーティリティのプロンプトに従って、RAID LUN を移行します。


 

RAID クラスタ内の障害の発生したドライブの交換

RAID ボリュームを作成する際は、業界の標準的なプラクティスに従って、容量が同じドライブを使用することを推奨します。容量の異なるドライブを使用すると、最も容量の小さいドライブで使用可能な容量が、RAID ボリュームを編成するすべてのドライブで使用されることになります。

はじめる前に

障害の発生した HDD または SSD を、同じサイズ、モデル、メーカーのドライブと交換します。稼働中のシステムで HDD を交換する前に、Cisco UCS Manager でサービス プロファイルを確認し、新しいハードウェア設定が、サービス プロファイルで設定されているパラメータの範囲内になることを確認します。


ステップ 1 KVM ドングルを、障害の発生したドライブを搭載しているサーバに接続します。

ステップ 2 モニタ、キーボード、およびマウスを移動先サーバに接続します。

ステップ 3 障害の発生したドライブを物理的に交換します。

必要に応じて、お使いのサーバ モデルのサービス ノートを参照します。通常、ほとんどのモデルで同様の手順になります。

ステップ 4 サーバの前面にある電源スイッチを使用して、サーバを起動します。

必要ならば、Quiet Boot 機能をディセーブルにし、再起動します。(「Quiet Boot のディセーブル化」(P.3-13)を参照)。

ステップ 5 LSI Configuration Utility のバナーが表示されるまで待ちます。

ステップ 6 LSI Configuration Utility を起動するために、Ctrl+C を押します。

ステップ 7 [SAS Adapter List] ウィンドウから、サーバ内で使用される SAS アダプタを選択します。

使用されている RAID コントローラを確認するには、「RAID コントローラ」(P.3-12)を参照してください。

ステップ 8 [RAID Properties] を選択します。

[View Array] ウィンドウが表示されます。

ステップ 9 [Manage Array] を選択します。

[Manage Array] ウィンドウが表示されます。

ステップ 10 [Activate Array] を選択します。

アクティベーションが完了すると、RAID ステータスが [Optimal] に変化します。

ステップ 11 [Manage Array] 画面で、[Synchronize Array] を選択します。

ステップ 12 ミラー同期化が完了するまで待ちます(表示されている経過表示バーを監視します)。


) 同期化が完了するまでの時間は、RAID アレイ内のディスクのサイズによって異なります。


ステップ 13 ミラー同期化が完了したら、Esc キーを数回押してウィンドウを順番に戻り(一度に 1 つ)、LSI Configuration Utility を終了します。

ステップ 14 [reboot] オプションを選択して、変更を完了します。