データセンター

ブレード サーバ環境におけるハイ アベイラビリティおよびスケーラビリティに関する設計上の考慮事項

ホワイトペーパー





ブレード サーバ環境におけるハイ アベイラビリティおよびスケーラビリティに関する設計上の考慮事項



概要


最近のシステム統合と仮想化の発展により、データセンターおよびインフラストラクチャ設計におけるハイ アベイラビリティとスケーラビリティの重要性が増しています。現在、ハイ アベイラビリティとスケーラビリティをデータセンターのインフラストラクチャおよびアプリケーションの展開に取り入れることが、多くのビジネスの成功にとってきわめて重要になっています。

このドキュメントでは、ハイ アベイラビリティとスケーラビリティを定義し、これらの属性を伴うデータセンター アーキテクチャの実装によって、ビジネス プロセスの目標を達成するために必要なアプリケーションのアップタイムをどのように実現するかを示します。次に、Cisco® Unified Computing System プラットフォームによって、ハイ アベイラビリティとスケーラビリティを必要とする環境に適したフレームワークを実現する仕組みを示します。

ハイ アベイラビリティおよびスケーラビリティ


コンピューティング環境は、実稼動時における予測可能な運用の継続性を保てるように、ハイ アベイラビリティを考慮して設計されています。ビジネスに不可欠なアプリケーションのアップタイムが、予定外の機器のダウンタイムの影響を受けないようにすることが重要です。ビジネスに不可欠なアプリケーションの一般的な例としては、Microsoft Exchange などの企業向け電子メール サービスがあります。システムが適切に設計されていれば、コンピューティング環境で 1 台のハードウェアに障害が発生しても、ユーザは引き続きサービスを使用することができます。サーバのダウンタイム中はサービスが低下する場合がありますが、アプリケーションの動作は保持したまま、ハードウェアの障害が修復されます。

重要なアプリケーションをオンライン状態に保つことに加え、企業は、システムのキャパシティをビジネス改革のニーズに合わせて増減できるように、アーキテクチャが確実に設計されていることを必要とします。スケーラブルなシステムとは、ハードウェアを増設または除去すると、キャパシティの増減に比例してパフォーマンスが向上または低下するシステムです。このようなシステムのスケーラビリティを実現するには、いくつかの方法があります。特に、スケール アップまたはスケール アウトによってリソースを追加できます(図 1)。

図 1 スケールのディメンション

図 1 スケールのディメンション
※画像をクリックすると、大きな画面で表示されますpopup_icon


垂直スケール(またはスケール アップ)とは、生産性を高める(たとえば、1 台のデータベース サーバに CPU またはメモリ容量を追加し、1 秒当たりのトランザクション数またはクエリー数をアップグレード前より多くする)ために 1 台のサーバまたはノードにリソースを追加する機能を指します。この垂直スケーラビリティを備えたシステムは高額であり、独自仕様であることが少なくありません。多くの場合、システムを保守する運用コストがインフラストラクチャを購入するコストよりも高くなります。このような固有で複雑なシステムには、サポート専門のスタッフが必要です。

水平スケール(またはスケール アウト)とは、アプリケーション環境のキャパシティを増やすためにノードやサーバを追加できるアーキテクチャを表します。Oracle Real Application Cluster(RAC)は、このアーキテクチャの一例です。Oracle RAC を導入した環境では、ユーザの要求を処理するために複数のノードが連携して機能します。RAC ノードを RAC クラスタに追加することにより、全体的なキャパシティが増し、追加の作業負荷の処理が可能になります。

ハイ アベイラビリティと耐障害性との比較


耐障害性とハイ アベイラビリティの違いを理解することは重要です。耐障害性のあるシステムには、自己修復特性があり、各サーバ内部の冗長なハードウェア コンポーネントは、ダウンタイムなしでハードウェアの障害に耐えるように設計されています。たとえば、規模の大きいサーバ ベンダーから入手できるメインフレームやその他のエンタープライズ UNIX または RISC プラットフォームなどがあります。これらのプラットフォームにはたいてい、重要なハードウェア コンポーネントに障害が発生した場合のサーバの停止を防ぐ、独自のコンポーネントが搭載されています。これらのシステムに搭載されたプロセッサおよびメモリ コントローラには冗長性があり、密接に協調しながら動作し、プロセッサに障害が発生した場合は冗長プロセッサが迅速に処理を引き継ぐことができます。このようなシステムでは、複雑さとコストの増加、および使用するハードウェアとソフトウェアの専有的な性質などが代償となります。

これに対し、ハイ アベイラビリティは、オペレーティング システムの上部で実行するソフトウェアを介して実現することも、選ばれたサーバ アーキテクチャを介して実現することも、さらにはアプリケーション自体の機能として実現することもできます。ハイ アベイラビリティ特性が組み込まれたアプリケーションでは、追加のソフトウェアを実行する必要がありません。ハイ アベイラビリティ システムはたいてい、コンポーネントの障害を迅速に解決しながら、場合によっては非常に限られたアプリケーションのダウンタイムまたは一定期間のキャパシティの低下を伴って、アーキテクチャ内のコンポーネント障害から迅速に回復するように設計されています。

ハイ アベイラビリティ アーキテクチャとデータ アクセス


エンタープライズ データセンターの中心には、重要なデータの一部が存在します。サーバ、オペレーティング システム、およびインフラストラクチャのコンポーネントは、このデータへのユーザ アクセスを容易にするために所定の位置に設置されます。

インフラストラクチャにハイ アベイラビリティを組み込むには、多くの方法があります。ここでは、データ自体から始め、データセンター インフラストラクチャの残りの部分へと説明を進めていきます。

エンタープライズ データは多くの場合、ブロックレベルのストレージ アレイ、つまり Storage Area Network(SAN; ストレージ エリア ネットワーク)か、ファイルベースのアレイ、つまり Network Attached Storage(NAS; ネットワーク接続ストレージ)アレイに格納されます。これらのエンタープライズ アレイにはさまざまなレベルの冗長性があるので、アレイ内の 1 つのコンポーネント(ディスク ドライブ、コントローラ、SAN または LAN アクセス ポートなど)に障害が発生した場合でも、ユーザはデータにアクセスできます。

物理ディスク ドライブに障害が発生した場合にユーザ データに継続的にアクセスできるよう、データ自体はたいていの場合、アレイ内の多くの物理ディスク間でストライプ化またはミラー化(あるいはその両方)されます。これらの冗長レベル(RAID レベル)は、アプリケーションのパフォーマンス ニーズによって異なります。

このストレージに可用性の高いパスや冗長なパスを作成するため(および、複数のホストがこれらのパスに同時にアクセスできるようにするため)、アレイは多くの場合スイッチに接続されます。SAN アレイでは通常、2 台以上のファイバ チャネル スイッチ(NAS 対応のイーサネット スイッチ)が使用されるので、スイッチまたはパスに障害が発生した場合に、残りの正常なスイッチまたはパスによってストレージに対するユーザ要求を処理できます。

サーバ I/O のハイ アベイラビリティ アーキテクチャ


データを保持するアレイと同じくらい重要なものは、最終的にデータにアクセスするアプリケーションを実行するサーバです。これらのサーバを使用してハイ アベイラビリティと冗長性を実現するために利用できるアーキテクチャには、多くの選択肢があります。

x86 アーキテクチャをベースにしたエンタープライズ サーバには、多くの場合 SAN およびイーサネット ネットワークへの複数の接続が設定されています。これらの冗長接続は、デュアル ポート アダプタまたは複数の(シングルポート)アダプタを使用することによって実施でき、いずれもサーバの空き容量(つまり、I/O 拡張スロットの数)と必要なハードウェアの冗長性レベルに依存します。

次にサーバは、ネットワークおよびストレージ リソースに対応した冗長パス、スイッチ、およびアクセス ポートを使用する方法でインフラストラクチャに関連付けられます。このトポロジは、蝶ネクタイ型と呼ばれることもあります(図 2)。

図 2 冗長なインフラストラクチャおよびパスによって実現するハイ アベイラビリティ

図 2 冗長なインフラストラクチャおよびパスによって実現するハイ アベイラビリティ
※画像をクリックすると、大きな画面で表示されますpopup_icon


接続が冗長であり、シングル ポイント障害が起こり得ない点に注目してください。1 つのイーサネットまたは SAN のパスに障害が発生しても、残りのパスで接続は保たれます。重要なのは、このフェールオーバーがほとんどの場合、自動的に機能せず、ある種のマルチパスまたはフェールオーバー ソフトウェアによってトリガーする必要があるという点です。

ネットワークの冗長性を得るため、エンタープライズ オペレーティング システム内では多くの場合、このようなソフトウェアが利用可能になっています。多くの Microsoft Windows および多くの Linux(サーバ)オペレーティング システムに、ボンディングまたは Network Interface Card(NIC; ネットワーク インターフェイス カード)チーミング ドライバが付属しています。このようなドライバは、2 つのネットワーク カードを関連付け、それらのカードが協調して機能できるようにします。ドライバは、2 つのリンク間におけるネットワーク トラフィックのロード バランシングを管理すると同時に、物理ネットワーク カード、ケーブル、またはアップストリーム ネットワーク コンポーネントに障害が発生した場合にフェールオーバーを実施します。

SAN フェールオーバーはたいてい、ディスク アレイ ベンダーが提供するサードパーティのマルチパス ソフトウェアを使用して実施されます。マルチパス ソフトウェアは、OS の上部にロードされ、OS とストレージ アダプタの間に 1 つの層を作ります。マルチパス ソフトウェアはすべての物理パスやストレージ プレゼンテーションを密接に監視しながら、使用可能な Host Bus Adapter(HBA; ホスト バス アダプタ)およびパス間での SAN トラフィックのロード バランシングを行います。このソフトウェア層では、HBA、パス、またはアップストリーム デバイスに障害が発生した場合のフェールオーバーも実施されます。

非常に多くのアダプタ、ネットワーク ポート、ストレージ ポート、およびケーブルを利用することのマイナス面としては、光ファイバ トランシーバおよびケーブルに関連付けられる電力消費やコストなどがあります。ほかにも、これらの接続およびケーブル配線をすべて管理するという複雑さも考慮する必要があります。多数のサーバを抱える大規模な環境では、これらのコストが大幅にアップする可能性があります。このようなコストの問題に対応できるよう、業界では現在、統合ネットワーキング テクノロジーを採用し、1 つのケーブル タイプで SAN およびイーサネット ネットワークを運用しています。Fibre Channel over Ethernet(FCoE)は、このタイプの実装の一例です。複数のイーサネットおよびストレージ アダプタではなく、FCoE 対応のアダプタをサーバに使用することで、サーバはイーサネット トラフィックとファイバ チャネル トラフィックの両方を同じタイプのメディアに通過させることができます。このアプローチにより、コストや管理の複雑さが大幅に軽減されると同時に、SAN およびイーサネット ネットワークへの冗長アクセスが可能になります。

N+1 サーバ アーキテクチャ:ハードウェアのハイ アベイラビリティ


さらに高度なプラットフォームでは、N+1 ハードウェア フェールオーバーが可能です。N+1 サーバ環境には、サーバ グループに冗長性をもたらすために 1 台のスペア サーバが設定されています。この N+1 サーバは、必要に応じて、そのグループ内で障害が発生したサーバの役割を引き受けます。

N+1 フェールオーバーは、電源装置によく利用されます。コンピューティング シャーシへの予備電源の設置がその一例です。この電源は、アクティブな電源の障害に対処する必要がある場合にだけオンの状態になります。この動作は冗長性をもたらすだけでなく、コンピューティング シャーシで常にオンの状態にある予備電源と比較すると、電力も節約でき、冷却も保たれます。

サーバのアイデンティティはすべてのサーバ コンポーネントから成り立っているので、N+1 ハードウェア フェールオーバー(特別なアプリケーションなしで OS の下で実施される)を実現することは非常に困難です。このようなコンポーネントには、次のものが含まれます。

  • ストレージのワールドワイド名(WWN)アドレス(通常はストレージ アダプタに固定)
  • ネットワーク MAC アドレス(通常は、ネットワーク アダプタに固定)
  • ストレージとネットワーク アダプタのファームウェアおよび設定
  • Universally Unique ID(UUID)を含む、サーバ BIOS のファームウェアと設定

利用可能な多くのサーバ プラットフォームでサーバの MAC アドレスと WWN コンポーネントを仮想化できますが、サーバ N+1 フェールオーバーは実際に、固定されたハードウェア資産のアイデンティティだけでなく、サーバ ハードウェア自体の抽象化で履行されます。ファームウェア コンポーネントと設定を定義済みの N+1 フェールオーバー サーバに移行すると、障害のあるサーバを複製でき、フェールオーバー プロセスが大幅に簡略化されます。アダプタ自体に仮想化を広げることにより、はるかに機能的でスケーラブルな N+1 を実現できます。この流動的でダイナミックな N+1 シナリオの中で管理を必要とする複雑な要素は、ネットワークとストレージ エッジの特性の関連付けです。これらのエッジ ポートと適用されるポリシーの関連付けを管理することは、安全で効果的なフェールオーバー イベントに欠かせません。

ハイ アベイラビリティおよびスケーラビリティのソフトウェアとアプリケーション:ソフトウェアのハイ アベイラビリティ


冗長性のレベルを上げ、ローカル サイト内の全体的なアプリケーションのアップタイムを増やすには、可用性の高い構成(冗長なネットワーク アダプタ、SAN アダプタ、パス、スイッチなど)に設計されたサーバでハイ アベイラビリティ アプリケーションを実行します。

これらのアプリケーションは多くの場合、同様に設定された 2 台のサーバにインストールされ、これらのサーバで実行中のクラスタリング サービスは緊密な相互通信関係を保ちます。OS に組み込まれたものや、OS の上部にインストールされたものなど、多数のクラスタリング サービスを利用できます。これらのアプリケーションは、次の 2 つのモードで動作します。

  • アクティブ/アクティブ:設定された 2 台のサーバが、要求や全体的なアプリケーションのロードを連携して処理するように設定されます。アプリケーション、OS、またはハードウェアに障害が発生した場合、残りの正常なノードですべての要求が処理されます。フェールオーバーを実施するには、通常の動作時に各サーバの利用率が(平均で)50 パーセント未満になるように、両方のサーバを必要に応じてサイズ設定することが大切です。このシナリオでは、それぞれに OS とアプリケーションの両方のアクティブ ライセンスを実行する、2 台の物理サーバの最小値を使用する必要があります。
  • アクティブ/パッシブ:このモードはアクティブ/アクティブと似ていますが、パッシブ ノードはスタンバイ設定になります。パッシブ ノードは、アクティブ ノードのハードウェア、OS、またはアプリケーションで障害が検出されるまで、要求を積極的に処理しません。この設定では、パッシブ ノードには通常 OS またはアプリケーションのアクティブ ライセンスは必要ありません。アクティブ ライセンスは、クラスタ内のアクティブ ノードにだけ適用されます。アクティブ/パッシブ モードのその他の考慮事項には、パッシブ ノードがブートされて電源および冷却リソースが使用されること、および最新の状態を保ち、プライマリ ノードと同期するために動作可能なリソースが必要とされることなどがあります。

ローカル サイトを超えて保護を拡張するには、多くの場合、障害回復プロセス、ポリシー、および手順が使用されます。この保護は、自然災害や人為的な災害からの回復に備えるために設定します。災害によって業務が停止した場合に発生する恐れのある大きな損失を回避するため、IT 組織で年間予算の一部(3 〜 6 パーセント)が災害回復に使用されることも珍しくありません。柔軟なサーバ アーキテクチャにより、組織は災害回復目標の達成に必要な時間を短縮することができます。

Cisco Unified Computing System:スケーラビリティとハイ アベイラビリティを備えたコンピューティング プラットフォーム


Cisco Unified Computing System は、ハイ アベイラビリティとスケーラビリティを必要とするアプリケーションを実行するための深い基礎を実現するアーキテクチャを使用した、統合コンピューティング ソリューションです。このプラットフォームは x86 互換のサーバ プラットフォームであり、組み込み型の包括的な管理機能、I/O および管理用のユニファイド ファブリック、およびソリューション全体にわたる仮想化の最適化が採用されています。

Cisco UCS 6140XP 40 ポート ファブリック インターコネクト

Cisco UCS 6140XP 40 ポート ファブリック インターコネクトのペア(図 3)は、Cisco Unified Computing System の中央にあります。ファブリック インターコネクトにより、接続可能なサーバ ブレードからなる多数のシャーシに対応する統合アクセス レイヤが実現します。ファブリック インターコネクトは、ストレージ ネットワーク、イーサネット ネットワーク、および管理ネットワークへのシングルポイント接続も実現します。各ファブリック インターコネクトには、可用性の高いブート プロセスが備わっています。ハードウェア内の冗長なブート ブロックには、アクティブなブート ソフトウェアとバックアップ バージョンが保持されます。ファブリック インターコネクトがアクティブなソフトウェア バージョンのブートに失敗した場合は、バックアップ バージョンがブートされます。

図 3 Cisco UCS 6140XP 40 ポート ファブリック インターコネクト

図 3 Cisco UCS 6140XP 40 ポート ファブリック インターコネクト
※画像をクリックすると、大きな画面で表示されますpopup_icon


これらのメイン ソリューション コンポーネントには、サービス プロファイルの使用によるサーバや I/O 接続のプロビジョニングを含む、全面的なサーバ管理を単一ポイントで行うことを可能にする Cisco UCS Manager ソフトウェアが含まれます。このサービス プロファイルとは、サーバ BIOS、ストレージ HBA、およびネットワーク アダプタに関連付けられた下位レベルのファームウェア設定や識別属性の管理など、通常独立した管理を必要とするサーバのコンポーネントを完全に抽象化することを目的とした、I/O およびハードウェア プロファイルを含むサーバの定義です。これらのサービス プロファイルには、SAN およびネットワーク接続に対応したエッジポートの関連付けも含まれるので、サービス プロファイルを新規のブレードに移行しても、適用されるすべてのセキュリティやポリシーはそのまま保持されます。

ソリューションのすべてのケーブル接続は、FCoE を使用する Cisco ユニファイド ファブリックまたは 10 ギガビット イーサネットがベースとなります。ユニファイド ファブリック ケーブルは銅線または光ファイバ(距離要件による)であり、イーサネット、ファイバ チャネル、および管理トラフィックは同じケーブルを介して伝送できます。

ファブリック インターコネクトでは、サーバ ブレードが搭載されたコンピューティング シャーシに接続する、FCoE 使用のポートを最大 40 個利用できます。サーバ管理のこのドメインは、合計 320 台のサーバにスケール アウトし、そのすべてがサーバと I/O のプロビジョニングおよびモニタリングを全面的に管理する単一ポイントを備えます。

システム コンポーネントのハイ アベイラビリティを実現するには、ファブリック インターコネクトをペアで設置して、接続されたサーバに冗長な I/O ファブリックを提供すると同時に、構内イーサネット、SAN、および管理ネットワークへの冗長なアクセスを可能にします。各ファブリック インターコネクトには、可用性の高い 2 台のファブリック インターコネクトを直接クラスタ化するための専用のネットワーク ポートが搭載されています。ファブリック インターコネクト内で実行する Cisco UCS Manager ソフトウェアには、ハートビート、問題の検出と修復、および設定情報のレプリケーションを管理するための拡張ロジックが備わっています。

図 4 FCoE との I/O の統合

図 4 FCoE との I/O の統合
※画像をクリックすると、大きな画面で表示されますpopup_icon


Cisco UCS 2104XP ファブリック エクステンダ

各 Cisco UCS 5100 シリーズ ブレード サーバ シャーシには、冗長な Cisco UCS 2104XP ファブリック エクステンダ モジュールのペアが搭載されています(図 5)。これらのモジュールは、ファブリック インターコネクトとの I/O を統合した接続(FCoE を介したネットワークおよびファイバ チャネル)を実現し、ブレード シャーシ内のすべてのブレードに対して独立した I/O ファブリックへのアクセスを可能にします。ファブリック インターコネクトと同様に、ファブリック エクステンダには可用性の高いブート プロセスが備わっています。冗長なブート ブロックを利用することで、各ファブリック エクステンダにはアクティブ ファームウェア イメージおよびバックアップ ファームウェア イメージを保持できます。ファブリック エクステンダがアクティブ ファームウェア イメージをブートできなかった場合は、バックアップ バージョンがブートされます。

図 5 Cisco UCS 2104XP ファブリック エクステンダ

図 5 Cisco UCS 2104XP ファブリック エクステンダ
※画像をクリックすると、大きな画面で表示されますpopup_icon


これらのファブリック エクステンダからファブリック インターコネクトへの接続は通常、10 ギガビットの速度で稼動する低遅延の Twinax 銅ケーブルによって確立されます。このケーブルは、従来のエンタープライズ サーバによく利用される冗長な SAN、ネットワーク、および管理のケーブルのバンドルに取って代わり、すべての I/O を統合します。すなわち、ラック パッチ パネル、データセンター フロアの下のトレイ、ネットワークおよび SAN 列のパッチ パネル、ならびに適切なネットワークおよび SAN のアクセス ポートに接続します。

図 6 に示すとおり、このファブリック エクステンダ アーキテクチャによって I/O のスケーリングが容易になります。I/O をブレード シャーシ内でスケール アウトするには、シャーシ ファブリック エクステンダからファブリック インターコネクトに接続を追加するだけで済みます。このアプローチにより、コンピューティング キャパシティの増加(少数の I/O ケーブルを使用)や I/O キャパシティの増加(多数の I/O ケーブルを使用)に対応した、コンピューティング環境のスケーリングを容易に行うことができます。最も重要なこととして、多くのブレード サーバ環境に見られるメザニン カードまたはスイッチに物理的な変更を加えずに、I/O をスケーリングすることができます。

図 6 シャーシ内の I/O の簡素化

図 6 シャーシ内の I/O の簡素化
※画像をクリックすると、大きな画面で表示されますpopup_icon


Cisco UCS 5108 ブレード サーバ シャーシ

Cisco UCS 5108 ブレード サーバ シャーシ(図 7)は、他のシステム コンポーネントに影響を与えずに設置することが可能であり、シャーシはいつでも迅速かつ簡単に追加することができます。ブレード シャーシでは、最大 8 台のブレード サーバ、最大 2 台のファブリック エクステンダ、および最大 4 台の電源装置を保持できます。これらの電源装置は、非冗長構成、N+1 構成、N+N 構成、またはグリッド冗長構成をサポートするように設定できます。各シャーシは合理化されており、一般的なブレード シャーシに通常見られる SAN、LAN、または管理モジュールを必要としません。これらの機能は組み込まれているか、Cisco UCS 6140XP ファブリック インターコネクト内から使用されます。したがって、ブレード シャーシを追加しても管理ポイントは追加されず、すべてのデバイス管理は集中化されたままとなります。新規のブレード サーバ シャーシを設置すると、すべてのコンポーネントが迅速に検出され、Cisco UCS Manager 内のデバイス管理の対象となります。

図 7 Cisco UCS 5108 ブレード サーバ シャーシ

図 7 Cisco UCS 5108 ブレード サーバ シャーシ
※画像をクリックすると、大きな画面で表示されますpopup_icon


Cisco UCS B シリーズ ブレード サーバ

Cisco B シリーズ ブレード サーバのフォーム ファクタでは、シャーシ内のサーバの追加による単純なスケール アウトが可能です(図 8)。新規ブレードをシャーシに挿入すると、そのブレードはただちに検出され、Cisco UCS Manager 内で集中化されたデバイス管理の対象となります。オンボード サービス プロセッサ(Baseboard Management Controller(BMC; ベースボード管理コントローラ))は、すべての管理と検出に不可欠なコンポーネントです。ファブリック インターコネクトおよびファブリック エクステンダと同様に、すべてのブレードに可用性の高いブート プロセスが備わっています。ブレードの BMC または BIOS がアクティブ ファームウェア バージョンのブートに失敗すると、バックアップ バージョンが使用されます。

図 8 Cisco UCS B シリーズ ブレード サーバ

図 8 Cisco UCS B シリーズ ブレード サーバ
※画像をクリックすると、大きな画面で表示されますpopup_icon


Cisco UCS ネットワーク アダプタ

Cisco Unified Computing System の可用性の高いアーキテクチャを完成させるため、各サーバにはデュアル ポートの 10 ギガビット ネットワーク アダプタと、各ファブリック エクステンダへの冗長なユニファイド I/O 接続が使用されています(図 9)。この冗長なファブリック接続は、外部管理、SAN、およびネットワークへの接続が確立されるソリューションの先端まで全体に広がっています。この設計は、1 つの I/O ファブリック内の 1 つのコンポーネント障害がソリューション内のサーバ I/O に影響しないようにするために重要です。

図 9 Cisco UCS ネットワーク アダプタ

図 9 Cisco UCS ネットワーク アダプタ
※画像をクリックすると、大きな画面で表示されますpopup_icon


これらのアダプタは現場で交換またはアップグレードすることができ、Cisco Unified Computing System の多くのコンポーネントと同様に、可用性の高いブート プロセスを備えた設計になっています。これらのコンポーネントには、アクティブ ファームウェア バージョンとバックアップ ファームウェア バージョンの両方が格納されており、アダプタがそのアクティブ ファームウェア バージョンを起動できなかった場合に、バックアップ バージョンが使用されるようにサポートします。

  • Cisco UCS 82598KR-CI 10 ギガビット イーサネット アダプタは、ブレード サーバへの冗長な 10 ギガビット イーサネット(Intel 82598)接続を実現します。
  • Cisco UCS M71KR-Q QLogic および M71KR-E Emulex Converged Network Adapter(CNA; 統合型ネットワーク アダプタ)は、FCoE を使用するファブリック チャネルとイーサネットの両方をサポートします。これらのアダプタは、QLogic または Emulex チップ セットに基づいた冗長な 10 ギガビット イーサネット(Intel 82598)およびファイバ チャネル接続を実現します。
  • Cisco UCS M81KR Virtual Interface Card(VIC; 仮想インターフェイス カード)は、ホスト OS またはハイパーバイザ用に PCIe 準拠のイーサネットおよびファイバ チャネル デバイスを 128 台までインスタンス化し、スケーリングすることができます。Cisco UCS Manager による徹底した管理によって、サービス プロファイルがブレードに適用されると、サービス プロファイルに設定されたすべての I/O デバイスが自動的にアダプタにプログラムされます。このネットワーク アダプタは、サーバで実行する OS に可用性の高い仮想イーサネット インターフェイスを提供することもできます。これらの仮想インターフェイスは、OS の下のフェールオーバーを実現し、1 つのコンポーネントまたはパスに障害が発生した場合にシステム内の残りの I/O ファブリックに自動的にフェールオーバーされます。このフェールオーバー方法によって、OS 内で動作するマルチパスまたはボンディング ドライバを使用するという複雑さがなくなります。

まとめ


今日のデータセンターのコンピューティング環境では、企業のミッションクリティカルなアプリケーションをサポートするために、ハイ アベイラビリティとスケーラビリティを備えたアーキテクチャが必要です。

Cisco Unified Computing System は、x86 互換のコンピューティング ソリューションに、サーバからストレージおよびイーサネット ネットワークにいたるソリューション全体にハイ アベイラビリティ コンポーネントを使用して設計された、シンプルでスケーラブルなアーキテクチャを適用することで、これらのニーズを満たしています。

関連情報


Cisco Unified Computing の詳細については、http://www.cisco.com/web/JP/product/hs/ucs/index.html を参照してください。

お問い合わせ