VMware Horizon 7.6 を使用した仮想デスクトップ インフラストラクチャとしての Cisco HyperFlex の設計と導入
『Cisco All-Flash HyperFlex 3.5 Hyperconverged System と最大 4400 の VMware Horizon 7 ユーザ』PDF
最終更新日:2019 年 3 月 10 日
Cisco Validated Design プログラムについて
Cisco Validated Design(CVD)プログラムは、お客様による信頼性の高い、確実かつ速やかな展開を容易にするために、デザイン、テスト、および文書化されたシステムおよびソリューションで構成されています。詳細については、次のサイトにアクセスしてください。
http://www.cisco.com/go/designzone 。
このマニュアルに記載されているデザイン、仕様、表現、情報、および推奨事項(総称して「デザイン」)は、障害も含めて本マニュアル作成時点のものです。シスコおよびそのサプライヤは、商品性の保証、特定目的への準拠の保証、および権利を侵害しないことに関する保証、あるいは取引過程、使用、取引慣行によって発生する保証をはじめとする、一切の保証の責任を負わないものとします。いかなる場合においても、シスコおよびそのサプライヤは、このデザインの使用または使用できないことによって発生する利益の損失やデータの損傷をはじめとする、間接的、派生的、偶発的、あるいは特殊な損害について、あらゆる可能性がシスコまたはそのサプライヤに知らされていても、それらに対する責任を一切負わないものとします。
デザインは予告なしに変更されることがあります。このマニュアルに記載されているデザインの使用は、すべてユーザ側の責任になります。これらのデザインは、シスコ、そのサプライヤ、パートナーの技術的な助言や他の専門的な助言に相当するものではありません。ユーザは、デザインを実装する前に技術アドバイザーに相談してください。シスコによるテストの対象外となった要因によって、結果が異なることがあります。
CCDE、CCENT、Cisco Eos、Cisco Lumin、Cisco Nexus、Cisco StadiumVision、Cisco TelePresence、Cisco WebEx、Cisco ロゴ、DCE、Welcome to the Human Network は商標です。Changing the Way We Work, Live, Play, and Learn、および Cisco Store はサービス マークです。Access Registrar、Aironet、AsyncOS、Bringing the Meeting To You、Catalyst、CCDA、CCDP、CCIE、CCIP、CCNA、CCNP、CCSP、CCVP、Cisco、Cisco Certified Internetwork Expert ロゴ、Cisco IOS、Cisco Press、Cisco Systems、Cisco Systems Capital、Cisco Systems ロゴ、Cisco Unified Computing System(Cisco UCS)、Cisco UCS B-Series Blade Servers、Cisco UCS C-Series Rack Servers、Cisco UCS S-Series Storage Servers、Cisco UCS Manager、Cisco UCS Management Software、Cisco Unified Fabric、Cisco Application Centric Infrastructure、Cisco Nexus 9000 Series、Cisco Nexus 7000 Series。Cisco Prime Data Center Network Manager、Cisco NX-OS Software、Cisco MDS Series、Cisco Unity、Collaboration Without Limitation、EtherFast、EtherSwitch、Event Center、Fast Step、Follow Me Browsing、FormShare、GigaDrive、HomeLink、Internet Quotient、IOS、iPhone、iQuick Study、LightStream、Linksys、MediaTone、MeetingPlace、MeetingPlace Chime Sound、MGX、Networkers、Networking Academy、Network Registrar、PCNow、PIX、PowerPanels、ProConnect、ScriptShare、SenderBase、SMARTnet、Spectrum Expert、StackWise、The Fastest Way to Increase Your Internet Quotient、TransPath、WebEx、および WebEx ロゴは Cisco Systems, Inc. またはその関連会社の米国および一部の国における登録商標です。
本ドキュメントまたは Web サイトに掲載されているその他の商標はそれぞれの所有者に帰属します。「パートナー」または「partner」という用語の使用はシスコと他社との間のパートナーシッ プ関係を意味するものではありません。(0809R)
© 2018 Cisco Systems, Inc. All rights reserved.
目次
Cisco HyperFlex コンピューティング専用ノード
Cisco HyperFlex データ プラットフォーム ソフトウェア
Cisco Unified Computing System
Cisco Unified Computing System のコンポーネント
Cisco VIC 1387 MLOM インターフェイス カード
Cisco VIC1340 コンバージド ネットワーク アダプタ
Cisco UCS 2304XP ファブリック エクステンダ
Cisco HyperFlex HX Data Platform 管理プラグイン
Cisco HyperFlex Connect HTML5 対応の管理 Web ページ
ファーム、RDS ホスト、デスクトップおよびアプリケーション プール
Cisco Unified Computing System の VMware Horizon のアーキテクチャと設計、 および Cisco HyperFlex のシステム設計の基本
プロジェクト計画とソリューション サイジングに関する確認事項の例
さまざまなワークロード タイプ向けの VMware Horizon 環境の設計
Cisco Unified Computing System の構成
HyperFlex データ プラットフォームの展開および設定
Cisco HyperFlex Data Platform インストーラ VM の導入
Horizon 7 インフラストラクチャ コンポーネントのインストール
VMware Horizon Composer Server のインストール
Horizon Persona Manager のインストール
テスト済み Horizon 展開タイプのマスター イメージの作成
Microsoft Office 2016 をインストールした Microsoft Windows 10 および Server 2016 R2 の準備
ベース Windows 10 または Server 2016 ゲスト OS の最適化
Horizon 用仮想デスクトップ エージェント ソフトウェアのインストール
デスクトップ プールの自動作成に使用するネイティブ スナップショットの作成
VMware Horizon リンクド クローン Windows 10 デスクトップ プールの作成
VMware Horizon インスタント クローン Windows 10 デスクトップ プールの作成
VMware Horizon 永続 Windows 10 デスクトップ プールの作成
32 ノードの Cisco HyperFlex クラスタでの 4400 ユーザのフルスケール テスト
付録 A – Cisco Nexus 93180 スイッチの構成
市場の変化に即応するためには、瞬時に対応できる開発プロセスを支えるシステムが欠かせません。Cisco HyperFlex™ システムでは、ハイパーコンバージェンスの持てる力を最大限に引き出し、IT をワークロード ニーズに適応させることができます。ソフトウェア デファインド インフラストラクチャ アプローチを採用したこのシステムでは、Cisco HyperFlex HX シリーズ ノードによるソフトウェア デファインド コンピューティング、強力な Cisco HyperFlex HX Data Platform を利用したソフトウェア デファインド ストレージ、そして Cisco® Application Centric Infrastructure(Cisco ACI™)と統合できる Cisco UCS ファブリックによるソフトウェア デファインド ネットワークが 1 つのシステムに統合されています。
この一元化された技術により、サーバ、ストレージ、ネットワークが統合された適応性の高いクラスタとして実現します。この中では、リソースの迅速な導入、適合、拡大・縮小、管理が可能で、アプリケーションとビジネスを効率化できます。
このドキュメントは、32 ノード(Cisco HyperFlex HXAF220C-M5SX サーバ 16 台と、Cisco UCS C220 M5 8 台、B200 M5 ブレード サーバ 8 台)の Cisco HyperFlex システムで、最大 4400 ユーザの混合ワークロードを扱う場合のアーキテクチャ リファレンスと設計ガイドです。VMware Horizon 7.6 仮想デスクトップ セッションで、WindowsServer 2016 RDSH サーバをベースとするリモート デスクトップ サーバ セッションと Office 2016 搭載の Microsoft Windows 10 を実行する場合の導入ガイダンスとパフォーマンス データを提供します。特に、vSphere 6.5 でインスタントクローン、リンククローン、および持続的仮想デスクトップを使用したプロビジョニングについて説明します。
このソリューションでは、あらかじめ統合され、ベスト プラクティスに則ったデータセンター アーキテクチャが採用されており、Cisco Unified Computing System(Cisco UCS)、Cisco Nexus® 9000 ファミリ スイッチ、Cisco HyperFlex Data Platform ソフトウェア バージョン 3.5(1a) での構築が対象となっています。
ソリューションのペイロードは、Cisco HyperFlex HXAF220C-M5SX ハイパーコンバージド ノード、Cisco UCS C220 M5 ラック サーバ、および Cisco UCS B200 M5 ブレード サーバ上で 100 % 仮想化されます。これらは、VMware vSphere 6.5 U2 ハイパーバイザを実行するオンボード Flex-Flash コントローラの SD カードを介して起動されます。仮想デスクトップは VMware Horizon 7.6 で構成されており、従来の永続/非永続仮想デスクトップ(Windows 7/8/10)、ホスト アプリケーションおよびリモート デスクトップ サービス(RDS)(Microsoft Server 2008 R2)、Windows Server 2012 R2、または Windows Server 2016 ベースのデスクトップが含まれています。これまでにない拡張性とシンプルな管理が実現されており、32 ノードの Cisco HyperFlex クラスタで、インスタントクローン浮動割り当ての Windows 10 デスクトップ(950)、コンポーザベースのラインクローン浮動割り当ての Windows 10 デスクトップ(950)、完全クローン デスクトップ(950)をプロビジョニングできます。本ドキュメントを利用することで、このソリューションを導入するお客様に対して、推奨されるベスト プラクティスとサイジングに関するガイドラインも提供します。
このソリューションでは、4400 の RDSH 仮想サーバおよび仮想デスクトップ マシンを 15 分以内で起動させ、ユーザが就業開始するような、HyperFlex 上の仮想ワークスペースを利用開始するケースでも、大きな遅延が発生しないようにします。
このソリューションでは、ハードウェア アクセラレーション グラフィックのワークロードもサポートしています。Cisco HyperFlex HXAF240c M5 ノード、および Cisco UCS C240 M5 コンピューティング専用サーバでは、最大 2 枚の NVIDIA M10 カードまたは P40 カードと、最大 6 枚の NVIDIA P4 カードをサポートできます。Cisco UCS B200 M5 サーバでは、高密度、高パフォーマンスのグラフィック ワークロード用に、最大 2 枚の NVIDIA P6 カードをサポートします。この機能と VMware Horizon との統合方法の詳細については、NVIDIA GPU およびソフトウェアを使用した第 5 世代サーバに関する『Cisco Graphics White Paper』を参照してください。
本ソリューションにより、仮想デスクトップを使用するエンド ユーザに対して非常に優れた操作性が提供されます。Login VSI 4.1x を使用して Knowledge Worker ワークロードをベンチマーク モードで評価したところ、テストしたすべての提供方法で、エンドユーザの平均反応時間が 1 秒を下回りました。これは業界でも最も高い性能にあることを示しています。
データセンター設計における現在の業界の傾向としては、小規模な細かく拡張できるハイパーコンバージド インフラストラクチャが求められつつあります。事前検証済みの IT プラットフォームに合わせて仮想化をもちいることで、あらゆる規模のお客様がこの新しい技術を使用した「ジャストインタイムのインフラ提供」を模索しています。Cisco HyperFlex ハイパー コンバージド ソリューションでは、導入時間を短縮できるため、俊敏性の向上とコストの削減が可能です。最高品質のストレージ、サーバ、ネットワーク コンポーネントを使用して、デスクトップ仮想化のワークロード処理基盤として動作し、迅速かつ着実な導入とスケール アウトを可能とする効率的なアーキテクチャ設計が実現します。
このドキュメントの対象読者には、セールス エンジニア、フィールド コンサルタント、プロフェッショナル サービス、IT マネージャ、パートナー エンジニアリング、および Cisco HyperFlex システムを導入しているお客様が含まれますが、これらに限定されません。必要に応じて外部参照が提示されますが、読者は、VMware 固有のテクノロジー、インフラストラクチャの概念、ネットワーキング接続、およびお客様のインストールのセキュリティ ポリシーに精通していることが求められます。
このドキュメントは、Cisco HyperFlex オールフラッシュ システムの Cisco Validated Design(CVD)として、体系的な設計、構成、実装について説明します。この Cisco HyperFlex オールフラッシュ システムでは、Cisco UCS 6300 シリーズ ファブリック インターコネクトおよび Cisco Nexus 93000 シリーズ ネットワーキング スイッチを使用した VMware Horizon 7 のワークロードが 4 つ別個に実行されます。
Cisco HyperFlex オールフラッシュ システムの Cisco Validated Design で、第 5 世代 UCS をベースにした HyperFlex システムに搭載可能なインテル Xeon スケーラブル ファミリー プロセッサーをベースとした仮想デスクトップ インフラストラクチャの検証結果をご案内するのは、今回が初めてとなります。次の機能が導入されています。
· Cisco HyperFlex を使用する場合の Cisco Nexus 93000 YC シリーズ サポートの検証
· Cisco UCS 4.0(1b) リリースおよび Cisco HyperFlex v 3.5(1a) のサポート
· VMware vSphere 6.5 U2 Hypervisor
· VMware Horizon 7.6 Remote Desktop Sever Hosted Sessions
· VMware Horizon 7.6 Horizon インスタント クローン、リンク クローン、および永続的デスクトップ
バージョン 3.5 の新機能の一部を以下にご紹介します。
· ネイティブ ディザスタ リカバリの機能拡張: シンプルな「移行計画ワークフロー」を使用して、ディザスタ リカバリ、VM の移行、レプリケーションの再開を簡単に実行できます。また、Stretched Cluster の導入でレプリケーション、計画的移行、ディザスタ リカバリがネイティブでサポートされます。詳細については、下記を参照してください。
Cisco HyperFlex Systems リリース 3.5 アドミニストレーション ガイド
· HX データ プラットフォーム インストーラの機能拡張:新しい拡張機能として、HX データ プラットフォーム インストーラの強化と信頼性向上が図られています。
· Hyper-V コンバージド ノードのクラスタ拡張。
· Stretched Cluster コンピューティング専用ノードおよびコンバージド ノードのクラスタ拡張。
· クラスタ作成ワークフローの一部として Hyper-V および Windows Server OS のベア メタル インストールが追加されています。
· ネットワーキングの機能拡張:HX コンバージドおよびコンピューティング専用ノードでマルチ VIC ネットワーク設計とサードパーティ製 NIC がサポートされます。詳細については、Cisco HyperFlex システム:ネットワーク トポロジを参照してください。
· アップグレードの機能拡張:ESXi ハイパーバイザの協調アップグレードのサポート。HXDP とサーバ ファームウェアについての既存のアップグレードに加えて、今回のリリースでは、HX Connect を介してすべてが協調して動作するシームレスなフル スタック アップグレードの機能が提供されています。
· リリース 3.5(1a) 以降では、今後のすべてのアップグレードを HX Connect の UI で完了できます。今後のすべてのアップグレードについて、この機能はリリース 3.5 のすべてのクラスタで有効になります。古いバージョンからリリース 3.5 にアップグレードする場合は、引き続きドキュメントに記載されているブートストラップ スクリプトを実行してください。今回の新しいエンドツーエンドの UI ベースアップグレード機能は、今後のすべてのアップグレードで利用します。詳細については、『Cisco HyperFlex システム リリース 3.5 アップグレード ガイド』を参照してください。
· ESXi ロックダウン モード:ホストに許可するアクセスを制限することにより、VMware ESXi のロックダウン モードをサポートし、ESXi ホストのセキュリティを強化します。このモードを有効にすると、ESXi ホストには vCenter Server またはダイレクト コンソール ユーザ インターフェイス(DCUI)からのみアクセスできます。詳細については、『Cisco HyperFlex システム リリース 3.5 インストール ガイド』を参照してください。
· HX Edge 10GbE エッジ ネットワーク オプション:新しい 10GbE エッジのサポートにより、HyperFlex Edge クラスタ向けに完全に冗長な高速接続オプションが追加提供されます。詳細については、『Cisco HyperFlex システム リリース 3.5 エッジ導入ガイド』を参照してください。
· Cisco Container Platform(CCP)と Open Shift Platform(OpenShift)の統合:Kubernetes とのストレージ統合により、HyperFlex の動的な(オンデマンドの)永続的ボリュームが使用できます。この機能は OpenShift(バージョン 3.10)と Cisco Container Platform(CCP)でサポートされます。詳細については、『Cisco HyperFlex Systems Kubernetes リリース 3.5 アドミニストレーション ガイド』を参照してください。
· NVIDIA V100 GPU での人工知能および機械学習(AI/ML)ワークロード:HyperFlex ノード内で NVIDIA Tesla V100 GPU の統合を使用して AI/ML のアプリケーションを作成できます。詳細については、Cisco HyperFlex HX シリーズ スペック シートを参照してください。
· Permanent License Reservation(PLR):この機能は、高度なセキュリティで保護されたインテリジェンス、エアギャップ環境、軍用環境など、外部との通信が制限される状況を対象としています。詳細については、『Cisco HyperFlex システム注文およびライセンス ガイド』を参照してください。
· DISA STIG の自動化:VMware vSphere に関連して、米国国防情報システム局(DISA)が推奨する SecurityTechnical Implementation Guides(STIG)の実装を自動化することで、HyperFlex コンバージドおよびコンピューティング専用ノードのセキュリティ ポスチャを強化します。
· テクニカル サポート モード:テクニカル サポート モードを無効にして HyperFlex コンバージド ノードのセキュリティ ポスチャを強化します。これにより、SSH 経由でのコントローラ VM へのリモート アクセスが無効になります。
· マルチハイパーバイザ サポートにより、VMware ESXi ハイパーバイザ、または Microsoft Hyper-V のどちらかによる HyperFlex のインストールが可能になります。このドキュメントでは、VMware ESXi ハイパーバイザによる HyperFlex のインストールとサポートを中心に説明します。
· Cisco HyperFlex クラスタのインストールは 2 つの物理的な場所にまたがって実行でき、ストレッチ クラスタを作成できます。「スプリット ブレイン」の状況を防ぐため、監視用の仮想マシンを実行するための 3 つ目の場所が必要になります。
· ノード障害の許容度を高めるため、HyperFlex クラスタは論理可用性ゾーンを使用して設定できます。論理可用性ゾーンにより、ノードがグループに分割され、データがすべてのゾーンにわたって均等に分散されます。
· 64 ノード クラスタのサポート:クラスタあたり最大 32 のコンバージド ノードと 32 のコンピューティング専用ノードを使用できます。
· Cisco HyperFlex オールフラッシュ ノードで、Intel Optane ベースの NVMe ベース SSD をキャッシュ ドライブとして使用できます。
· HyperFlex HX240-M5SL モデル サーバで、ストレージ容量を高めるためにラージ フォーム ファクタのハード ドライブを使用できます。
· HyperFlex Connect のネイティブの HTML5 管理 GUI で、拡張とカスタマイズが可能です。
· 新しい FlexVolume ドライバを介したストレージとネットワーキングの自動導入で、Kubernetes がサポートされ、完全に統合されたコンテナ プラットフォームを作成できます。
包括的なドキュメント スイートについては、Cisco HyperFlex システム ドキュメンテーション ロードマップを参照してください。
ドキュメンテーション ロードマップではログインが必要です。
Cisco HX Data Platform を正常にインストールするには、特定のソフトウェアおよびハードウェアのバージョン、ネットワーク設定が必要です。すべての要件については、Cisco HyperFlex Systems Getting Started Guide を参照してください。
ハードウェアとソフトウェアの相互依存関係の一覧については、Cisco UCS Manager リリース バージョンの Cisco HyperFlex HX シリーズにおけるハードウェアおよびソフトウェアの相互運用性 [英語] を参照してください。
データセンターの市場分野は、業界標準のシステム上で動作する仮想化の進んだプライベート、パブリック、ハイブリッド クラウド コンピューティング モデルに移行しつつあります。こうした環境では、管理が容易で拡張性に優れ、繰り返し使用可能な統一的な設計ポイントが必要になります。
このような要因から、事前設計されたコンピューティング、ネットワーキング、ストレージの構成要素に対するニーズが生じ、初期設計のコスト削減、管理のシンプル化、水平スケーラビリティ、高い使用率の実現への最適化が求められています。使用例として以下が挙げられます。
· 大企業のデータセンター(障害発生時の対象範囲は小さい)
· サービス プロバイダーのデータセンター(障害発生時の対象範囲は小さい)
· 一般企業・期間の汎用的データセンター
· リモート オフィス/ブランチ オフィス
· 小中規模における独立、個別展開
· ソリューションの概要
この Cisco Validated Design では、Microsoft Server 2016 をベースとした Horizon Microsoft Windows 10 仮想デスクトップと Horizon RDSH サーバ デスクトップ セッションの両方の統合基盤として機能するハードウェアとソフトウェアの定義・設定情報を含んでいます。単一システムとして、Cisco HyperFlex ハードウェアおよび Data Platform ソフトウェア、Cisco Nexus® スイッチ、Cisco Unified Computing System(Cisco UCS®)、VMware Horizon、VMware vSphere ソフトウェアを対象とした複合ワークロード ソリューションが含まれます。設置面積は、業界で標準的な 42U ラックシステムの 18 ラック ユニット分に相当し、ネットワーキング コンポーネント、コンピューティング コンポーネント、ストレージ コンポーネントなどに適した設計となっています。Cisco Nexus スイッチおよび Cisco UCS ファブリック インターコネクトには充分なポート密度があり、ネットワーク コンポーネントに複数の HyperFlex クラスタを搭載し、単一の Cisco UCS ドメインとすることが可能です。
Cisco Validated Design アーキテクチャの主な利点は、お客様の要件に合わせて環境をカスタマイズできることです。要件や要求の変化に合わせて簡単に拡張でき、スケール アップ(Cisco Validated Design ユニットにリソースを追加)とスケール アウト(Cisco Validated Design ユニット自体を追加)の両方が可能です。
このドキュメントで詳しく説明するリファレンス アーキテクチャでは、ハイパーコンバージド デスクトップ仮想化ソリューションの特長として復元力、費用面でのメリット、導入の容易さが強調されています。単一のインターフェイスで複数のプロトコルを利用することができ、まさに一度接続すれば事足りるアーキテクチャであることから、顧客の選択と投資保護が実現します。
シスコと VMware 社のテクノロジーを結集することにより、効率性と堅牢性が高く、手頃なデスクトップ仮想化ソリューションが生まれました。このソリューションは、仮想デスクトップとホステッド共有デスクトップが混在する導入をサポートし、さまざまな使用例に対応できます。ソリューションの主要コンポーネントには、次のようなものがあります。
· 同じサイズで、より強力に。Cisco HX シリーズ ノードは、768 GB の 2666 Mhz メモリを備えたデュアル 18 コア 2.3 GHz Intel Xeon(Gold 6140)スケーラブル ファミリー プロセッサーと VMware Horizon を搭載しており、同一ハードウェアの過去にリリースされた世代の製品に比べ、より多くの仮想デスクトップをサポートします。さらに、このスタディで使用された Intel Xeon Gold 6140 18 コア スケーラブル ファミリー プロセッサーを利用したケースでは、サーバごとの容量の増加とコストのバランスが実現されました。
· デザインに組み込まれたハイ アベイラビリティによる耐障害性。仮想デスクトップおよびインフラストラクチャ ワークロード用に、複数の Cisco HX シリーズ ノード、Cisco UCS ラック サーバ、Cisco UCS ブレード サーバをベースとして、さまざまな設計が行われており、テストされたあらゆるペイロードに対して、N+1 のサーバ耐障害性が考慮されています。
· 厳しいブート シナリオで限界に対するストレス テストを実施。4400 ユーザのホステッド仮想デスクトップとホステッド共有デスクトップが混在する環境をブートし、15 分以内に Horizon 7 への登録が完了しました。コールド スタートが非常に高速で安定したデスクトップ仮想化システムをお客様に提供できます。
· シミュレーションされたログイン ストームで限界に対するストレス テストを実施。4400 人のユーザ全員がログインして、プロセッサが過負荷になったり、メモリまたはストレージ リソースを使い果たしたりすることなく、ワークロードは 48 分の間、定常状態で実行されました。非常に要求の厳しいログインおよび起動ストームを簡単に処理できるデスクトップ仮想化システムをお客様に提供できます。
· データセンター向けの非常にコンパクトなコンピューティング。Cisco Nexus スイッチと Cisco ファブリック インターコネクトを含んだ初期段階のシステム構成は、26 ラック ユニットで 4400 ユーザをサポートできるようになっています。段階的なシート:Cisco HyperFlex クラスタを一度に 1 つずつ、合計 64 ノードに追加できます。
· 100 % の仮想化:この CVD のデザインでは、VMware ESXi 6.5 での 100 % の仮想化が検証済みです。仮想デスクトップ、ユーザ データ、プロファイル、サポートするすべてのインフラストラクチャ コンポーネント(Active Directory、SQL サーバ、VMware Horizon コンポーネント、Horizon VDI デスクトップ、RDSH サーバを含む)が仮想マシンとしてホストされました。これにより、システム全体が Cisco HyperFlex ハイパーコンバージド インフラストラクチャとステートレスな Cisco UCS HX シリーズ サーバで実行されることになり、お客様にメンテナンス性と容量追加における高い柔軟性を提供します(ソリューションのキャパシティを最大に高め、最適な経済性を追求するため、VM のインフラストラクチャは HX クラスタの外側の Cisco UCS C220 M4 ラック サーバ 2 台でホストされています)。
· シスコのデータセンターの管理:シスコは、シンプルな拡張性、一貫性の保証、容易なメンテナンスを実現する新しい Cisco UCS Manager 4.0(1b) ソフトウェアによって、業界におけるリーダーシップを維持しています。また、Cisco UCS Manager、Cisco UCS Central、Cisco UCS Director の継続的な開発に取り組んでおり、ローカル側、Cisco UCS ドメイン間、全世界における顧客環境の一貫性を確実なものとしています。Cisco UCS ソフトウェア スイートを提供することで、導入/運用管理をさらにシンプルにし、顧客組織におけるコンピューティング、ストレージ、ネットワーキングの各分野の専門家が、制御できる範囲を引き続き広げられるようにします。
· Cisco 40G ファブリック:40G ユニファイド ファブリックには、6300 シリーズ ファブリック インターコネクトに関する追加検証が加えられ、より厳しいワークロード テストを実施しながら、優れたユーザ応答時間が維持されました。
· Cisco HyperFlex Connect(HX Connect):HyperFlex v2.5 以降では、HTML 5 をベースとした新しい Web UI が導入され、Cisco HyperFlex の主要管理ツールとして利用可能となっています。これはクラスタ上で一元化された制御ポイントとして機能します。管理者はボリュームを作成し、データ プラットフォームの状態をモニタリングし、リソースの使用率を管理できます。また管理者はこのデータを使用して、クラスタをいつ拡張する必要があるかを予測することもできます。
· Cisco HyperFlex ストレージのパフォーマンス:Cisco HyperFlex では、業界トップクラスのハイパーコンバージド ストレージ性能が実現されており、相当に負荷の高い I/O バースト(ログイン ストームなど)でも効率的に処理できます。低遅延で書き込みスループットが高く、シンプルで柔軟なビジネス継続性を実現し、デスクトップ単位のストレージ コストの削減を支援します。
· Cisco HyperFlex の俊敏性:Cisco HyperFlex システムにより、ユーザがインフラストラクチャに対してシームレスにストレージを追加、アップグレード、削除でき、仮想デスクトップの要件を満たせるようになります。
· Cisco HyperFlex vCenter の統合:VMware vSphere 用 Cisco HyperFlex プラグインにより、ストレージのプロビジョニング、ストレージのサイズ変更、クラスタの正常性ステータスとパフォーマンスのモニタリングといった主要なストレージ タスクを、vCenter Web クライアントから直接、1 つの画面を通して簡単なボタン操作で自動化できます。vCenter 管理者の経験があれば特に学習を必要とせずに HyperFlex を環境に導入できます。
· VMware Horizon 7 のメリット:VMware Horizon 7 は、ホステッド共有デスクトップおよびアプリケーション(RDS)と完全な仮想デスクトップ(VDI)の両方をサポートする、新しい統一製品アーキテクチャに準拠しています。今回新しくリリースされた Horizon により、大規模な VDI 管理に伴うタスクが簡素化されます。モジュラ型ソリューションにより、ユーザ数の増加に合わせて Windows のアプリやデスクトップをシームレスに配信できます。また、PCoIP と Blast の大幅な強化により、ワークステーションからモバイル デバイス、ラップトップ、タブレット、スマートフォンに至るさまざまなエンドポイント デバイス タイプにわたって、パフォーマンスの最適化とユーザ エクスペリエンスの向上が促進されます。
· パフォーマンスと拡張性の最適化。ホステッド共有デスクトップ セッションの場合、Horizon 7 RDSH 仮想マシンに割り当てられた vCPU の数が、サーバ上で使用可能なハイパースレッド(論理)コアの数を超えない場合に最高のパフォーマンスが得られました。つまり、最高のパフォーマンスは、仮想化 RDS システムを実行している仮想マシンに対して、限度を超えた CPU リソースをコミットしない場合に得られます。
· デスクトップ マシンのプロビジョニングが簡単に。VMware Horizon 7 により、このソリューションではホステッド仮想デスクトップだけでなくホステッド共有デスクトップ仮想マシンもプロビジョニングできます。どちらも「自動浮動割り当てデスクトップ プール」という 1 つの方法でプロビジョニングされます。同じ Horizon 7 管理コンソールで、永続的なデスクトップに対して「専用のユーザ割り当てデスクトップ プール」がプロビジョニングされました。Horizon 7 では、「インスタントクローン」と呼ばれる非永続的な仮想デスクトップの新しいプロビジョニング方法が導入されています。この方法により、ゲスト OS のライフサイクル消費量とメンテナンス時間枠が大幅に減少します。
当初の HyperFlex ハイブリッドシステムでは、一次ストレージ キャッシュ層では SSD を使用し、長期ストレージ データストア層では HDD を使用するハイブリッド コンバージド ノードが特徴でした。ハイブリッド HyperFlex システムは、エントリまたはミッドレンジのストレージソリューションに適しています。ハイブリッド ソリューションは、ディスクの高パフォーマンスがあまり重要視されない多くの仮想環境に導入されています。一方で、高パフォーマンスが要求されるクリティカルなアプリケーション用途での導入も大幅に増えています。高パフォーマンスが要求される用途でハイブリッド HyperFlex システムを使う場合、ストレージ遅延の増大による影響を受けやすいことが主な課題になります。ハード ディスクの物理特性により、遅延の増大がボトルネックになることは避けられません。理想的には、すべてのストレージ運用がキャッシュ SSD 層で行われれば、ハイブリッド システムのパフォーマンスは非常に高くなります。しかしシナリオによっては、読み書きされるデータ量がキャッシュ層の容量を超過し、HDD データストア層の負荷が増加して遅延も増大し、パフォーマンスが低下します。
HyperFlex オールフラッシュシステムは、遅延の影響を受けやすい、高パフォーマンスを必要とする用途に最適です。フラッシュに最適化された専用の高パフォーマンス ログファイル システムを備えた HyperFlex オールフラッシュシステムでは、次のことが実現されます。
· クラスタ内の HyperFlex オールフラッシュ モデルおよびコンピューティング専用ノードの仮想マシンすべてにおいて、安定した高パフォーマンスを実現
· Microsoft SQL や Oracle などのデータ集約型のアプリケーションやデータベースで、高い安定性と低遅延を実現
· NVMe キャッシュ SSD のサポートによりパフォーマンスが向上
· フラッシュ メモリ構成に適した、将来を見越したアーキテクチャ:
- クラスタ全体の SSD をプーリングすることでパフォーマンスを最大化し、SSD 使用率のバランスをとって SSD ライフ負荷を分散
- 分散対応したログファイル システムにより、データ パスが最適化され、書き込み回数の増加を抑制
- 書き込みは、順次書き込み主体の処理によりフラッシュ ドライブの劣化(ライフタイム消費)を軽減し、コンポーネントの寿命を延長
- 重複排除や圧縮などによるインライン スペースでの最適化によりデータ操作を最小化し、劣化を軽減
· 高密度ドライブによってシステム容量が増加し、運用コストを削減
· スケールアウトが容易な分散インフラストラクチャと、個々のリソースを別個にスケールアウトできる柔軟性を備えたクラウド スケール ソリューション
Cisco HyperFlex でハイブリッド モデルとオールフラッシュ モデルがサポートされたことで、容量、アプリケーション、パフォーマンス、予算の要件に基づいて、適切なプラットフォーム構成を選択できるようになりました。オールフラッシュ構成では、反復可能かつ持続可能な高パフォーマンスが得られます。これは、多くのデータ セットを扱うシナリオ、つまり稼働中に多量のデータを扱うシナリオに特に最適です。ハイブリッド構成は、Cisco HyperFlex ソリューションのシンプルさを求めると同時に、容量の影響を受けやすいソリューション、低予算、
パフォーマンスの影響を受けやすいアプリケーション数の抑制を必要とするお客様に適しています。
現行モデルの Cisco UCS M4 および M5 世代サーバ(Cisco UCS C880 M4 と Cisco UCS C880 M5 を除く)と、従来の M3 世代サーバ モデルの一部と合わせて、HyperFlex クラスタに接続するコンピューティング専用ノードとして使用できます。コンピューティング専用ノードでは任意の有効な CPU およびメモリ構成が可能で、サーバを SAN、ローカル ディスク、内蔵 SD カードからブートするように設定できます。コンピューティング専用ノードとして使用できるサーバには、次のものがあります。
· Cisco UCS B200 M3 ブレード サーバ
· Cisco UCS B200 M4 ブレード サーバ
· Cisco UCS B200 M5 ブレード サーバ
· Cisco UCS B260 M4 ブレード サーバ
· Cisco UCS B420 M4 ブレード サーバ
· Cisco UCS B460 M4 ブレード サーバ
· Cisco UCS B480 M5 ブレード サーバ
· Cisco UCS C220 M3 ラックマウント サーバ
· Cisco UCS C220 M4 ラックマウント サーバ
· Cisco UCS C220 M5 ラックマウント サーバ
· Cisco UCS C240 M3 ラックマウント サーバ
· Cisco UCS C240 M4 ラックマウント サーバ
· Cisco UCS C240 M5 ラックマウント サーバ
· Cisco UCS C460 M4 ラックマウント サーバ
· Cisco UCS C480 M5 ラックマウント サーバ
Cisco HyperFlex HX Data Platform は専用の高性能な分散ファイルシステムで、多岐にわたるエンタープライズクラス データ管理サービスを提供します。データ プラットフォームの革新により、分散ストレージ テクノロジーが再定義され、従来のハイパーコンバージド インフラストラクチャをしのぐ性能を提供します。HX データ プラットフォームはエンタープライズ共有ストレージ システムに期待される全機能を備えているため、複雑なファイバ チャネル ストレージ ネットワークと端末の設定管理の必要がなくなります。このプラットフォームは操作を簡素化し、データの可用性を保証します。エンタープライズクラスのストレージ機能には、次のものがあります。
· データ保護:クラスタ全体のデータ コピーを複数作成します。単一または複数のコンポーネントに障害が発生した場合にも、データの可用性は影響を受けません(設定されたレプリケーション ファクタの設定によって異なります)。
· ストレッチ クラスタ:2 つの物理的な場所の間でノードを均等に分割できます。これにより、両方の場所ですべてのデータの重複コピーが維持され、サイト全体の障害に備えた保護機能が提供されます。
· 論理可用性ゾーン:ノードを複数の論理グループに分け、1 つのグループにデータのコピーが複数存在しないような方法で、それらのグループ全体にデータを配布します。これによりノード障害からの保護が強化され、より多くのノードが障害を起こしてもクラスタ全体をオンラインに保てるようになります。
· 重複排除:常にオンになっており、仮想クラスタ内のストレージ要件を削減できます。仮想クラスタ内では、ゲスト仮想マシンの OS インスタンスが複数コピーされるため、大量の複製データにアクセスできます。
· 圧縮によりデータ ストレージ使用量を削減し、コストを削減します。またログ構造のファイル システムは、さまざまなサイズのブロックを保存し、内部のフラグメンテーションを減らすよう設計されています。
· レプリケーション:1 つの HyperFlex クラスタから別の HyperFlex クラスタに仮想マシン レベルのスナップショットを複製します。これにより、すべての VM のセカンダリ サイトに対してフェールオーバーが行われ、クラスタやサイトの障害から復旧できます。
· 暗号化:キャッシュ ドライブと容量ディスク上の全データを暗号化形式で保存します。偶発的なデータ損失やデータの盗難を防止します。キー管理は、ローカルの Cisco UCS Manager が管理するキーによって、または暗号化ドライブのキー管理プロトコル(KMIP)を通じた他社製のキー管理システム(KMS)と連動させることができます。
· シン プロビジョニングは、実際に利用する必要性が生じるまで、サポートするストレージ スペースを必要とせずに大きなボリュームを作成できるため、データ ボリュームの増加を簡素化し、ストレージを「成長に合わせた投資」という課題に対応します。
· 高速でスペース効率の高いクローン機能:仮想ストレージ ボリュームを迅速に複製できます。仮想マシンをメタデータの操作だけで複製でき、実際のデータ コピーは書き込み操作に対してのみ実行されます。
· スナップショット:バックアップとリモートレプリケーション操作を促進し、常時「オン」状態となっているため、データ可用性のニーズに対応します。
今日の IT 部門は、急速に進化する職場環境に直面しています。海外の請負業者、分散したコールセンターの運営、ナレッジワーカーとタスク ワーカー、パートナー、コンサルタント、世界各地から時間を問わず接続してくるパートナー、コンサルタント、幹部など、ユーザの多様化と地理的分散はますます進んでいます。
こうしたユーザのモバイル化も進み、従来のようにオフィスだけでなく、社内の会議室やホーム オフィス、移動中やホテル、さらにはコーヒー ショップなどで仕事する従業員が増えています。また、従業員は、増え続ける多様なクライアント コンピューティング デバイスやモバイル デバイスから、自分の好みのデバイスを選べることも望んでいます。こうした傾向から IT 部門にますます求められるのは、企業データの保護と、ユーザ、エンドポイント デバイス、デスクトップ アクセスの複合的なシナリオによるデータの漏洩や損失の防止です(図 1)。
これらの課題は、古くなった PC や制限のあるローカル ストレージに対応するためのデスクトップ更新サイクルや、新しいオペレーティング システム(特に Microsoft Windows 10 や生産性ツール、Microsoft Office 2016)への移行によって複雑化しています。
図 1 シスコ データセンター パートナー コラボレーション
デスクトップ仮想化を推進する主な要素として、制御の向上と管理コストの削減によるデータ セキュリティの向上、キャパシティの拡大・縮小、TCO の削減が挙げられます。
シスコは、優れたデスクトップ仮想化データセンター インフラストラクチャを提供するため、シンプル化、セキュリティ、拡張性という 3 つの主要要素を重視しています。プラットフォームのモジュール化され、連係するソフトウェアが、シンプルで、セキュアで、スケーラブルなデスクトップ仮想化プラットフォームを実現します。
Cisco UCS と Cisco HyperFlex により、業界標準のコンピューティングに対して、先進的な新しいアプローチを提供し、デスクトップ仮想化におけるデータセンター インフラストラクチャの中核を担います。Cisco UCS の数多くの機能および利点の代表的な例として、必要なサーバ数やサーバあたりで使用されるケーブル数が大幅に削減されること、および Cisco UCS サービス プロファイルを通してサーバを迅速に導入または再プロビジョニングできることが挙げられます。管理が必要なサーバやケーブル数が削減され、サーバおよび仮想デスクトップ プロビジョニングが合理化されることによって、操作が大幅にシンプル化されます。Cisco UCS Manager サービス プロファイルとシスコ エコパートナー ソリューションのクローニングを利用すると、数千ものデスクトップを数分でプロビジョニングできます。このアプローチにより、エンド ユーザの生産性が高まり、ビジネスの俊敏性が向上するため、IT リソースを他のタスクに割り当てることができます。
Cisco UCS Manager は、データセンターで日常的に生じるサーバ、ネットワーク、ストレージ アクセス インフラストラクチャの構成やプロビジョニングなどのエラーが発生しやすい操作を自動化します。さらに、1 RU あたりのメモリ・CPU 密度の高い Cisco UCS B シリーズ ブレード サーバ、C シリーズ、HX シリーズ ラック サーバにより、高いデスクトップ密度が実現し、サーバ インフラストラクチャに求められる要件を軽減することができます。
シンプル化は、デスクトップ仮想化を実装する際の問題を減らす上でも役立ちます。シスコと VMware 社などをはじめとするテクノロジー パートナーが、HyperFlex などの事前定義済みハイパーコンバージド アーキテクチャ インフラストラクチャ パッケージを含む検証済み統合アーキテクチャを開発しました。シスコ デスクトップ仮想化ソリューションは、VMware vSphere を使用してテストされています。
仮想デスクトップは本質的に従来の物理的なものよりもセキュアですが、セキュリティに関する新たな課題も伴います。ミッションクリティカルな Web サーバやアプリケーション サーバと、仮想デスクトップなどが共通インフラストラクチャを使用している場合、セキュリティの脅威の上で高いリスクを負うようになりました。仮想マシン間でのトラフィックが、セキュリティ面での重要な検討課題となっています。特に、VMware vMotion のようにサーバ インフラストラクチャ内を仮想マシンが移動する場合など、動的な環境において、IT マネージャがリスクに対処する必要が生じています。
つまり、拡大されたコンピューティング インフラストラクチャにおける仮想マシンのモビリティの動的かつ流動的な性質を考慮すると、デスクトップ仮想化により、ポリシーやセキュリティを仮想マシン レベルで認識する必要性が大きく高まります。新しい仮想デスクトップを容易に増加させることが可能になったことが、仮想化対応のネットワークおよびセキュリティ インフラストラクチャの重要性を高めています。デスクトップ仮想化のためのシスコのデータセンター インフラストラクチャ(Cisco UCS および Cisco Nexus ファミリ ソリューション)では、デスクトップからハイパーバイザまで包括的に対応したセキュリティを通して、データセンター、ネットワーク、およびデスクトップのセキュリティを強化します。セキュリティは、仮想デスクトップのセグメンテーション、仮想マシン対応のポリシーや管理、および LAN や WAN のインフラ全体のネットワーク セキュリティによって強化されます。
デスクトップ仮想化ソリューションは拡大を続けています。したがって、そのような拡大に応じて、ソリューションの規模の拡張や推定が可能でなければなりません。シスコ デスクトップ仮想化ソリューションは、デスクトップ密度(サーバごとのデスクトップ数)が高く、サーバを追加することでほぼリニアに性能が増加します。シスコのデータセンター インフラストラクチャが提供する柔軟なプラットフォームを利用すると、このような拡大にも対応でき、ビジネスの俊敏性が向上します。Cisco UCS Manager のサービス プロファイルにより、オンデマンドでのデスクトップのプロビジョニングが可能となり、数千単位のデスクトップの展開が、数十単位での展開と同じように容易になります。
Cisco HyperFlex サーバは、ほぼリニアに性能を向上させ、規模を拡大することができます。Cisco UCS には、特許取得済みの Cisco 拡張メモリ テクノロジーが実装されており、より少ないソケットで大きなメモリ面積を実現しています(2 および 4 ソケットのサーバで最大 3.0 テラバイト(TB)の拡張性を実現)。構成要素としてユニファイド ファブリック テクノロジーを使用しており、Cisco UCS サーバでの集約帯域幅は、サーバごとに最大 80 Gbps にまで拡張できます。また、ノースバウンド Cisco UCS ファブリック インターコネクトでは、ラインレートでの 2 テラビット/秒(Tbps)での送信が可能です。これにより、デスクトップ仮想化の I/O とメモリにおけるボトルネックの発生を防ぎます。Cisco UCS は高性能と低遅延を実現したユニファイド ファブリックベース ネットワーキング アーキテクチャであり、高精細ビデオやコミュニケーション トラフィックなどの非常に通信量の多い仮想デスクトップ トラフィックをサポートします。さらに、Cisco HyperFlex は、シスコ デスクトップ仮想化ソリューションの一部として、起動時やログイン ストーム時のデータの可用性と最適なパフォーマンスを維持します。VMware Horizon や Cisco HyperFlex ソリューションをベースとした最近の Cisco Validated Design では、拡張性とパフォーマンスが重視されており、4400 以上のホステッド仮想デスクトップとホステッド共有デスクトップが 10 分以内に起動されます。
Cisco UCS および Cisco Nexus データセンター インフラストラクチャでは、デスクトップ仮想化、データセンター アプリケーション、クラウド コンピューティングをサポートする、サーバ、ネットワーク、およびストレージ リソースの透過的拡張機能を備えた、成長のための理想的なプラットフォームが提供されます。
簡素化された、安全性と拡張性の高いデスクトップ仮想化向けシスコ データセンター インフラストラクチャでは、他のアプローチと比べて時間とコストを節約できます。Cisco UCS により、サーバあたり仮想デスクトップ密度が業界トップレベルの水準で提供されます。そして、導入コスト(CapEx)と運用コスト(OpEx)の両方が削減され、早期の投資回収および継続的なコスト削減(投資効果(ROI)の向上と総所有コストの削減)が実現します。また、Cisco UCS アーキテクチャとシスコ ユニファイド ファブリックにより、サーバごとの必要なケーブル数やポート数が減ることで、より低コストのネットワーク インフラストラクチャを構築できます。また、ストレージの階層化と重複排除テクノロジーによって、ストレージ コストを下げ、デスクトップ ストレージのニーズを最大 50 % にまで削減します。
デスクトップ仮想化対応の Cisco HyperFlex を利用することで、導入が簡素化され、生産性発揮までの時間が短縮され、ビジネスの俊敏性が向上します。IT スタッフおよびエンド ユーザは迅速に生産性を向上させることができ、企業が、仮想デスクトップを必要に応じて時間や場所を問わず導入できるため、新規のビジネス チャンスに迅速に対応できます。シスコの高性能なシステムとネットワークは物理 PC デスクトップ環境に近いユーザ エクスペリエンスを実現し、ユーザは時と場所を問わず生産性を発揮できます。
組織のデスクトップ仮想化の効果を測定するには、通常、直近および長期での効率性や有効性を確認します。シスコ デスクトップ仮想化ソリューションは非常に効率性が高く、迅速な導入が可能な上、必要なデバイスやケーブルの数が少ないため、コストを削減できます。また、エンド ユーザの選択したデバイスに必要なサービスが提供され、同時に IT の運用、管理、データ セキュリティも向上するため、大変高い効果が見込めます。このような効果は、仮想化分野を主導するパートナーとシスコとの業界内でも最高のパートナーシップと設計のテストや検証を元に実現されており、ソリューション ライフサイクルを通じて顧客を支援します。また、デスクトップ仮想化向けプラットフォームとして、安全かつ柔軟で拡張可能なシスコのプラットフォームを使用することで、長期的な効果を担保します。
最終的には、デスクトップ仮想化製品のそれぞれのエンド ユーザが、優れたエクスペリエンスを享受できるかが評価の基準になります。Cisco HyperFlex ではクラス最高の性能が提供されており、1 秒を切るベースライン応答時間とフル ロード時の 1 秒足らずの平均指数応答時間が実現されています。
· 医療:デスクトップと端末間のモビリティ、コンプライアンス、コスト
· 官公庁:テレワーキング導入、ビジネス継続性、業務の連続性(COOP)トレーニング センター
· 金融:リテール バンクの IT コスト削減、保険代理店、コンプライアンス、プライバシー
· 教育:幼稚園から高校までの生徒のアクセス、高等教育、リモート学習
· 地方自治体:機関間の IT およびサービスの統合、セキュリティ
· 小売:ブランチオフィス IT コストの削減およびリモート ベンダー
· 製造:タスク ワーカーおよびナレッジ ワーカーと海外請負業者
· Microsoft Windows 10 への移行
· グラフィック要件の厳しいアプリケーション
· セキュリティおよびコンプライアンスの取り組み
· リモート オフィスおよびブランチ オフィス、またはオフショア施設の開設
· 合併と買収などによるクライアント基盤の統合
図 2 では、Cisco UCS コンポーネント上に構築された VMware Horizon 7 とネットワーク接続について示しています。この参照アーキテクチャは、ワイヤワンス(wire-once)戦略を強化するものです。新たなストレージがアーキテクチャに追加され、ホストから Cisco UCS ファブリック インターコネクトまでの配線をやり直す必要がありません。
図 2 Cisco Unified Computing System 上に構築された vSphere 6.5 の VMware Horizon 7
Cisco HyperFlex System は、1 組の Cisco UCS 6200/6300 シリーズ ファブリック インターコネクトから構成されており、クラスタあたり最大 32 の HXAF シリーズ ラック マウント サーバを備えています。さらに、クラスタごとに最大 32 のコンピューティング専用サーバを追加できます。Cisco UCS 5108 ブレード シャーシを追加することで、ハイブリッド クラスタ設計において追加のコンピューティング リソースに Cisco UCS B200 M5 ブレード サーバを使用できます。また、Cisco UCS C240 と C220 ラックサーバを、追加のコンピューティング リソースに使用することもできます。両方のファブリック インターコネクトが、すべての HX シリーズ ラックマウント サーバに接続され、すべての Cisco UCS 5108 ブレード シャーシに接続されます。インストール時に、「ノースバウンド」ネットワーク接続と呼ばれるアップストリーム ネットワーク接続がファブリック インターコネクトとお客様のデータセンター ネットワーク間で構築されます。
このスタディでは、Cisco 6332 UP ファブリック インターコネクトを Cisco Nexus 93180YC-FX スイッチにアップリンクしました。
図 3 および図 4 では、ハイパーコンバージド トポロジ、ハイブリッド ハイパーコンバージド トポロジ、
コンピューティング専用トポロジについて示しています。
図 3 Cisco HyperFlex の標準トポロジ
図 4 Cisco HyperFlex ハイパーコンバージドおよびコンピューティング専用ノード トポロジ
ファブリック インターコネクト(FI)はペアで導入されます。そこでは、2 つのユニットが管理クラスタとして動作しながら、A サイド ファブリックと B サイド ファブリックと呼ばれる 2 つの別個のネットワーク ファブリックを形成します。そのため、多くの設計要素が FI A または FI B あるいはファブリック A またはファブリック B を参照します。両方のファブリック インターコネクトが常にアクティブで、両方のネットワーク ファブリック上にデータを転送することによって、冗長で可用性の高い構成を実現します。Cisco UCS Manager などの管理サービスにおいても、2 つの FI がクラスタ形式で提供されます。つまり、一方の FI がプライマリでもう一方の FI がセカンダリとなり、クラスタ化されたローミング IP アドレスが付与されます。このプライマリ/セカンダリの関係は管理クラスタに関してのみであり、データ伝送には影響を与えません。
ファブリック インターコネクトは、Cisco UCS ドメインを適切に管理するために接続する必要がある次のポートを備えています。
· Mgmt:GUI ツールと CLI ツールを介してファブリック インターコネクトと Cisco UCS ドメインを管理するための 10/100/1000 Mbps ポート。ドメイン内の管理対象サーバへのリモート KVM、IPMI、および SOL セッションでも使用されます。通常は、お客様の管理ネットワークに接続されます。
· L1:Cisco UCS 管理クラスタを形成するためのクロス コネクト ポート。これは、標準の RJ45 プラグ付き CAT5 または CAT6 イーサネット ケーブルを使用して、ペア化されたファブリック インターコネクトの L1 ポートに直接接続されます。スイッチまたはハブに接続する必要はありません。
· L2:Cisco UCS 管理クラスタを形成するためのクロス コネクト ポート。これは、標準の RJ45 プラグ付き CAT5 または CAT6 イーサネット ケーブルを使用して、ペア化されたファブリック インターコネクトの L2 ポートに直接接続されます。スイッチまたはハブに接続する必要はありません。
· コンソール:ファブリック インターコネクトへの直接コンソール アクセス用の RJ45 シリアル ポート。通常は、同梱のシリアル/RJ45 アダプタ ケーブルを使用した初期 FI セットアップ プロセスで使用されます。端末アグリゲータまたはリモート コンソール サーバ デバイスにプラグインすることもできます。
HX シリーズ コンバージド サーバ、およびオプションの UCS C シリーズ コンピューティング専用サーバは、直接接続モードで Cisco UCS ファブリック インターコネクトに直接接続されます。このオプションを使用すると、Cisco UCS Manager は、管理通信とデータ通信の両方にシングル ケーブルを使用して HX シリーズ ラックマウント サーバと UCS C シリーズ サーバを管理できます。HXAF220C-M5SX、HXAF240C-M5SX、C240-M5 および C220 M5 の各サーバで、Cisco VIC 1387 ネットワーク インターフェイス カード(NIC)を、デュアル 40 ギガビット イーサネット(GbE)ポートを備えたモジュール型 LAN on Motherboard(MLOM)スロットに取り付けて構成することができます。標準接続、および冗長接続を行うには、VIC 1387 のポート 1 を FI A のポートにつなぎ、VIC 1387 のポート 2 を FI B のポートにつなぎます(図 5)。
このケーブル配線プラクティスに従わなかった場合は、エラー、検出失敗、および冗長接続の消失につながる可能性があります。
図 5 HX シリーズおよび C シリーズ サーバの接続
ハイブリッド HyperFlex クラスタには、コンピューティング容量の強化策として、Cisco UCS B200 M5 ブレード サーバも 1 ~ 16 台組み合わせることができます。他の Cisco UCS B シリーズ ブレード サーバと同様に、Cisco UCS B200 M5 は、Cisco UCS 5108 ブレード シャーシ内に取り付ける必要があります。ブレード シャーシには 1 ~ 4 台の電源と 8 台のモジュール式冷却ファンが付属しています。シャーシの背面には、シスコ ファブリック エクステンダを取り付けるための 2 つのベイがあります。ファブリック エクステンダ(一般的には IO モジュール(IOM)とも呼ばれる)は、シャーシをファブリック インターコネクトに接続します。内部的に、ファブリック エクステンダは、シャーシのバックプレーンを介して各ブレード サーバに実装された Cisco VIC 1340 カードに接続されます。標準的な方法で接続するには、左側の IOM または IOM 1 から 40 GbE リンク(1 ~ 4)か 40 GbE リンク(ネイティブ X 2)を FI A に接続し、右側の IOM または IOM 2 から同じ数の 40 GbE リンクを FI B に接続します(図 6)。これ以外のケーブル配線設定はすべて無効であり、エラー、検出の失敗、および冗長接続の消失につながる可能性があります。
図 6 Cisco UCS 5108 シャーシの接続
Cisco HyperFlex システムは、4 つの定義済みゾーンに分類される通信パスを備えています(図 6)。
· 管理ゾーン:このゾーンは、物理ハードウェア、ハイパーバイザ ホスト、およびストレージ プラットフォーム コントローラ仮想マシン(SCVM)を制御するために必要な接続で構成されます。これらのインターフェイスと IP アドレスは、LAN/WAN 全体で HX システムを管理するすべてのスタッフが利用できる必要があります。このゾーンでは、ドメイン ネーム システム(DNS)、Network Time Protocol(NTP)サービスへのアクセス権限があり、セキュア シェル(SSH)通信が許可されている必要があります。このゾーンは、複数の物理コンポーネントと仮想コンポーネントからできています。
- ファブリック インターコネクト管理ポート。
- Cisco UCS 外部管理インターフェイス。サーバやブレードによって使用され、FI 管理ポートを通じて応答します。
- ESXi ホスト管理インターフェイス。
- ストレージ コントローラ VM 管理インターフェイス。
- ローミング HX クラスタ管理インターフェイス。
· VM ゾーン:このゾーンは、HyperFlex ハイパーコンバージド システム内で動作するゲスト VM にネットワーク IO を提供するために必要な接続で構成されます。通常、このゾーンには、ネットワークのアップリンクを介して Cisco UCS ファブリック インターコネクトにトランクされる複数の VLAN が含まれており、802.1Q VLAN ID のタグが付けられます。これらのインターフェイスと IP アドレスは、LAN/WAN 全体で HX システム内のゲスト VM と通信する必要があるすべてのスタッフおよびその他のコンピュータ エンドポイントが利用できる必要があります。
· ストレージ ゾーン:このゾーンは、Cisco HX データ プラットフォーム ソフトウェア、ESXi ホスト、およびストレージ コントローラ VM が HX 分散データ ファイルシステムにサービス提供するために使用する接続で構成されます。適切に運用するためには、これらのインターフェイスと IP アドレスが相互に通信できる必要があります。通常の運用では、このトラフィックのすべてが Cisco UCS ドメイン内で発生しますが、このトラフィックが Cisco UCS ドメインのネットワーク ノースバウンドを通過する必要があるハードウェア障害シナリオがあります。そのため、HX ストレージ トラフィックに使用される VLAN は、FI B から FI A に、または、その逆方向に到達する Cisco UCS ドメインからのネットワーク アップリンクを通過できる必要があります。このゾーンは、基本的にはジャンボ フレームでのトラフィックになるため、Cisco UCS のアップリンクでジャンボ フレームを有効にする必要があります。このゾーンは複数のコンポーネントで構成されます。
- HX クラスタ内の各 ESXi ホストのストレージ トラフィックに使用する vmkernel インターフェイス。
- ストレージ コントローラ VM ストレージ インターフェイス。
- ローミング HX クラスタ ストレージ インターフェイス。
· VMotion ゾーン:このゾーンは、ESXi ホストがゲスト VM の vMotion をホスト間で有効にするために使用する接続で構成されます。通常の運用では、このトラフィックのすべてが Cisco UCS ドメイン内で発生しますが、このトラフィックが Cisco UCS ドメインのネットワーク ノースバウンドを通過する必要があるハードウェア障害シナリオがあります。そのため、HX ストレージ トラフィックに使用される VLAN は、FI B から FI A に、または、その逆方向に到達する Cisco UCS ドメインからのネットワーク アップリンクを通過できる必要があります。
HyperFlex クラスタは、大規模になるほど単純にクラスタ内のノード数が原因となって、障害のリスクが高くなります。個々のノードの障害リスクはノード数に関係なく同じですが、クラスタのサイズが 64 ノードにまでなると、ノード数が少ないクラスタと比べて、1 つのノードで障害が起きる確率が論理的に高くなります。比較的規模の大きいクラスタでこうしたリスクを軽減するため、8 ノード以上の HyperFlex クラスタでは論理可用性ゾーン(LAZ)と呼ばれる機能を使用して設定を行うことができます。論理可用性ゾーンの機能では、2 つ以上の HyperFlex ノードが、論理的に定義されたゾーンにグループ分けされます。最低 3 つのゾーンが作成され、1 つのゾーン内のノードにブロックが複数回書き込まれることがないような方法で、クラスタ内のデータが分散されます。このようにデータの分散パターンがゾーン間に広がり、各ゾーンに複数のサーバが存在するため、LAZ を使用したクラスタでは、この機能を有効にせずに稼働するクラスタと比べて、通常は障害への耐久度を高めることができます。許容される障害の数は、クラスタ内のゾーンの数と、各ゾーン内のサーバの数によって異なります。一般に、1 つか 2 つのゾーン間で複数のノード障害が発生する場合の許容度は向上し、3 つ以上のゾーン間で複数のノード障害が発生する場合よりもリスクが減少します。HyperFlex Connect ダッシュボードに表示される障害許容度は常に「最悪の状況におけるシナリオ」ビューを表すことに注意してください。たとえば、ダッシュボードで 2 つの障害を許容できることが示された場合でも、実際には 2 台のサーバが障害を起こして、クラスタがオンラインのままになり、障害許容度がまだ 2 にとどまっている可能性があります。
論理可用性ゾーンを障害ドメインの概念と混同しないように注意してください。障害ドメインの例として考えられるのは、単一の HyperFlex クラスタにおいて、一部のノードが 1 台の無停電電源(UPS)によって給電されているか 1 台の配電ユニット(PDU)に接続していて、他のノードが別の UPS または PDU に接続している場合などです。仮に UPS または PDU のいずれか 1 台が障害を起こした場合、複数のノードで同時に障害が発生することになります。LAZ によって実際にこうしたシナリオでクラスタの障害を防止できる可能性がありますが、それを保証するためにはゾーンのメンバーシップを手動で制御する必要があります。そうすることで、1 台の UPS または PDU によって保護されているすべてのサーバの障害が、機能停止を引き起こさないような方法で分散されます。LAZ 機能はこうした方法での手動設定には対応していませんが、代わりに、ゾーンのメンバーシップがシステムによって自動的に決定されます。前述した UPS の例のように物理的な制限があるために、または耐障害性の距離要件のために、HyperFlex クラスタを物理的に半分に分割する必要がある場合は、LAZ を使用する代わりにクラスタをストレッチ クラスタとして構築する必要があります。
図 8 は、論理可用性ゾーンを有効にしてレプリケーション係数を 3 に設定したクラスタにおけるデータの分配方法の例を示しています。ここでは、各ゾーンにはクラスタにあるデータの 3 つのコピーのうちいずれか 1 つの
みが含まれています。このクラスタは 8 つのノードで構成され、システムによって 4 つのゾーンに設定されています。
図 8 論理可用性ゾーンが有効になっているクラスタのデータの分散方法
論理可用性ゾーンには次の要件や制限事項が適用されます。
· インストール処理中に論理可用性ゾーンを設定できるのは、8 ノード以上の HyperFlex クラスタのみです。
· 論理可用性ゾーンは、HyperFlex クラスタのインストール中に有効にするか、または後でコマンド ラインから有効にすることができます。クラスタ全体のデータの大規模な移行と再編成を避けるため、この機能はインストール中に有効にすることをお勧めします。データの大規模な移行と再編成では、すでにデータが含まれているクラスタで LAZ を有効にしている場合、データ分散規則に従う必要があります。
· ゾーンの数は、手動で 3、4、5 に指定するか、またはインストーラを通じて自動的に選択するようにできます(推奨設定)。
· HyperFlex クラスタによって各ゾーンにどのノードが参加するかが決定されます。この設定は変更できません。
· 容量の利用とデータの分散を最もバランス良く保つため、クラスタ内のノード数を 3、4、5、または 7 の倍数にすることをお勧めします。たとえば、8 ノードは 2 台のサーバによる 4 つのゾーンに均等に分割され、9 ノードは 3 台のサーバによる 3 つのゾーンに均等に分割されます。11 ノードでは、ゾーン間でノード数のバランスが悪くなり、ノードにおける容量の利用のバランスが悪くなります。
· 前述の要件に加えて、LAZ を有効にしてクラスタを動作させている場合は、クラスタの拡張をゾーン数の倍数で行ってください。そのように拡張することで、各ノードでノード数の一致が保たれ、容量の利用のバランスが悪くなるのを防ぎます。たとえば、3 つのゾーンがあるクラスタは、さらに 3 つのノードを追加して拡張します。これは、1 つまたは 2 つのノードしか追加しないとバランスが悪くなるからです。4 つのノードを追加しても同様です。
参照ハードウェア構成は次のとおりです。
· 2 台の Cisco Nexus 93180YC-FX スイッチ
· 2 台の Cisco UCS 6332 ファブリック インターコネクト
· HyperFlex データ プラットフォーム バージョン 3.5.1a を実行している 16 台の Cisco HXAF C220M5 ラック サーバ
· HyperFlex データ プラットフォーム バージョン 3.5.1a をコンピューティング専用ノードとして実行している 8 台の Cisco UCS C220 M5 ラック サーバ
· HyperFlex データ プラットフォーム バージョン 3.5.1a をコンピューティング専用ノードとして実行している 8 台の Cisco UCS B200 M5 ブレード サーバ
デスクトップ仮想化では、VMware vSphere 6.5 上で実行される VMware Horizon 7 が導入に含まれます。これは、RDSH と永続/非永続デスクトップの両方について、30 ノード設定ごとに次の密度で大規模な構成要素を提供することを目的としています。
· 1550 の Horizon 7 RDSH サーバ デスクトップ セッション
· 950 の Horizon 7 Windows 10 非永続インスタント クローン仮想デスクトップ
· 950 の Horizon 7 Windows 10 非永続コンポーザ クローン仮想デスクトップ
· 950 の Horizon 7 Windows 10 永続フル クローン仮想デスクトップ
今回の検証済み設計においては、すべての Windows 10 仮想デスクトップが 4 GB のメモリでプロビジョニングされています。通常、永続デスクトップのユーザは、より多くのメモリを必要とします。4 GB 以上のメモリを必要とする合は、Cisco HXAF220c-M5S HX シリーズ ラック サーバおよび Cisco UCS B200 M5 サーバで、追加のメモリ チャネルを設定する必要があります。
ここで提供されるデータにより、お客様の環境に合わせて RDSH サーバセッションと VDI デスクトップを実行できるようになります。たとえば、追加の Cisco HX サーバをコンピューティング専用の方法で導入してコンピューティング キャパシティを増やすことができます。または、既存のサーバにドライブを追加することで、I/O キャパシティやスループットを改善することができます。もしくは、新しい機能を導入するために、特別なハードウェアやソフトウェア機能を追加することができます。このドキュメントでは、図 2 で示したベース アーキテクチャ導入の詳細な手順について詳しく説明します。これらの手順には、物理的なネットワークのケーブリングやコンピューティング デバイス、ストレージ デバイスの設定などがすべて含まれます。
このドキュメントでは、Cisco HyperFlex の仮想デスクトップにおけるさまざまな種類のワークロードに対して、Cisco Validated Design(CVD)での冗長構成や高可用性設定を行う際の詳細について説明します。どの冗長コンポーネントが各手順で設定されるかを示す設定のガイドラインが提示されます。たとえば、Cisco Nexus A および Cisco Nexus B は、設定される Cisco Nexus スイッチのペア メンバーを識別します。同様に、Cisco UCS 6332 UP ファブリック インターコネクトも識別されます。さらに、このドキュメントでは、複数の Cisco UCS および HyperFlex ホスト(VM-Host-Infra-01、VM-Host-Infra-02、VM-Host-RDSH-01、VM-Host-VDI-01 などのように連番で識別されます)をプロビジョニングするための詳細な手順について説明します。最後に、環境に関連する情報を、所定の手順で指定する必要がある点についてふれます。<text> がコマンド構造の一部として表示されます。
ここでは、このスタディで概要が示されているソリューションで使用されるインフラストラクチャのコンポーネントについて説明します。
Cisco UCS Manager(UCSM)は、Cisco Unified Computing System™(Cisco UCS)と Cisco HyperFlex のすべてのソフトウェアとハードウェアのコンポーネントを、直感的な GUI、コマンドライン インターフェイス(CLI)、XML API によって統合管理できる機能を備えています。一元管理機能を備えた単一の管理ドメインがあり、複数のシャーシや数千台もの仮想マシンを制御できます。
Cisco UCS は、コンピューティング、ネットワーキング、およびストレージ アクセスを統合した次世代のデータセンター プラットフォームです。仮想環境向けに最適化されたこのプラットフォームは、オープンな業界標準テクノロジーを使用して設計されており、総所有コスト(TCO)を削減し、ビジネスの俊敏性を高めます。このシステムは、低遅延のロスレス 40 ギガビット イーサネット ユニファイド ネットワーク ファブリックと、エンタープライズクラスの x86 アーキテクチャ サーバを統合します。これはすべてのリソースが単一の管理ドメインに集約された、統合型の拡張性に優れたマルチシャーシ対応のプラットフォームです。
Cisco UCS の主なコンポーネントは、次のとおりです。
· コンピューティング:インテル® Xeon® スケーラブル ファミリー プロセッサーをベースとしたブレード サーバ、ラック サーバ、ハイパーコンバージド サーバをシステムに組み込んだ、まったく新しいクラスのコンピューティング システムをベースとする設計です。
· ネットワーク:このシステムは低遅延でロスレスの 40 Gbps ユニファイド ネットワーク ファブリック上で統合されています。このネットワーク基盤は、現状では LAN、SAN、高性能コンピューティング(HPC)ネットワークとして扱われている異なるネットワークを統合します。ユニファイド ファブリックにより、ネットワーク アダプタ、スイッチ、およびケーブルの数が減少し、電力と冷却の要件が緩和されるため、コスト削減につながります。
· 仮想化:このシステムは、仮想環境の拡張性、パフォーマンス、および運用管理を強化することで、仮想化の可能性を最大限に引き出します。シスコのセキュリティ、ポリシー適用、および診断機能が仮想化環境にまで拡張され、変化の激しいビジネス要件と IT 要件により良く対応できるようになりました。
· ストレージ:Cisco HyperFlex ラック サーバにより、強力な HX データ プラットフォーム ソフトウェアを使用した高性能で復元力の高いストレージを提供します。顧客は、耐障害性要件に応じて、少なくとも 3 つのノード(レプリケーション ファクタ 2/3)を展開できます。これらのノードは、HyperFlex ストレージとコンピューティング クラスタを構成します。各ノードのオンボード ストレージはクラスタ レベルで集約され、すべてのノードで自動的に共有されます。ストレージ リソースは使い慣れた VMware vCenter Web クライアントから管理され、vCenter 管理者の機能が拡張されます。
· 管理:Cisco UCS の特色は、あらゆるシステム コンポーネントを統合し、ソリューション全体を 1 つのエンティティとして、Cisco UCS Manager ソフトウェアから管理できることです。すべてのシステムの設定プロセスや動作を管理できる直感的な GUI、CLI、堅牢な API を備えています。
図 9 Cisco HyperFlex ファミリの概要
Cisco UCS と Cisco HyperFlex は、次の機能を提供するように設計されています。
· TCO の削減と、ビジネスの俊敏性の向上。
· ジャストインタイム プロビジョニングとモビリティ サポートを通した IT スタッフの生産性の向上。
· 単一の統合されたシステムにより、データセンターのテクノロジーを統合し、全体として管理、サービスを提供。
· 何百台もの孤立サーバと何千台もの仮想マシン用の設計による拡張性と、需要を満たすために I/O 帯域幅をスケーリングできる能力。
· 業界リーダーのパートナー エコシステムによってサポートされる業界標準。
Cisco UCS Manager は、複数のブレード シャーシ、ブレード/ラック サーバ、および数千単位の仮想マシンにわたる Cisco Unified Computing System のすべてのソフトウェア コンポーネントとハードウェア コンポーネントを管理する、統合された組み込みソフトとしての管理機能を提供します。Cisco UCS Manager は直感的な GUI、コマンドライン インターフェイス(CLI)、または XML API を使用してすべての Cisco UCS Manager 機能に包括的にアクセスできるように、Cisco UCS を単一のエンティティとして管理します。
Cisco HyperFlex システムは、サーバおよびメモリ リソース、統合されたネットワーク接続、VM ストレージ用の高性能の分散ログ構造ファイル システム、仮想化サーバ用のハイパーバイザ ソフトウェア、これらが単一の Cisco UCS 管理ドメインに統合された、完結型の仮想サーバ プラットフォームです。
図 10 Cisco HyperFlex システムの概要
Cisco HyperFlex System のバージョン 3.5.1a では、いくつかの新機能と拡張機能が追加されています (図 11 を参照)。
図 11 3.5.1a での HX All-Flash ノードの追加
· 新しい All-Flash HX サーバ モデルは、全永続ストレージ デバイスに SSD を使用し、フラッシュ ストレージを提供する Cisco HyperFlex 製品ファミリに追加されます。
· Cisco HyperFlex は、Cisco UCS Manager 4.0 (1b) 以降の最新の Cisco UCS ソフトウェアをサポートします。新しい All-Flash 展開では、Cisco UCS Manager 4.0 (1b) 以降がインストールされていることを確認してください。
· HX Data Platform ソフトウェアのインストール中の HX ノードへの外部ストレージ (iSCSI またはファイバ チャネル) アダプタの追加をサポート。これにより、外部ストレージ アレイを HX ドメインに接続するプロセスが簡略化されます。
· 既存の Cisco UCS-FI ドメインへの HX ノードの追加をサポート。
· Cisco Hyperflex Sizer をサポート:コンピューティング、キャパシティ、およびパフォーマンスのための新しいエンド ツー エンド サイジング ツール。
· 複数のハイパーバイザ:すでにサポートされている VMware ESXi に加えて Microsoft Hyper-V をサポート。
· 拡大クラスタ:データ センターの場所全体の高可用性向け。
· Kubernetes FlexVolume ドライバ:企業向けのターンキー Kubernetes の永続ストレージであり Cisco コンテナ プラットフォームの基盤。
· 高い拡張性(32 コンバージド + 32 コンピューティング専用)およびロジカル アベイラビリティ ゾーン(LAZ)による耐障害性の向上。
· Intel Optane NVMe サポートによるドライブ レベルでのパフォーマンスと耐久性の向上。
· 大規模なフォーム ファクタ:6 TB、8 TB ドライブ オプションを備えた HX M5 240 LFF シャーシ。
· ディザスタ リカバリの高度なワークフロー。
· ハイパーバイザ プラットフォーム全体での Cisco Intersight のサポート。
· 拡張 HyperFlex Edge 設定オプション。
· リンク モード:vCenterの拡張リンク モード機能のための HyperFlex プラグイン サポート。
· REST API: Cisco DevNet の『Cisco HyperFlex Systems REST API スタートアップ ガイド』
· 新しい All-Flash および Hybrid HX M5 サーバ モデルが Cisco HyperFlex 製品ファミリに追加されます。
· シスコ スマート ライセンシング:Cisco Smart Software Manager サテライトのサポート。詳細についてはhttps://www.cisco.com/c/en/us/td/docs/hyperconverged_systems/HyperFlex_HX_DataPlatformSoftware/Installation_VMWare_ESXi/3_5/b_HyperFlexSystems_Installation_Guide_for_VMware_ESXi_3_5.htmlを参照してください。
· M5 サーバ
· リリースの主な概要
- HX 3.5.1a と同じソフトウェア機能セット
- HyperFlex の M5 サーバのサポート。
- Cisco HX240c M5 および HXAF240c M5 サーバの有効化:
- デュアル CPU:Intel Xeon プロセッサ スケーラブル ファミリ
- 最大 3 TB DRAM:最低 256 GB DRAM を推奨
- M.2 ドライブ:ESX ブートおよびストレージ コントローラ VM 向け
- 最大 2 GPU:M10、P40、AMD 7150 x 2
- キャッシュ専用の背面スロット
· Cisco HX220c M5 および HXAF220c M5 サーバの有効化:
- デュアル CPU(エッジを除く):インテル Xeon プロセッサ スケーラブル ファミリ
- 最大 3 TB DRAM: 256 GB DRAM の推奨最小サイズ
- データ ドライブ(SATA または SAS) x 8
- M.2 ドライブ:ESX ブートおよびストレージ コントローラ VM 向け
· 同じクラスタ上の M4/M5 をサポート。
- 混合クラスタは、同じストレージ クラスタ内の M4 および M5 HX コンバージド ノードの両方を持つことで定義されます。
- HyperFlex Edge は混合クラスタをサポートしません。
- SED SKU は混合クラスタをサポートしません。
· 周辺機器(Peripherals)
- HX220C M5S と HXAF220C M5S のノードで 6 ~ 8 個のドライブの選択肢。
- HX240C M5SX と HXAF240C M5SX のノード用の最大 2 個の GPU。
Cisco UCS 6300 シリーズ ファブリック インターコネクトは、Cisco UCS の中核であり、システムのネットワーク接続と管理の機能を提供します。Cisco UCS 6300 シリーズは、ライン レート、低遅延、ロスレスの 40 ギガビット イーサネット、FCoE、ファイバ チャネル機能を提供します。
ファブリック インターコネクトは、Cisco UCS B シリーズ ブレード サーバ、Cisco UCS C-シリーズおよび HX シリーズ ラックサーバ、Cisco UCS 5100 シリーズ ブレード サーバ シャーシの管理および通信の基盤となります。ファブリック インターコネクトに接続されているすべてのサーバは、可用性の高い単一の管理ドメインの一部として管理されます。さらに、Cisco UCS 6300 シリーズは、ユニファイド ファブリックをサポートしているため、ドメイン内のすべてのブレードが LAN と SAN の両方に接続できます。
ネットワーキングでは、Cisco UCS 6300 シリーズはカットスルー アーキテクチャを使用し、パケット サイズや対応サービスに依存せず、すべてのポートで低遅延のラインレート 40 ギガビット イーサネット、2.56 テラビット(Tb)のスイッチング容量、シャーシあたり 320 Gbps の帯域幅をサポートします。この製品シリーズでは、シスコの低遅延でロスレスの 40 ギガビット イーサネット ユニファイド ネットワーク ファブリック機能をサポートし、これによりイーサネット ネットワークの信頼性、効率性、拡張性が向上します。ファブリック インターコネクトでは、ロスレス イーサネット ファブリックに対する複数のトラフィック クラスがブレード サーバからインターコネクトにかけてサポートされます。ネットワーク インターフェイス カード(NIC)、ホスト バス アダプタ(HBA)、ケーブル、およびスイッチを統合可能な FCoE 最適化サーバ設計により、TCO が大幅に削減されます。
図 12 Cisco UCS 6332 シリーズ ファブリック インターコネクト
図 13 Cisco UCS 6332-16UP ファブリック インターコネクト
ソフトウェア デファインド インフラをベースとする Cisco HyperFlex システムでは、Cisco Unified Computing System(Cisco UCS)サーバによるソフトウェア デファインドのコンピューティング、強力な Cisco HX Data Platform を利用したソフトウェア デファインド ストレージ、そして Cisco Application Centric Infrastructure(Cisco ACI™)とも連携・統合可能な Cisco UCS ファブリックによるソフトウェア デファインドネットワーキングが一元化されています。こうしたテクノロジーにより接続とハードウェア管理を一元化することで、統合されたリソース プールをビジネス ニーズに合わせて提供できる、適応性の高い統合クラスタが実現します。
Cisco HyperFlex クラスタには(ディスク ストレージと共に)最低 3 つの HX シリーズ ノードが必要です。データはこれらのうち最低 2 つのノードで複製され、3 番目のノードは単一ノードの障害時に運用を継続する上で必要になります。各ノードのディスク ストレージには 1 台の高性能 SSD ドライブが搭載されており、データ キャッシュと書き込み要求への迅速な応答(ACK)を可能にしています。また、各ノードの最大データ容量には、プラットフォームの回転ディスクかエンタープライズ レベルの SSD の物理的な容量が備えられています。
HXAF220c M5 サーバは、インテル® Xeon® プロセッサー スケーラブル ファミリ、24 個の 2666MHz DIMM 用 DIMM スロット、最大 128 GB の個別 DIMM 容量、および最大 3.0 TB の総 DRAM 容量を搭載した 1U フォーム ファクタで Cisco HyperFlex ポートフォリオの機能を拡張します。
この構成の Cisco HyperFlex オール フラッシュ ノードは設置面積が小さく、ストレージ キャパシティ用として、起動ドライブとして動作する M.2 SATA SSD ドライブを 1 台、240 GB のソリッド ステート ドライブ(SSD)データ ロギング ドライブを 1 台、400 GB の SSD ログ書き込みドライブを 1 台、3.8 テラバイト(TB)もしくは 960 GB の SATA SSD ドライブを最大 8 台含んでいます。1 つの HX クラスタには、最小で 3 個、最大で 16 個のノードを構成できます。詳細については、Cisco HyperFlex HXAF220c-M5S スペックシートを参照してください。
表 1 HXAF220c-M5SX サーバ オプション
HXAF220c-M5SX オプション |
必須ハードウェア |
|
プロセッサ |
Intel Xeon プロセッサ スケーラブル ファミリ CPU のモデルが同じ 2 個を選択 |
|
メモリ |
16 GB、32 GB、64 GB または 128 GB の DDR4 2666 MHz 1.2 v メモリ メモリ容量合計 192 GB ~ 3 TB |
|
ディスク コントローラ |
Cisco 12Gbps モジュラ SAS HBA |
|
SSD |
規格 |
240 GB 2.5 インチ Enterprise Value 6G SATA SSD x 1 400 GB 2.5 インチ Enterprise Performance 12G SAS SSD x 1、または 1.6 TB 2.5 インチ Enterprise Performance NVMe SSD x 1、もしくは 375 GB 2.5 インチ Optane Extreme Pereformance SSD x 1 3.8 TB 2.5 インチ Enterprise Value 6G SATA SSD x 6 ~ 8、または 960 GB 2.5 インチ Enterprise Value 6G SATA SSD x 6 ~ 8 |
SED |
240 GB 2.5 インチ Enterprise Value 6G SATA SSD x 1 800 GB 2.5 インチ Enterprise Performance 12G SAS SED SSD x 1 3.8 TB 2.5 インチ Enterprise Value 6G SATA SED SSD x 6 ~ 8、または 960 GB 2.5 インチ Enterprise Value 6G SATA SED SSD x 6 ~ 8、または 800 GB 2.5 インチ Enterprise Performance 12G SAS SED SSD x 6 ~ 8 |
|
ネットワーク |
Cisco UCS VIC1387 VIC MLOM |
|
ブート デバイス |
240 GB M.2 フォーム ファクタ SATA SSD x 1 |
|
マイクロ SD カード |
ローカル ホスト ユーティリティ ストレージ用 32 GB マイクロ SD カード x 1 |
|
任意 |
40 GbE QSFP+ を 10 GbE SFP+ に変換する Cisco QSA モジュール |
図 14 Cisco UCS HXAF220c M5SX ラック サーバの正面図
図 15 Cisco UCS HXAF220c-M5SX ラック サーバの背面図
Cisco UCS HXAF220c-M5S は、データセンターおよびリモート サイトに高いパフォーマンスと柔軟性を提供し、最適化を可能とします。このエンタープライズクラスのサーバは、Web インフラストラクチャから分散型データベースの処理サービスに関して妥協することなく、市場で最高レベルの性能、汎用性、密度を実現します。Cisco UCS HXAF220c-M5SX は、プログラム制御機能を備えた使いやすい Cisco UCS Manager ソフトウェアと、Cisco® Single Connect テクノロジーによる簡素化されたサーバ アクセスにより、ステートレスで実際の処理サービスおよび仮想化での処理状況に合わせて迅速に実行することが可能です。インテル Xeon スケーラブル ファミリー プロセッサー製品ファミリを基盤とし、64 GB の DIMM を使用した場合、最大 1.5TB のメモリ、最大 10 台のディスク ドライブを搭載でき、最大 40 Gbps の I/O スループットを実現します。Cisco UCS HXAF220c-M5S は、要求の厳しいアプリケーション処理の実行に必要とされる優れたパフォーマンス、柔軟性、I/O スループットを提供します。
Cisco UCS HXAF220c-M5S では、次の内容が提供されます。
· 最大 2 つのマルチコア インテル Xeon スケーラブル ファミリー プロセッサー。最大 56 プロセス コア
· 業界標準の DDR4 メモリ用 DIMM スロット 24 個、2666 MHz のメモリアクセス速度をサポート、合計で最大 1.5TB のメモリ容量(64 GB DIMM 使用時)
· 10 台のホットプラグ対応 SAS および SATA HDD または SSD
· Cisco UCS VIC 1387、2 ポート、80 ギガビット イーサネットおよび FCoE:モジュラ型(mLOM)対応メザニン アダプタ
· Cisco FlexStorage ローカル ドライブ ストレージ サブシステム。柔軟なブートおよびローカル ストレージ機能により、ハイパーバイザのインストールおよび起動が可能
· エンタープライズ クラスのパススルー RAID コントローラ
· Cisco FlexStorage モジュールの追加、変更、削除が容易
Cisco UCS 仮想インターフェイス カード(VIC)1387 は、Cisco UCS HX シリーズ ラック サーバに搭載可能なカードで、拡張された着脱可能小型フォームファクタ(QSFP+)の 40 Gbps イーサネットおよび Fibre Channel over Ethernet(FCoE)を 2 ポート搭載したモジュール型 LAN On Motherboard(mLOM)アダプタです(図 5)。mLOM スロットを使用すれば、PCIe スロットを占有せずに Cisco VIC を実装できます。これにより、I/O 拡張性が向上します。シスコの次世代統合型ネットワーク アダプタ(CNA)テクノロジーを取り入れることで、将来の機能リリースにおける投資を保護します。このカードでは、ポリシーベースでステートレス、かつ俊敏性の高いサーバ インフラストラクチャを構築できます。このインフラストラクチャは、ネットワーク インターフェイス カード(NIC)またはホスト バス アダプタ(HBA)として動的に設定可能な、最大 256 の PCIe 規格準拠インターフェイスをホストに提供します。カードの特性は、ブート時にサーバに関連付けられたサービス プロファイルを使用して動的に決定されます。サービス プロファイルでは、PCIe インターフェイスの番号、タイプ(NIC または HBA)、ID(MAC アドレスおよび World Wide Name(WWN))、フェールオーバー ポリシー、帯域幅、Quality of Service(QoS)ポリシーを定義できます。
図 16 Cisco VIC 1387 mLOM カード
表 2 サポートされる物理接続
ファブリック インターコネクト モデル |
6248 |
6296 |
6332 |
6332-16UP |
|||
ポート タイプ |
10 GbE |
10 GbE |
40 GbE |
10 GbE ブレー |
40 GbE |
10GbE ブレー |
10 GbE オンボード |
VIC 1227 を使用する M4 |
✓ |
✓ |
✕ |
✕ |
✕ |
✕ |
✕ |
VIC 1387 を使用する M4 |
✕ |
✕ |
✓ |
✕ |
✓ |
✕ |
✕ |
VIC 1387 + QSA を使用する M4 |
✕ |
✕ |
✕ |
✕ |
✕ |
✕ |
✕ |
VIC 1387 を使用する M5 |
✕ |
✕ |
✓ |
✕ |
✓ |
✕ |
✕ |
VIC 1387 + QSA を使用する M5 |
✓ |
✓ |
✕ |
✕ |
✕ |
✕ |
✕ |
ワークロードに対して、コンピューティング リソースやメモリ リソースを追加する必要が生じたが、追加できるストレージ容量がない場合には、コンピューティング専用のハイブリッド クラスタ構成を使用することができます。この構成を使用する場合には、HyperFlex コンバージド ノードが最小で 3 台(最大で 16 台)と、追加のコンピューティング容量として Cisco UCS B200-M5 ブレード サーバが 1 ~ 16 台必要になります。HX シリーズ ノードは前述のように設定し、Cisco UCS B200 M5 サーバにはブート ドライブが搭載されています。Cisco UCS B200 M5 コンピューティング ノードを使用するには、Cisco UCS 5108 ブレード サーバ シャーシ、および Cisco UCS 2300/2200 シリーズ ファブリック エクステンダのペアも必要です。詳細については、Cisco UCS B200 M5 ブレード サーバ スペック シートを参照してください。
図 17 Cisco UCS B200 M5 ブレード サーバ
Cisco UCS 仮想インターフェイス カード(VIC)1340(図 18)は、Cisco UCS B シリーズ ブレード サーバの M4 世代に特化して設計された、2 ポート 40 Gbps イーサネットまたはデュアル 10 Gbps イーサネット X 4、Fibre Channel over Ethernet(FCoE)対応のモジュール型 LAN on Motherboard(mLOM)です。オプションのポート エクスパンダと組み合わせて使用すると、40 Gbps イーサネットの 2 つのポートに対して Cisco UCS VIC 1340 の機能を有効にできます。
Cisco UCS VIC 1340 では、ポリシーベースでステートレス、かつ俊敏性の高いサーバ インフラストラクチャを構築できます。このインフラストラクチャは、ネットワーク インターフェイス カード(NIC)またはホスト バス アダプタ(HBA)として動的に設定可能な、最大 256 の PCIe 規格準拠インターフェイスをホストに提供します。さらに、Cisco UCS VIC 1340 は Cisco UCS ファブリック インターコネクト ポートを仮想マシンに拡張し、サーバ仮想化の展開および管理を簡素化する Cisco® Data Center Virtual Machine Fabric Extender(VM-FEX)をサポートします。
図 19 Cisco UCS B シリーズ B200 M5 ブレード サーバに搭載された Cisco UCS VIC 1340 仮想インターフェイス カード
Cisco UCS 5100 シリーズ ブレード サーバ シャーシは、Cisco Unified Computing System の重要なビルディング ブロックであり、現在および将来のデータセンターに対してスケーラブルかつ柔軟なブレード サーバ シャーシを提供するとともに、TCO の低減を促進します。
Cisco UCS 5108 ブレード サーバ シャーシ(図 20)は、高さが 6 ラック ユニット(6 RU)で、業界標準の
19 インチ ラックシステムに搭載可能です。1 台のシャーシに最大で 8 個のハーフ幅の Cisco UCS B シリーズ ブレード サーバを格納できます。また、ハーフ幅とフル幅の両方のブレードのフォーム ファクタに対応できます。
4 つのホットスワップ可能な電源モジュールにはシャーシの前面からアクセスでき、単相 2500 W AC、2500 W
–48 VDC、および 2500 W 200 - 380 VDC 電源およびシャーシを使用できます。これらの電源モジュールの効率は最大 94% で、80 Plus プラチナ認証の要件を満たしています。この電源サブシステムは、非冗長構成、N+1 冗長構成、およびグリッド冗長構成をサポートするように設定できます。シャーシの背面には、8 基のホットスワップ可能なファン、4 つの電源コネクタ(各電源装置に 1 つ)、Cisco UCS ファブリック エクステンダ用の 2 つの I/O ベイがあり、Cisco UCS 2000 シリーズ ファブリック エクステンダまたは Cisco UCS 6324 ファブリック インターコネクトのいずれかに対応可能です。パッシブ ミッドプレーンでは、サーバ スロットごとに最大で
80 Gbps の I/O 帯域幅が提供され、2 スロットでは最大で 160 Gbps の I/O 帯域幅になります。シャーシは、2304 ファブリック エクステンダにより、40 ギガビット イーサネットの規格をサポートします。
図 20 Cisco UCS 5108 ブレード シャーシの前面図と背面図
Cisco UCS 5108 ブレード サーバ シャーシは、ブレードベース システムの使用と導入に革命をもたらします。ユニファイド ファブリック、組み込み型の管理機能、およびファブリック エクステンダ テクノロジーが導入されることで、シャーシが使用する物理コンポーネントの数が減少し、独立した管理機能が不要になり、従来のブレード サーバ シャーシよりもエネルギー効率が向上します。こうした単純化により、専用のシャーシ管理やブレード スイッチを用意する必要はなくなり、ケーブル配線も少なくなります。さらに、Cisco UCS の規模を 20 台のシャーシまで複雑さを増すことなく拡大することが可能です。Cisco UCS 5108 シャーシは、Cisco UCS の持つデータセンターの単純さと IT の応答性の利点を実現するうえで欠かせないコンポーネントです。
さらに、Cisco UCS 5108 シャーシには、各シャーシ内のスイッチへの給電と冷却が不要になるという構造上の利点もあります。シスコは、ブレード サーバごとの電力バジェットを拡大することによって、妥協のない拡張性と機能性を備えたブレード サーバを設計することができ、これは、業界随一のメモリ スロットとドライブ容量を備えた新しい Cisco UCS B200 M5 および B480 M5 ブレード サーバで実証されています。詳細については、Cisco UCS 5100 シリーズ ブレード サーバ シャーシ データ シートを参照してください。
Cisco UCS 2304 ファブリック エクステンダは、ファブリック インターコネクトとブレード シャーシに格納されている各ブレードサーバの間でユニファイド ファブリック接続するモジュールとして組み込みます。40 ギガビット イーサネット接続を提供し、接続配線、診断、サーバ ネットワーク管理を簡素化します。本製品は第 3 世代の I/O モジュール(IOM)となり、第 2 世代の Cisco UCS 2200/2300 シリーズ ファブリック エクステンダと共通のモジュールサイズで、現在提供中の Cisco UCS 5108 ブレード サーバ シャーシと互換性を持ちます。
Cisco UCS 2304 によって、Cisco UCS 6300 シリーズ ファブリック インターコネクトと Cisco UCS 5100 シリーズ ブレード サーバ シャーシとの間で I/O ファブリック接続され、すべてのブレードサーバとシャーシがロスレスで、ユーザ定義可能な Fibre Channel over Ethernet(FCoE)ファブリックによって 1 つに結ばれます。ファブリック エクステンダは分散型ラインカードと同様の製品であり、スイッチング処理は行わず、ファブリック インターコネクトの拡張部分として管理されます。このようなアプローチを取ることで、ブレード シャーシからスイッチングが取り払われ、インフラストラクチャ全体の複雑さが低減します。また、Cisco UCS の規模を拡大してシャーシの数を増やしても、必要なスイッチの数が増えることはないので、TCO が削減され、すべてのシャーシを可用性の高い 1 つの管理ドメインとして扱えます。
Cisco UCS 2304 ではファブリック インターコネクトと併せてシャーシ環境(電源、ファン、ブレード)も管理できます。したがって、個別のシャーシ管理モジュールは必要ありません。
Cisco UCS 2304 ファブリック エクステンダは Cisco UCS 5100 シリーズ ブレードシャーシの背面に取り付けられます。Cisco UCS 5100 シリーズ シャーシ 1 台でファブリック エクステンダを 2 枚までサポートできるため、容量と冗長性が向上しています(図 21)。
Cisco UCS 2304 ファブリック エクステンダには 40 ギガビット イーサネット、FCoE 対応の Quad Small Form-Factor Pluggable(QSFP+)ポートが 4 個あり、これらのポートでブレード シャーシとファブリック インターコネクトに接続します。それぞれの Cisco UCS 2304 では、40 ギガビット イーサネット ポートが 1 基あり、ミッド プレーンを経由してシャーシのハーフ幅スロットにそれぞれ接続されます。その結果、合計で 40G X 8 のコンピューティング用インターフェイスが提供されます。通常は冗長性を得るためファブリック エクステンダをペアで構成し、その 2 台により、最大 320 Gbps の I/O をシャーシに提供することが可能です。
図 21 Cisco UCS 2304XP ファブリック エクステンダ
Cisco UCS C220 M5 ラック サーバは、1 RU フォーム ファクタのエンタープライズクラスのインフラストラクチャ サーバです。インテル Xeon プロセッサー E5-2600 v4 および v3 製品ファミリと次世代の DDR4 メモリが組み込まれており、12 Gbps の SAS スループットにより、非常に高いパフォーマンスと効率性を実現します。ワークロードに対して追加のコンピューティング リソースやメモリ リソースが必要になる一方でストレージ容量を追加できない場合にも、HX シリーズ コンバージド ノードの数に応じて、 Cisco UCS C220 M5 ラック サーバをコンピューティング専用ハイブリッド HX クラスタの構築に使用することができます。この構成には、HX シリーズ コンバージド ノードが最小で 3 台(最大で 8 台)と、追加のコンピューティング容量として Cisco UCS C220-M5 ラック サーバが 1 ~ 8 台が含まれています。
図 22 Cisco UCS C220 M5 ラック サーバ
Cisco HyperFlex HX Data Platform は専用の高性能な分散ファイルシステムで、多岐にわたるエンタープライズクラス データ管理サービスを提供します。データ プラットフォームの革新により、分散ストレージ テクノロジーが再定義され、従来のハイパーコンバージド インフラストラクチャをしのぐ性能を提供します。このデータ プラットフォームにはエンタープライズ共有ストレージ システムに期待されるすべての機能があるため、複雑なファイバ チャネル ストレージ ネットワークとデバイスの設定や管理をする必要がなくなります。このプラットフォームは操作を簡素化し、データの可用性を保証します。エンタープライズクラスのストレージ機能には、次のものがあります。
· レプリケーションはクラスタ全体でデータを複製するため、単一または複数のコンポーネントに障害が発生した場合にも、データの可用性は影響を受けません(設定されたレプリケーション ファクタによります)。
· 重複排除は常にオンになっているので、仮想クラスタ内のストレージ要件を削減できます。仮想クラスタ内では、クライアント仮想マシンの複数のオペレーティング システムのインスタンスが複製された大量のデータ アクセスを提供します。
· 圧縮によりデータ ストレージ使用量を削減し、コストを削減します。またログ構造のファイル システムは、さまざまなサイズのブロックを保存し、内部のフラグメンテーションを減らすよう設計されています。
· シン プロビジョニングは、実際に利用する必要性が生じるまで、サポートするストレージ スペースを必要とせずに大きなボリュームを作成できるため、データ ボリュームの増加を簡素化し、ストレージを「成長に合わせた投資」という課題に対応します。
· 高速でスペース効率の高いクローン機能により、ストレージ ボリュームを迅速に複製可能です。そのため、仮想マシンをメタデータの操作だけで複製でき、実際のデータ コピーは書き込み操作に対してのみ実行されます。
· スナップショットはバックアップとリモートレプリケーション操作を促進し、常時「オン」状態となっているため、データ可用性のニーズに対応します。
Cisco HyperFlex HX Data Platform は VMware vSphere Web クライアント プラグインを通して管理します。この一元化されたクラスタ制御ポイントを通して、管理者はボリュームを作成し、データ プラットフォームの状態を監視し、リソースの使用を管理できます。また管理者はこのデータを使用して、クラスタをいつ拡張する必要があるかを予測することもできます。軽量な Web インターフェイスがお好みのお客様は、ブラウザを開いて HX クラスタ インターフェイスの IP アドレスへアクセスし、技術プレビュー URL 管理インターフェイスを使用できます。さらに、Web ブラウザでの CLI コマンドの実行を支援するインターフェイスもあります。
図 23 HyperFlex Web クライアント プラグイン
Cisco HyperFlex の主要な管理ツールとして、新しい HTML 5 ベースの Web UI を使用できます。これはクラスタ上で一元化された制御ポイントとして機能します。管理者はボリュームを作成し、データ プラットフォームの状態をモニタリングし、リソースの使用率を管理できます。また管理者はこのデータを使用して、クラスタをいつ拡張する必要があるかを予測することもできます。HyperFlex Connect UI を使用するには、Web ブラウザから HyperFlex クラスタの IP アドレス http://<hx controller cluster ip> にアクセスします。
技術プレビュー Web UI の HX コントローラ クラスタ IP の場合:http://hx controller cluster ip/ui
図 24 HyperFlex Web GUI のプレビュー
図 25 Web CLI
HX データ プラットフォーム コントローラは各ノードに常駐し、分散ファイル システムを実装します。コントローラは仮想マシン内のユーザ領域で動作し、ゲスト仮想マシンからのすべての I/O を取り込み、処理します。プラットフォーム コントローラ VM は、VMDirectPath I/O 機能を使用して、物理サーバの SAS ディスク コントローラの PCI パススルー制御を提供します。この方法では、コントローラ VM に物理ディスク リソースのフル コントロールを提供し、SSD ドライブを読み取り/書き込みキャッシング レイヤとして、HDD を分散ストレージ用の容量レイヤとして利用します。コントローラは、プリインストールされた以下の 2 つの VMware ESXi vSphere Installation Bundle(VIB)を使用して、データ プラットフォームを VMware ソフトウェアに統合します。
· IO Visor:この VIB はネットワーク ファイル システム(NFS)マウント ポイントを提供し、個々の仮想マシンに接続された仮想ディスクに ESXi ハイパーバイザがアクセスできるようにします。ハイパーバイザからは、単にネットワーク ファイル システムに接続されているように見えます。
· VMware API for Array Integration(VAAI):このストレージ オフロード API は、vSphere が高度なファイル システム操作(スナップショット、クローニングなど)を要求できるようにします。コントローラは、実際のデータのコピーではなくメタデータの操作によって、これらの操作を発生させます。そのため、迅速な対応が可能で、新しい環境をすぐに導入できます。
各ストレージ ブロックの重複コピー数に関するポリシーがクラスタのセットアップ時に選択され、レプリケーション ファクタ(RF)と呼ばれます。
· レプリケーション ファクタ 3:I/O 書き込みがストレージ レイヤに対してコミットされるたびに、書き込まれたブロックの 2 つの追加のコピーが作成され、全部で 3 つのブロックのコピーが別の場所に保存されます。ブロックは、複数のブロックのコピーが同じディスク上に保存されず、クラスタの同じノード上にも保存されないように分散されます。この仕組みにより、2 つのノード全体で同時に障害が発生してもデータ損失が発生せず、バックアップなどのリカバリ プロセスによる復元が可能になります。
· レプリケーション ファクタ 2:I/O 書き込みがストレージ レイヤに対してコミットされるたびに、書き込まれたブロックの 1 つの追加のコピーが作成され、全部で 2 つのブロックのコピーが別の場所に保存されます。ブロックは、複数のブロックのコピーが同じディスク上に保存されず、クラスタの同じノード上にも保存されないように分散されます。この仕組みにより、1 つのノード全体で障害が発生してもデータ損失が発生せず、バックアップなどのリカバリ プロセスによる復元が可能になります。
キャッシング レイヤを使用してパフォーマンスが最適化されるように、着信データがクラスタ内のすべてのノードに分散されます(図 26)。すべてのノードに均等に保存されているストライプ ユニットに対して、新しいデータをマッピングすることで、効果的なデータ分散化を実現します。データ レプリカの数は、設定したポリシーによって決まります。アプリケーションがデータを書き込むと、そのデータは関連する情報ブロックが含まれているストライプ ユニットに基づいて適切なノードに送信されます。このデータ分散化アプローチを、同時に複数のストリームを書き込める機能と組み合わせることで、ネットワークとストレージのホット スポットを回避できます。また、仮想マシンの場所にかかわらず同じ I/O パフォーマンスを実現でき、ワークロード配置の柔軟性も向上します。これは、データをローカルで使用するアプローチを取り、利用可能なネットワーキング リソースと I/O リソースを完全に使用せず、ホット スポットに対して脆弱な他のアーキテクチャとは逆のアプローチになります。
図 26 データはクラスタ内の複数のノードにわたってストライプ
VMware Dynamic Resource Scheduling(DRS)などのツールを使用して仮想マシンを新しい場所に移動する場合に、Cisco HyperFlex HX Data Platform ではデータを移動する必要がありません。このアプローチにより、システム間での仮想マシンの移動に伴う影響やコストを大幅に削減できます。
データ プラットフォームに分散型のログ構造ファイル システムを採用することで、ノードの構成に応じてキャッシング容量やストレージ容量の処理方法が変化します。
オールフラッシュメモリ構成の場合、データ プラットフォームでは SSD にキャッシング レイヤが使用され、書き込み時の処理速度を向上させます。そして、SSD でキャパシティ レイヤが構成され、読み込み要求が SSD で取得されたデータに対して、直接実行されます。読み込み処理の速度を向上させるために、専用の読み込みキャッシュを用意する必要はありません。
新しいデータは、可用性要件に対応できるように複数のノードにわたってストライプされます(通常は 2 台または 3 台のノードです)。設定したポリシーに基づき、新しい書き込み操作は、クラスタ内の別のノードにある SSD ドライブに複製されます。その後、永続的な書き込み操作として認識されます。このアプローチにより、SSD やノードで障害が発生した場合のデータ損失の可能性を低減できます。なお、データを長期間格納する場合には、書き込み操作がオールフラッシュ メモリ構成にあるキャパシティ レイヤの SSD に移行されます。
ログ構造ファイル システムでは、2 つのうち 1 つの書き込みログ(RF=3 の場合は 3 つのうち 1 つ)に、容量が満たされるまで順に書き込みが行われます。そして、最初のレイヤからキャパシティ レイヤにデータが移行される際に、他の書き込みログに切り替えられます。既存のデータが(論理的に)上書きされる場合、ログ構造のアプローチではシンプルに新しいブロックを付加し、メタデータを更新します。このレイアウトの利点は、シーク操作に大きく時間を費やすことがないように SSD を構成できることです。これにより、データへの書き込み操作と上書き操作がランダムに実行されることによるフラッシュ メディア上のトータルの書き込み処理数を削減し、SSD における書き込み操作の増幅レベルを低減させます。
各ノードのキャパシティ レイヤに移行されたデータは、重複排除されて圧縮されます。このプロセスは書き込み操作が認識された後に行われるため、これらの操作でパフォーマンスに悪影響が及ぶことはありません。小さな重複排除ブロック サイズにより、重複排除率が向上します。さらに圧縮によりデータ スペースを削減します。その後、データはキャパシティ レイヤに移動され、書き込みキャッシュ セグメントは解放されて再利用可能になります(図 27)。
図 27 Cisco HyperFlex HX Data Platform 書き込みオペレーション フロー
キャパシティ レイヤから頻繁に読み取られる直近のデータであるホット データ セットは、メモリにキャッシュされます。しかしながら、オールフラッシュ構成では、高性能の SSD にすでに永続型のデータ コピーがあることから、そのようなキャッシュにはパフォーマンス上の利点がなく、キャッシュの読み込みに SSD は使用されません。これらの構成では、SSD で読み込みキャッシュを使用するとボトルネックとなり、SSD 全体で集約された帯域幅を使用する際の妨げとなる可能性があります。
Cisco HyperFlex HX Data Platform には、精密なインライン重複排除や可変ブロック インライン圧縮が搭載されており、キャッシュ(SSD、メモリ)レイヤおよびキャパシティ(SSD または HDD)レイヤのオブジェクトに対して常に有効になっています。他社のソリューションでは、パフォーマンス維持のためにこれらの機能を無効にする必要があります。一方、シスコのデータ プラットフォームの重複排除と圧縮機能は、パフォーマンスを維持、強化し、物理ストレージのキャパシティ要件を大幅に削減できるように設計されています。
データ重複排除は、クラスタ内のすべてのストレージ(メモリ、SSD ドライブを含む)で使用されます。このプラットフォームは、特許出願中の Top-K Majority アルゴリズムを基盤とし、実証的研究の成果を活用しています。実証的研究では、小さなデータ ブロックに分割し、少数のデータ ブロックに基づけば、ほとんどのデータは大幅に重複排除できる可能性があることが示されています。頻繁に使用されるブロックのみに対してフィンガープリントとインデックスを作成することにより、少量のメモリで高い重複排除率を実現でき、クラスタ ノード内の価値の高いリソースであるメモリ使用量を節約できます(図 28)。
図 28 Cisco HyperFlex HX Data Platform はパフォーマンスに影響を与えずにデータ ストレージを最適化
Cisco HyperFlex HX Data Platform は、データ セットに対して高性能なインライン圧縮を使用し、ストレージ容量を節約します。他の製品も圧縮機能を提供していますが、パフォーマンスに悪影響を及ぼす場合が少なくありません。一方、シスコのデータ プラットフォームは CPU オフロード指示を使用して、圧縮操作によるパフォーマンスへの影響を軽減します。さらに、ログ構造の分散オブジェクト レイヤは、以前に圧縮されたデータの変更(書き込み操作)に影響を及ぼしません。新規の変更は圧縮されて新しい場所に書き込まれ、既存の(古い)データは削除用にマークされます(そのデータをスナップショット内で保持する必要がある場合を除きます)。
書き込み操作の前に、変更対象のデータを読み取る必要はありません。一般的には読み取り、変更、書き込みという手順が必要ですが、この機能はその手順に伴う悪影響を回避し、書き込みパフォーマンスを大幅に向上させます。
Cisco HyperFlex HX Data Platform では、ログ構造の分散オブジェクト ストア レイヤにより、データをグループ化して圧縮します。データは、重複排除エンジンでフィルタされ、自己アドレス可能なオブジェクトになります。これらのオブジェクトは、ログ構造でディスクに順次書き込まれます。すべての新しい I/O(ランダム I/O を含む)は、キャッシング層(SSD、メモリ)および永続層(SSD または HDD)の両方に順次書き込まれます。オブジェクトはクラスタ内のすべてのノードにわたって分散されるため、ストレージ容量を均等に使用できます。
シーケンシャル レイアウトを使用することで、プラットフォームのフラッシュ メモリの耐久性を向上させることができます。読み取り、変更、書き込みという手順ではないため、圧縮、スナップショット、複製操作のパフォーマンスには影響がほとんどないか、まったくありません。また、全体的なパフォーマンスに対しても同様です。
データ ブロックはオブジェクトに圧縮され、固定サイズのセグメント内に順次配置されます。次に、それらのセグメントはログ構造で順次配置されます(図 29)。ログ構造セグメント内の圧縮された各オブジェクトは、キーを使用して一意にアドレス可能です。各キーはフィンガープリントされ、チェックサムと保存されており、高度なデータ整合性を実現します。また、オブジェクトが時系列で書き込まれるため、このプラットフォームはメディアやノードの障害から迅速に回復できます。障害が発生してデータが削除された場合、その時点より後にシステムが受信したデータのみを再度書き込めば回復できるからです。
図 29 Cisco HyperFlex HX Data Platform はパフォーマンスに影響を与えずにデータ ストレージを最適化
安全に暗号化されたストレージでは、データ プラットフォームのキャッシング レイヤと永続型レイヤの両方を随時暗号化します。エンタープライズ キー管理ソフトウェアによる統合、またはパスフレーズで保護されたキーによる統合を通じて、保管中のデータを暗号化することで、HIPAA、PCI DSS、FISMA、SOX 規制に準拠できます。プラットフォーム自体が連邦情報処理標準(FIPS)140-1 に沿うように強化され、暗号化ドライブにキー管理の仕組みを備えることで FIPS 140-2 標準にも準拠します。
Cisco HyperFlex HX Data Platform では、スペース効率の高いデータ サービスがスケーラブルに実装されています。これらのサービスには、シン プロビジョニング、スペース再利用、ポインタベースのスナップショット、クローンが含まれ、パフォーマンスには影響が及びません。
HX データ プラットフォームでは、ディスク容量を予測して購入・インストールする必要がないため、長期間使用されないままになるリスクを回避し、ストレージを効率的に使用できます。仮想データ コンテナは、任意の量の論理スペースをアプリケーションに示せます。一方、必要な物理記憶域の量は、書き込まれるデータによって決定されます。ビジネス要件に応じて、既存ノードのストレージを拡張したり、ストレージ集約型ノードを追加してクラスタを拡張したりできます。必要になる前の段階で容量確保のためにストレージを購入しておく必要性はなくなります。
Cisco HyperFlex HX Data Platform はメタデータベースのゼロコピー スナップショットを使用して、バックアップ操作やリモート複製を容易にします。これらの機能は、データを常時利用する必要がある企業にとって極めて重要です。スペース効率の高いスナップショットにより、物理ストレージ容量の消費を心配せずに、データのオンライン バックアップを頻繁に実行できます。データはオフライン移動や、これらのスナップショットからの迅速な復元が可能です。
· 高速なスナップショットの更新:スナップショットに変更されたデータが含まれている場合、新しい場所に書き込まれ、メタデータが更新されます。読み取り、変更、書き込みという手順を実行する必要はありません。
· 高速なスナップショットの削除:スナップショットは迅速に削除できます。このプラットフォームでは、SSD 上の少量のメタデータを削除するだけで済みます。デルタディスク技術を使用するソリューションで必要となる、長時間の統合プロセスは不要です。
· 柔軟なスナップショット:Cisco HyperFlex HX Data Platform を使用すると、個別のファイル ベースでスナップショットを作成できます。仮想環境内で、これらのファイルは仮想マシンのドライブにマッピングされます。柔軟に異なる仮想マシンに異なるスナップショット ポリシーを適用できます。
多くの基本的なバックアップ アプリケーションでは、データ セット全体、または前回のバックアップ以降に変更されたブロックが、ストレージあるいはオペレーティング システムが処理可能な速度で読み取られます。この場合、HyperFlex が Cisco UCS 上に 40GbE で構築されていることから、複数のバックアップ スループットが数ギガビット/秒単位となり、パフォーマンスに影響が生じる可能性があります。Windows Server Backup などの基本的なバックアップ アプリケーション、特に初回のバックアップで変更ブロック トラッキングなどが行われない場合には、ピーク時以外の時間にスケジュールする必要があります。
Veeam Backup and Replication v9.5 などのフル機能のバックアップ アプリケーションでは、バックアップ アプリケーションが利用できるスループットを制限して、遅延の影響を受けやすいアプリケーションを稼働時間中に保護する機能があります。v9.5 Update 2 のリリースによって、Veeam は HX のネイティブ スナップショットを統合 した製品になりました。HX のネイティブ スナップショットでは、デルタ ディスク スナップショットによるパフォーマンスの低下が起こらず、スナップショットを削除する際の統合作用に影響を与えるサイズの大きなディスク IO が発生しません。
SQL の管理者にとって特に重要となるのは、Veeam Explorer for SQL です。Microsoft VSS フレームワーク内でのトランザクション レベルを回復させることができます。Veeam Explorer for SQL Server では SQL Server データベースの復元が可能で、バックアップ復元ポイントから、特定の時点までのログ再生から、特定のトランザクションまでのログ再生から、という 3 つの方法があります。その際に、VM または SQL Server をオフラインにする必要はありません。
Cisco HyperFlex HX Data Platform では、クローンは書き込み可能なスナップショットです。クローンを使用すると、テストや開発環境用に、仮想デスクトップやアプリケーションなどの項目を迅速にプロビジョニングできます。これらの高速でスペース効率の高いクローンにより、ストレージ ボリュームを迅速に複製可能です。そのため、仮想マシンをメタデータの操作だけで複製でき、実際のデータ コピーは書き込み操作に対してのみ実行されます。このアプローチでは、何百個ものクローンの作成や削除を数分で行えます。フルコピー方式と比較すると、このアプローチは時間を大幅に節約し、IT の俊敏性や生産性を高められます。
クローンは作成時に重複排除されます。それぞれのクローンに差が生じ始めた場合は、共通するデータは共有され、固有のデータのみが新たな記憶域に保存されます。差が生じたクローン内にあるデータ重複は、重複排除エンジンが排除し、クローンのストレージ フットプリントをさらに削減します。
Cisco HyperFlex HX Data Platform では、ログ構造の分散オブジェクト レイヤが新しいデータを複製し、データの可用性を高めます。設定したポリシーに基づき、書き込みキャッシュに書き込まれたデータは、異なるノードにある 1 台または 2 台の SSD ドライブに同時に複製されます。その後で、書き込み操作がアプリケーションに認識されます。このアプローチにより、新しい書き込みが迅速に認識されるとともに、SSD やノードの障害からデータを保護できます。SSD またはノードで障害が発生した場合、データの利用可能なコピーを使用して、別の SSD ドライブまたはノード上でレプリカが迅速に再作成されます。
ログ構造の分散オブジェクト レイヤは、書き込みキャッシュからキャパシティ レイヤに移動されたデータも複製します。この複製されたデータは、先ほどと同様に、SSD やノードの障害から保護されています。2 つのレプリカ(合計 3 つのデータ コピー)があるため、クラスタは 2 台の SSD ドライブ、または 2 台のノードで、関連性のない障害が発生しても対応でき、データ損失のリスクがありません。関連性のない障害とは、複数の物理ノードで発生する障害のことです。同じノード上で発生した障害は、同じデータのコピーに影響することから、単一の障害として扱われます。たとえば、ノードのあるディスクで障害が起き、続いて同じノードの別のディスクで障害が発生した場合、これらの関連する障害は、そのシステムでは 1 件の障害とみなされます。この場合、クラスタは、別のノードで関連性のない障害が発生しても耐えられる場合があります。フォールトトレラントな構成および設定の一覧については、Cisco HyperFlex HX Data Platform のシステム管理者ガイドを参照してください。
Cisco HyperFlex HX コントローラ ソフトウェアで問題が発生した場合、そのノード内にあるアプリケーションからのデータ要求は、クラスタ内の別のコントローラに自動で転送されます。この機能を使用すると、クラスタやデータの可用性に影響を与えずに、コントローラ ソフトウェアのアップグレードやメンテナンスをローリング方式で実施できます。この自己修復機能は、Cisco HyperFlex HX Data Platform が実稼働アプリケーションに最適な理由の 1 つです。
さらに、ネイティブ レプリケーションにより、ローカルまたはリモート クラスタに整合性のとれたクラスタ データが転送されます。ネイティブ レプリケーションを使用することで、ローカルまたはリモート環境のスナップショットを取得したり、特定の時点のコピーを格納したりすることができ、バックアップやディザスタ リカバリにもちいることができます。
分散ファイル システムには、堅牢なデータ リバランシング機能が必要です。Cisco HyperFlex HX Data Platform では、メタデータ アクセスでオーバーヘッドが生じず、リバランシングが極めて効率的です。リバランシングは、中断を伴わないオンライン プロセスであり、キャッシング レイヤと永続レイヤの両方で実行されます。データを詳細に特定して移動することで、ストレージ容量の使用を改善します。このプラットフォームでは、ノードやドライブが追加または削除された場合や、それらで障害が発生した場合に、既存データが自動でリバランスされます。新しいノードがクラスタに追加されると、その容量とパフォーマンスを新しいデータと既存データで利用可能になります。リバランシング エンジンは、既存データを新しいノードに分配し、クラスタ内にあるすべてのノードの容量とパフォーマンスが均等に使用されるようにします。ノードで障害が発生した場合や、ノードがクラスタから削除された場合は、リバランシング エンジンがデータのコピーを再構築し、それらのノードからクラスタ内にある利用可能なノードに分配します。
Cisco HyperFlex HX シリーズ システムと HX データ プラットフォームではオンライン アップグレードがサポートされており、業務を中断することなく、環境の更新や拡張を行えます。プロセッサ性能の追加、BIOS、ドライバ、ハイパーバイザ、ファームウェアのダウンロードおよびインストール、Cisco UCS Manager のアップデート、強化、バグ修正などの物理リソースの拡張を容易に行うことができます。
Cisco Nexus 93180YC-FX スイッチは、48 個の 10/25 Gbps Small Form Pluggable Plus(SFP+)ポートと 6 個の Quad 40/100 Gbps SFP+(QSFP+)アップリンク ポートを備えています。すべてのポートはラインレートであり、1 ラックユニット(1RU)のフォーム ファクタで 3.6 Tbps のスループットを提供します。Cisco Nexus 93180-YC-FX の利点を以下に示します。
· 1 ラック ユニット(1 RU)
· 1/10/25 Gbp ファイバ ポート x 48
· 40/100 Gbps QSFP28 ポート x 6
· 最大 3.6 Tbps の帯域幅
· 柔軟なポート設定が可能な Cisco ACI アーキテクチャのリーフ ノードのサポート
· シームレスなコンバージェンスが、1/10/25 Gbps のイーサネットか FCoE ポートまたは 8/16/32 Gbps ファイバ チャネル ポートとして動作可能な 48 個のダウンリンク ポートによって可能
· 40/100 Gbps イーサネットまたは FCoE ポートとして設定できる 6 個のアップリンク ポートによる簡単な移行
· Cisco ACI を使用した自動化されたポリシーベースのシステム管理
· オープン API によって、シスコ パートナーとサードパーティの統合が可能
· 40 MB の共有バッファ領域によるアクセス ポートとアップリンク ポート間のスピードの不一致の優れた管理
· バックエンド ストレージ接続でのファイバ チャネル インターフェイスのサポート
· 高性能な非ブロック アーキテクチャ
· ホットアイルまたはコールドアイルのいずれかの設定に簡単に導入可能
· ホットスワップが可能な冗長電源およびファン トレイ
· IT のワーク フローの自動化とアプリケーションの導入の週単位から分単位への短縮
· Cisco ACI マイクロセグメンテーションを使用したホワイトリスト モデル、ポリシーの適用およびアプリケーションのセキュリティ
· すべてのポートでのワイヤレート MACsec 暗号化
· 組み込みの Cisco Tetration センサーのサポートによる充実したトラフィック フロー テレメトリおよびラインレートのデータ収集機能
· 実用的なインサイトを1 秒未満で取得
· データセンター内のすべての可視性を実現
· 10 Gbps と 25 Gbps のアクセス接続および 40 Gbps と 100 Gbps のアップリンクのサポートのための柔軟な移行オプション
· シスコの 40 GB 双方向トランシーバを使用し、40 ギガビット イーサネット用に既存の 10 ギガビット イーサネット ケーブル設備の再利用が可能
· Cisco Nexus 9300-EX および 9300-FX プラットフォーム リーフ
· Switches for Cisco Application Centric Infrastructure データ シート
図 30 Cisco Nexus 93180YC-FX スイッチ
VMware では、仮想化ソフトウェアが提供されます。VMware のサーバ向けエンタープライズ ソフトウェア ハイパーバイザ(VMware vSphere ESX、vSphere ESXi、vSphere)は、基盤となるオペレーティング システムを追加することなく、サーバ ハードウェア上で直接実行できるベアメタル ハイパーバイザです。vSphere 用の VMware vCenter サーバでは、クラスタ、ホスト、仮想マシン、ストレージ、ネットワーク、および仮想インフラストラクチャ上の他の重要な要素に対し、一元管理、完全なコントロール、可視性を提供します。
VMware vSphere 6.5 により、vSphere ハイパーバイザ、VMware 仮想マシン、vCenter サーバ、仮想ストレージ、仮想ネットワークの機能が大きく強化され、vSphere プラットフォームのコア機能がさらに拡張されます。
· 移行ツール
· アプライアンスの管理の改善
· ネイティブな高可用性
· ネイティブなバックアップおよび復元
· vSphere Web クライアントおよび完全にサポートされている HTML5 ベースの vSphere クライアントを含む VCenter Server 6.5 の全般的な強化も実施。
· vSphere 6.5 を使用すると、管理者は、 デフォルトで有効になっている vSphere Update Manager による ESXi ホストの設定へのパッチ適用、アップグレードおよび管理が飛躍的が向上していることを確認できます。
· VMware ツールと仮想ハードウェアのアップグレード
· ホストのプロファイルと日常的な運用の改善
· 自動展開の管理機能および設定のルールの改善
· モニタリングの強化、GPU 使用状況をモニタするオプションの追加
· VMkernel ネットワーク アダプタの専用のゲートウェイ
· ストレージのポリシー ベースの管理を使用した VMware vSphere ストレージの I/O 制御
VMware Horizon は、統合型アーキテクチャ上に構築されたアプリケーションおよびデスクトップ仮想化ソリューションです。管理が容易で、あらゆる組織のユーザのニーズを満たすのに十分な柔軟性を備えています。オンプレミス導入と同じアーキテクチャと管理ツールを使用して、パブリック クラウド、プライベート クラウド、およびハイブリッド クラウドの導入を管理できます。
· サーバ ベースのホスト型セッションとも呼ばれる VMware Horizon 仮想マシンおよび RDSH:これは、Microsoft Windows サーバから任意のタイプのデバイス(Windows PC、Mac、スマートフォン、タブレットなど)にホストされるアプリケーションです。一部の VMware エディションには、モバイル デバイス上での Windows アプリケーションのユーザ エクスペリエンスをさらに最適化するテクノロジーが組み込まれています。たとえば、ネイティブ モバイル デバイスのディスプレイ、ナビゲーション、コントロールを自動的に Windows アプリケーションに変換し、モバイル ネットワーク上のパフォーマンスを向上させ、開発者があらゆるモバイル環境にカスタム Windows アプリケーションを最適化できるようになっています。
· サーバ ホスト型デスクトップとも呼ばれる VMware Horizon RDSH セッション ユーザ:これは、Windows サーバ オペレーティング システムからホストされる、低コストのロックダウン型 Windows 仮想デスクトップです。このデスクトップは、コール センターの従業員など、標準の一連作業を行うユーザに最適です。
VMware Horizon 7 バージョン 7.6 には、次の新機能および拡張機能が用意されています。
· 瞬時に複製
- 従来の View Composer のリンク クローンよりもさらに迅速なプロビジョニングを実行できる新しいタイプの仮想マシン。
- 完全に機能するデスクトップは、2 秒以内にプロビジョニングが可能です。
- スケジュールされたプール再作成の時間よりも前に親イメージを準備できるため、新しい OS イメージでのデスクトップ プールの再作成は、View Composer にかかるわずかな時間で達成できます。
- クローンのリバランシングは、使用可能なデータストア全体で自動的に行われます。
- View Storage Accelerator は自動的に有効になります。
- インスタント クローン デスクトップ プールと共に NVIDIA グリッド vGPU を使用できます。NVIDIA GRID vGPU を使用して PCoIP をディスプレイ プロトコルとして設定するのは技術プレビュー機能です。
- 大規模なインスタント クローン デスクトップ プールを作成する複数の vLAN ネットワークを選択することができます。静的ポート グループのみをサポートします。
- 内部 VM デバッグ モードを使用して、インスタント クローン デスクトップ プールまたはインスタント クローン ファームで内部仮想マシンのトラブルシューティングを行うことができます。
- 管理者は、vCenter Server が管理する仮想デスクトップの再起動またはリセットを実行できます。
- インスタント クローン仮想マシンのメンテナンスを実施するには、ESXi ホストをメンテナンス モードにします。ESXi ホストをメンテナンス モードにするには、vSphere Web クライアントを使用します。ESXi ホストのメンテナンス操作によって、その ESXi ホストから親仮想マシンが自動的に削除されます。
· VMware Blast Extreme
- Horizon プラットフォームでは、Blast Extreme が完全にサポートされています。
- NVIDIA グラフィックス カードでは、モニタが接続されていない物理マシンへの接続がサポートされています。これは、Horizon 7 バージョン 7.1 の技術プレビュー機能です。
- Blast セキュア ゲートウェイには Blast Extreme Adaptive Transport(BEAT)ネットワーキングが含まれており、さまざまな速度とパケット損失など、ネットワークの状態を動的に調整します。
- 管理者は、プール、ファーム、および権限付与のデフォルトまたは利用可能なプロトコルとして VMware Blast ディスプレイ プロトコルを選択できます。
- エンド ユーザは、リモート デスクトップおよびアプリケーションに接続するときに、VMware Blast ディスプレイ プロトコルを選択できます。
- VMware Blast Extreme 機能は次のとおりです。
§ TCP および UDP トランスポートのサポート
§ H.264 サポートによる多くのデバイス間での最適なパフォーマンス
§ バッテリ寿命の改善のためデバイス電力消費の削減
§ サーバあたりのグラフィカル ワークロードの増加、パフォーマンスの向上、およびリモート ユーザの優れたエクスペリエンスのための NVIDIA GRID アクセラレーション。
· True SSO
- VMware Identity Manager 統合のために、True SSO は、エンドツー エンドのログイン エクスペリエンスを合理化します。スマート カードまたは RSA SecurID または RADIUS トークンを使用してユーザが VMware Identity Manager にログインすると、リモート デスクトップまたはアプリケーションを使用するために Active Directory のクレデンシャルを入力する必要はありません。
- パスワードのない Windows ログインを有効にするには、短期間の Horizon 仮想証明書を使用します。
- ネイティブ Horizon Client または HTML アクセスのいずれかがサポートされています。
- True SSO のシステム ヘルス ステータスは、Horizon 管理者ダッシュ ボードに表示されます。
- 1 つのドメイン、複数のドメインに 1 つのフォレスト、複数のドメインにマルチ フォレストで使用できます。
· スマート ポリシー
- クリップボードのカット アンド ペースト、クライアント ドライブのリダイレクト、USB リダイレクト、および定義されたポリシーによる仮想印刷デスクトップ機能の制御。
- PCoIP プロファイルを介した PCoIP セッション制御。
- ユーザの場所、デスクトップ タギング、プール名、および Horizon Client レジストリ値に基づく条件付きポリシー。
· VMware Blast と PCoIP セッションのクリップボード メモリのサイズの設定
Horizon の管理者は、VMware Blast および PCoIP セッションの GPO の設定によってサーバのクリップボードのメモリのサイズを設定できます。Windows、Linux、および Mac OS X システムの Horizon Client 4.1 ユーザは、クライアントのクリップボードのメモリのサイズを設定できます。メモリのサイズは、サーバとクライアントのクリップボードのメモリのサイズ値より小さくするのが効果的です。
· VMware Blast ネットワーク リカバリの拡張機能
iOS、Android、Mac OS X、Linux、および Chrome の OS クライアントから開始された VMware Blast セッションでは、ネットワーク リカバリがサポートされています。以前は、ネットワーク リカバリは、Windows クライアント セッションでのみサポートされていました。VMware Blast セッション中に予期せずネットワーク接続が切断された場合は、Horizon Client がネットワークへの再接続を試行し、リモート デスクトップまたはアプリケーションの使用を続行できます。ネットワーク リカバリ機能は IP ローミングもサポートしています。これは、WiFi ネットワークへの切り替え後、VMware Blast セッションを再開できることを意味します。
· ログイン名を記憶しない Horizon 管理者の設定
Horizon 管理者はユーザ名の保存チェックボックスを表示しない、したがって管理者のログイン名を記憶しないように設定できます。
· Mac OS X ユーザによるクレデンシャルの保存を許可
Horizon 管理者は、Horizon Client Mac OS X システムがユーザのユーザ名、パスワード、およびドメイン情報を記憶するように接続サーバを設定できます。ユーザが自分のクレデンシャルを保存することを選択すると、後続の接続では、クレデンシャルが Horizon Client のログイン フィールドに追加されます。
· Windows 10
- Windows 10 は、デスクトップのゲスト オペレーティング システムとしてサポートされています。
- Horizon Client は Windows 10 で実行されます。
- Windows 10 ではスマート カードがサポートされています。
- Horizon ユーザ プロファイルの移行ツールは、Windows 7、8/8.1、Server 2008 R2、または Server 2012 R2 ユーザ プロファイルの Windows 10 ユーザ プロファイルへの移行を行います。
· RDS デスクトップとホストされるアプリ
- View コンポーザ。View コンポーザとリンク クローンは、RDS サーバ ファームを自動的かつ効率的に管理します。
- グラフィックス サポート。VDI デスクトップでの既存の 3D vDGA および GRID vGPU グラフィックス ソリューションは RDS ホストに拡張されており、グラフィックを多用するアプリケーションを RDS デスクトップおよびホストされるアプリで実行できます。
- ロード バランシングの拡張新しい機能では、メモリと CPU リソースに基づくサーバ ファーム アプリケーションのロード バランシングを提供します。
- 一方向の AD 信頼
一方向の AD 信頼ドメインがサポートされています。この機能により、Horizon 接続サーバが外部ドメイン内になくてもよい、ドメイン間の限定的な信頼関係をもつ環境が有効になります。
· クラウド ポッド アーキテクチャ(CPA)の拡張機能
- ホストされるアプリのサポート。アプリケーションのリモート処理のサポートにより、ポッド フェデレーション全体でグローバル権限を使用したアプリケーションの起動が可能になります。
- HTML アクセス(Blast)のサポート。ユーザは、HTML アクセスを使用してクラウド ポッド アーキテクチャ展開内のリモート デスクトップおよびアプリケーションに接続できます。
· アクセス ポイントの統合
- アクセス ポイントとは、インターネットからセキュアなリモート アクセスを可能にするためにセキュリティを強化した Linux ベースの仮想アプライアンスであり、仮想デスクトップとアプリケーションのリソースを保護します。アクセス ポイントは、Horizon 接続サーバへの新しい認証 DMZ ゲートウェイを提供します。アクセス ポイントでのスマート カードのサポートは、技術プレビューとして使用できます。セキュリティ サーバは引き続き、代替の設定として使用されます。詳細については、「アクセス ポイントの設定と配置」を参照してください。
· FIPS
- インストール時の FIPS モードにより、お客様は Horizon 6 を導入するための高度なセキュリティの要件を持つことができます。
· グラフィックスの拡張機能
- AMD vDGA を使用すると AMD グラフィックス ハードウェアの vDGA パススルー グラフィックが有効になります。
- 4K 解像度モニター(3840 x 2160)がサポートされます。
· Horizon 管理者の機能拡張
- Horizon 管理者には、ライセンス キー、名前付きのユーザ、およびユーザの同時接続数を含む追加のライセンス情報が表示されます。
- プールの作成が、Horizon 管理者による既存のプールのクローン化により簡素化されます。
· Horizon 7 による Linux デスクトップの拡張機能
- 管理される仮想マシンのサポート
- SSO を使用したスマート カードのリダイレクトのサポート
- iOS 向けの Horizon Client のサポート
- SLES 12 SP1 のサポート
- H.264 エンコーダ ソフトウェアのサポート
- RHEL/CentOS 7 デスクトップでの SSO サポート
True シングル サインオン(SSO)は RHEL 7 および CentOS デスクトップでサポートされています。
- サポートされるプラットフォームの追加
Ubuntu 18.04、RHEL/CentOS 6.10、および RHEL/CentOS 7.5 プラットフォームのサポートが追加されています。
- RHEL 7.1 以降のバージョンのインスタント クローンのサポート
RHEL 7.1 以降がインストールされているシステムで、インスタント クローンのフローティング デスクトップ プールを作成できます。
· 追加機能
- セキュリティ サーバでの VMware Blast Extreme を使用した IPv6 のサポート。
- Horizon 管理者セキュリティ保護レイヤ。詳細については、VMware ナレッジ ベース(KB)の記事 2144303 を参照してください。
- 不注意によるプールの削除に対する保護。
- RDS のデバイスごとのライセンスの改善。
- Intel vDGA のサポート。
- vDGA を使用した AMD マルチ ユーザー GPU のサポート。
- 復元力のあるアップグレード。
- Windows Horizon Client のスケーリングが表示されます。
- DPI スケーリングは、システム レベルで設定されていて、スケーリング レベルが 100 を超える場合にサポートされます。
· vSphere のサポート
- vSphere 6.5 U2 がサポートされています。
· バーチャル デスクトップ
- vGPU 対応の仮想デスクトップの vMotion サポート
VMware RDS ホスト セッションの説明を次に示します。
· RDS ホストは、リモート アクセス用のアプリケーションおよびデスクトップ セッションをホストするサーバ コンピュータです。RDS ホストには、仮想マシンまたは物理サーバを指定できます。
· RDS ホストには、Microsoft リモート デスクトップ サービス ロール、Microsoft リモート デスクトップ セッション ホスト サービス、および Horizon エージェントがインストールされています。リモート デスクトップ サービスは、以前はターミナル サービスと呼ばれていました。リモート デスクトップ セッション ホスト サービスにより、サーバはアプリケーションおよびリモート デスクトップのセッションをホストすることができます。RDS ホストにインストールされている Horizon エージェントを使用すると、ユーザは、ディスプレイ プロトコル PCoIP Blast Extreme を使用してアプリケーションやデスクトップ セッションに接続できます。両方のプロトコルにより、イメージ、オーディオ、およびビデオなどのリモート コンテンツの配信向けに最適化されたユーザ エクスペリエンスが提供されます。
· RDS ホストのパフォーマンスは、多くの要因によって異なります。Windows サーバのさまざまなバージョンのパフォーマンスを調整する方法については、http://msdn.microsoft.com/library/windows/hardware/gg463392.aspx を参照してください。
· Horizon 7 は、RDS ホスト上のユーザごとに最大 1 つのデスクトップ セッションおよび 1 つのアプリケーション セッションをサポートしています。
· ユーザが RDS デスクトップまたは同じ RDS ホストでホストされているアプリケーションから同時に印刷ジョブを送信すると、RDS 上の ThinPrint サーバは印刷要求を並列ではなくシリアルで処理します。これにより、一部のユーザに遅延が発生する可能性があります。プリント サーバは、印刷ジョブの完了を待機してから次のジョブを処理するわけではないことに注意してください。異なるプリンタに送信される印刷ジョブは、並列で印刷されます。
· ユーザがアプリケーションと RDS デスクトップも起動する場合、および両方が同じ RDS ホストでホストされている場合、それらは同じユーザ プロファイルを共有します。ユーザがデスクトップからアプリケーションを起動すると、両方のアプリケーションがユーザ プロファイルの同じ部分を変更しようとする場合に競合が発生する可能性があります。
· リモート アクセスのためにアプリケーションまたは RDS デスクトップを設定する手順では、次の作業が必要です。
· アプリケーションのインストール
- アプリケーション プールを作成する場合は、アプリケーションを RDS ホストにインストールする必要があります。インストールされているアプリケーションのリストを Horizon 7 に自動的に表示させる場合、スタート メニューからすべてのユーザが利用できるように、アプリケーションをインストールする必要があります。アプリケーション プールを作成する前であればいつでもアプリケーションをインストールすることができます。アプリケーションを手動で指定する場合、アプリケーション プールの作成前または後のいずれかであればいつでもアプリケーションをインストールすることができます。
· 重要
- アプリケーションをインストールするときに、ファーム内のすべての RDS ホスト上および各 RDS ホスト上の同じ場所にインストールする必要があります。そうしないと、View アドミニストレータ ダッシュ ボードにヘルスに関する警告が表示されます。このような状況では、アプリケーション プールを作成する場合に、アプリケーションを実行しようとするとエラーが発生する可能性があります。
- アプリケーション プールを作成する際に、Horizon 7 には、ファーム内のすべての RDS ホスト上で、スタート メニューから個々のユーザではなくすべてのユーザが利用可能なアプリケーションが自動的に表示されます。そのリストから任意のアプリケーションを選択できます。さらに、スタート メニューから一部のユーザが利用できるアプリケーションを手動で指定できます。RDS ホストにインストールできるアプリケーションの数に制限はありません。
VMware Horizon を使用すると、ユーザはデスクトップおよびアプリケーション プールを作成して、仮想マシン ベースのデスクトップ、セッション ベースのデスクトップ、物理コンピュータ、およびアプリケーションにリモート アクセスできます。Horizon は、Microsoft リモート デスクトップ サービス(RDS)および VMware PC over IP(PCoIP)テクノロジーを活用し、高品質のリモート アクセスをユーザに提供します。
· RDS ホスト
- RDS ホストは、Windows リモート デスクトップ サービスおよび View エージェントがインストールされているサーバ コンピュータです。 これらのサーバは、ユーザがリモートでアクセスできるアプリケーションおよびデスクトップ セッションをホストします。RDS デスクトップ プールまたはアプリケーションを使用するには、エンド ユーザは Horizon Client 3.0 以降のソフトウェアにアクセスできる必要があります。
· デスクトップ プール
- デスクトップ プールには自動、手動、および RDS の 3 つのタイプがあります。自動デスクトップ プールは、同一の仮想マシンのプールを作成するのに vCenter Server 仮想マシン テンプレートまたはスナップショットを使用します。手動のデスクトップ プールは、既存の vCenter Server 仮想マシン、物理コンピュータ、またはサード パーティ仮想マシンのコレクションです。自動または手動のプールでは、1 人のユーザが任意のタイミングでリモートでアクセスする際に各マシンを利用できます。RDS デスクトップ プールはマシンのコレクションではありませんが、RDS ホスト上のデスクトップ セッションをユーザに提供し、複数のユーザに RDS ホスト上のデスクトップ セッションを同時に設定できます。
· アプリケーション プール
- アプリケーション プールを使用すると、多くのユーザにアプリケーションを提供できます。アプリケーション プール内のアプリケーションは、RDS ホストのファームで実行されます。
· ファーム
- ファームは RDS ホストのコレクションであり、それらのホストの管理を容易にします。ファームには可変数の RDS ホストを設定でき、アプリケーションまたは RDS デスクトップの一般的なセットをユーザに提供します。RDS デスクトップ プールまたはアプリケーション プールを作成する際に、ファームを指定する必要があります。ファームの RDS ホストは、ユーザにデスクトップおよびアプリケーション セッションを提供します。
図 31 VMware Horizon アーキテクチャ概要
ますます増加し多様化するユーザ デバイス基盤、従来のデスクトップの管理における複雑さ、セキュリティ、
さらにはプログラムを機能させるための Bring Your Own Computer(BYO)など、仮想デスクトップ ソリューションを考慮すべき理由は数多くあります。仮想デスクトップ ソリューションの設計の最初のステップは、ユーザのコミュニティとそのロールを正常に実行するために必要なタスクのタイプを理解することです。次のサンプル ユーザ分類が提供されます。
· ナレッジ ワーカーは現在、ただオフィスで一日中作業するだけではありません。会議に出席し、支社を訪れ、
自宅やコーヒー ショップでさえも作業を行います。これらのさまざまな場所で働く作業者たちは、どこにいるとしてもすべて同じアプリケーションとデータへのアクセスを期待機体しています。
· 外部請負業者の存在は、ますます日常的なビジネスの一部になってきています。業者はアプリケーションや特定のデータへのアクセスを必要としますが、管理者はまだ彼ら業者に使用されるデバイスや、53 もの現場の制御はできません。このため、IT にとってこれらのユーザにデバイスを提供するコストと、これらのユーザに各自のデバイスからのアクセスを許可するセキュリティ リスクとが妥協点を見つける上での妨げになっています。
· タスク作業者は、一連の明確に定義されたタスクを実行します。作業者は、小規模なアプリケーション セットにアクセスし、自分の PC からの要件も限定されています。ただし、顧客やパートナー、従業員などと対話があるため、最も重要なデータへのアクセスをもっています。
· モバイル作業者は、ネットワークに接続する必要性に関係なく、どこからでも仮想デスクトップへアクセスできる必要があります。さらに、これらの作業者は、PC に独自のアプリケーションや、各自の写真や音楽といったデータを保存してパーソナライズすることを期待しています。
· 共用ワークステーション ユーザは、多くの場合、最先端の大学やビジネス コンピュータ ラボ、会議室やトレーニング センターにいます。共有ワークステーション環境には、組織のニーズが変化するときに優先して最新のオペレーティング システムとアプリケーションでデスクトップを再度プロビジョニングするという一定の要件があります。
ユーザの分類が特定され、各ユーザの分類のビジネス要件が定義されたら、ユーザの要件に基づいて必要な仮想デスクトップの種類を評価することが不可欠になります。各ユーザ向けに基本的には次の 5 つ潜在的なデスクトップ環境があります。
· 従来の PC:従来の PC は、一般的にデスクトップ環境を構成していたもの(ローカルにオペレーティング システムがインストールされた物理デバイス)です。
· ホステッド共有デスクトップ:ホステッド サーバベース デスクトップは、デリバリプロトコルを介してユーザが相互対話できるデスクトップです。ホステッド サーバベース デスクトップでは、Microsoft Windows Server 2012 または 2016 などのサーバ オペレーティング システムの単一のインストール済インスタンスが、複数のユーザにより同時に共有されます。各ユーザは、デスクトップ「セッション」を受信し、隔離されたメモリ スペースで作業します。1 人のユーザによって行われた変更は他のユーザに影響を与える可能性があります。
· ホステッド仮想デスクトップ:ホステッド仮想デスクトップは、仮想化レイヤ(ESX)またはベア メタル ハードウェアのいずれかで実行している仮想デスクトップです。ユーザがデスクトップで作業をしたりその前に座ったりしていなくても、代わりにデリバリ プロトコルを介してユーザは相互対話します。
· 公開アプリケーション:公開アプリケーションは VMware RDSH Session Host のみで実行され、ユーザはデリバリ プロトコルを介して対話します。公開アプリケーションの場合、インストールされた単一のアプリケーション インスタンス(Microsoft など)が複数のユーザによって同時に共有されます。各ユーザは、アプリケーション「セッション」を受信し、隔離されたメモリ スペースで作業します。
· ストリーミングされるアプリケーション:ストリーミングされるデスクトップやアプリケーションはユーザのローカル クライアント デバイスのみで実行され、要求に応じてサーバから送信されます。ユーザはアプリケーションやデスクトップと直接対話しますが、リソースはネットワークに接続している場合にのみ使用できます。
· ローカル仮想デスクトップ:ローカル仮想デスクトップは、ユーザのローカル デバイスのみで実行されるデスクトップで、ネットワークから切断されているときも作動し続けます。この場合、ユーザのローカル デバイスはタイプ 1 のハイパーバイザとして使用され、デバイスをネットワークに接続したときにデータセンターと同期されます。
このドキュメントにおける検証の目的は、Horizon 仮想デスクトップと リモートデスクトップ ホステッド セッションの両方のセッションが検証されることです。各セクションは、この環境のいくつかの基本的な設計上の決定を提供します。
デスクトップ ユーザ グループとサブグループが特定されたら、次のタスクはグループのアプリケーションとデータ要件のカタログ作成です。この作業は、VDI 計画の中で最も時間のかかるプロセスの 1 つですが、VDI プロジェクトを成功させるには不可欠です。アプリケーションやデータが特定されておらず同じ場所にあると、パフォーマンスに悪影響を及びます。
組織のさまざまなアプリケーションとデータのペアを分析するプロセスは、SalesForce.com などの包含クラウド アプリケーションにより複雑になる可能性があります。このアプリケーションとデータの分析は、このシスコ検証済みデザイン(CVD) の範囲外ですが、プランニング プロセスから除外するべきではありません。この重要な要素において組織を支援するために使用できるさまざまなサード パーティ製ツールがあります。
ユーザ グループ、アプリケーションおよびデータ要件を把握したら、プロジェクトとソリューション サイジングに関するいくつかの主要な確認事項を検討します。
プロジェクトに関する一般的な確認事項には、初期段階で対処しなければならないものもあります。次に例を挙げます。
· VDI のパイロット計画は、デスクトップ グループ、アプリケーション、データのビジネス分析に基づいて作成されているか。
· パイロット プログラムを実行する場所でインフラストラクチャと予算がありますか。
· VDI プロジェクトの実行に必要なスキル セットを利用できますか。それらを雇用または契約できますか。
· デスクトップ サブグループごとに特定されたエンド ユーザ エクスペリエンス パフォーマンス メトリックがありますか。
· 成功と失敗の評価基準をどうするか。
· 成功または失敗が将来に及ぼす影響は何ですか。
次のリストは、ユーザ サブグループごとに対処する必要があるサイジングに関する確認事項の一部です。
· 導入予定のデスクトップ OS は何か。Windows 7、Windows 8、Windows 10 のどれか。
· 32 ビット デスクトップ OS か、64 ビット デスクトップ OS か。
· パイロットでは何台の仮想デスクトップを導入するか。実稼働環境ではどうか。すべて Windows 7/8/10 か。
· 該当のデスクトップ グループのデスクトップには、メモリ容量はどれぐらい必要か。
· リッチ メディア、フラッシュ、またはグラフィックを多用するワークロードはあるか。
· エンド ポイント グラフィック処理機能は何ですか。
· リモート デスクトップ サーバ ホストセッション用の VMware RDSH は使用されるか。
· RDSH を使用すると導入予定のデスクトップ OS は何か。Server 2008、Server 2012、または Server 2016 のどれか。
· パイロットではいくつの RDSH セッションを導入するか。実稼働環境ではどうか。
· ソリューションのハイパーバイザとは何か。
· 既存環境のストレージ構成はどのようなものか。
· 書き込み集中型 VDI ワークロードに利用できる十分な IOPS があるか。
· VDI サービスに専用で調整されたストレージはあるか。
· デスクトップの音声コンポーネントはあるか。
· アンチウイルスはイメージの一部か。
· ユーザ プロファイル管理(非ローミング プロファイルベースなど)はソリューションに含まれているか。
· フォールト トレランス、フェールオーバー、ディザスタ リカバリ計画はどのようなものか。
· 追加のデスクトップ サブグループ固有の質問はあるか。
ますます増加し多様化するユーザ デバイス基盤、従来のデスクトップの管理における複雑さ、セキュリティ、
さらにはプログラムを機能させるための Bring Your Own Device(BYOD)デバイスなどが、仮想デスクトップ
ソリューションに移行する主な理由となります。
VMware Horizon 7 では、リモート デスクトップ サーバ ホステッド セッション ユーザおよび VDI デスクトップ仮想化テクノロジーがユニファイド アーキテクチャに統合され、拡張性および効率性に優れたシンプルで組み合わせユーザの扱いやすいソリューションによって Windows アプリケーションおよびデスクトップをサービスとして配信することができます。
ユーザは、タブレット、スマートフォン、PC、Mac、およびシン クライアントからアクセスできる使いやすい「ストア」からアプリケーションを選択できます。VMware Horizon は、携帯電話ネットワーク経由でも、PCoIP または Blast Extreme 高精細パフォーマンスによるネイティブ タッチ最適化エクスペリエンスを提供します。
同じ仮想マシン(VM)または物理コンピュータのコレクションは、デスクトップ プールと呼ばれる単一のエンティティとして管理されます。この CVD では、VM プロビジョニングは、VMware Horizon View 接続サーバおよび vCenter サーバ コンポーネントと連携する VMware View Composer に依存します。これらのプール内のマシンは、Windows サーバ 2016 (RDSH ホストテッド共有セッションの場合) または Windows 10 デスクトップ OS (リンク クローン、インスタント クローン、および永続的な VDI デスクトップの場合) のいずれかを実行するように設定されています。
サーバ OS マシンとデスクトップ OS マシンは、この CVD で、RDSH ホステッド共有デスクトップとさまざまな VDI ホステッド仮想デスクトップをサポートするように設定されていました。
図 32 VMware Horizon Design の概要
図 33 表示プロトコル(PCoIP/Blast/RDP)に基づく Horizon VDI および RDSH デスクトップデリバリ
VMware Horizon Composer は、一般的な仮想ディスクを共有する仮想マシン プールまたはデスクトップ プールを管理する機能を管理者に提供する、Horizonの機能です。管理者は、マスター イメージを更新でき、そのマスター イメージのリンク クローンを使用するすべてのデスクトップもパッチできます。マスターのイメージの更新により、ユーザのクローン デスクトップは、そのアプリケーション、データ、または設定を変更せずにパッチされます。
VMware View Composer プール デスクトップ ソリューションのインフラストラクチャは、ソフトウェア ストリーミング テクノロジーに基づいています。仮想デスクトップ プールのマスター イメージが作成および設定された後に、OS とホストにアクセスできるアプリケーションのスナップショットがとられます。
図 34 VMware Horizon Composer の概要
VMware View Storage Accelerator は、ESXi ホスト内のコンテンツベースの読み取りキャッシュ(CBRC)機能を使用する、メモリ内ホスト キャッシング機能です。CBRC は、ホスト単位の RAM ベースのソリューションを View デスクトップに提供します。それにより、ストレージ レイヤに発行される読み取り I/O 要求の数を大幅に削減することができます。また、大量の読み取り操作を引き起こしかねない、ブート ストーム(複数の仮想デスクトップが同時にブートすること)にも対応しています。CBRC は、管理者またはユーザがアプリケーションやデータを頻繁にロードする場合に便利な機能です。CBRC は、このソリューション(Cisco HyperFlex システム上でホストされたリンク クローン デスクトップのプールを実行している Horizon)で実施されたすべてのテストで使用されています。
複数の地域サイトがあれば、ユーザにデスクトップやアプリケーションを提供するために最も適切なサイトにユーザ接続を転送するいずれかのロード バランシング ツールを使用できます。
図 35 複数のサイトと、2 つのデータセンターで作成された 1 つのサイトを示しています。サイトを 1 つだけでなく 2 つグローバルに持つことで、不要な WAN トラフィックの量を最小限に抑えています。2 つの Cisco ブレード サーバは、必要なインフラストラクチャ サービス(ドメイン コントローラ、DNS、DHCP、プロファイル、SQL、VMware Horizon View 接続サーバ、View Composer サーバ、および Web サーバ)をホストします。
要件およびデータセンターまたはリモート ロケーションの数に基づいて、使用可能ないずれかのロード バランシング ソフトウェアまたはツールを選択し、アプリケーション パフォーマンスを加速し、サーバの負荷を分散させ、セキュリティを向上させ、ユーザ エクスペリエンスを最適化することができます。
複数のサイトの設定は例として表示されます。
VMware Horizon 7 では、アプリケーションまたはデスクトップをユーザに提供するために使用する方法は、ホストするアプリケーションやデスクトップのタイプ、使用可能なシステム リソース、ユーザのタイプ、および提供するユーザ エクスペリエンスによって異なります。
デスクトップ OS
|
要件:クライアントベースのセキュアなアプリケーション提供ソリューションによって集中管理を実現し、ホスト サーバ(またはハイパーバイザ)1 台あたりで数多くのユーザをサポートすると同時に、ユーザに高解像度でシームレスに表示されるアプリケーションを提供します。 ユーザ:社員、外部請負業者、サードパーティの協力者、および臨時のチーム メンバーが対象となります。ユーザには、ホストされているアプリケーションへのオフライン アクセスは必要ありません。 アプリケーション タイプ:他のアプリケーションと一緒では適切に動作しないアプリケーションや .NET フレームワークなどのオペレーティング システムと対話するアプリケーションが対象となります。これらのタイプのアプリケーションは、仮想マシン上のホストに最適です。 Windows XP または Windows Vista、および 32 ビットまたは 16 ビットなどの古いアーキテクチャなどの古いオペレーティング システムで実行されているアプリケーション。独自の仮想マシン上で各アプリケーションを分離することで、1 台のマシンで障害が発生しても、他のユーザには影響を与えません。 |
リモート PC アクセス
|
要件:従業員が VPN を使用しなくても物理コンピュータにセキュアにリモート アクセスできるようにします。たとえば、ユーザは自分の物理 PC に自宅からまたはパブリック Wi-Fi ホット スポット経由でアクセスできます。場所に応じて、デスクトップ外での印刷やコピー&ペースト機能を制限することができます。このメソッドにより、デスクトップ イメージをデータセンターに移行せずに BYO デバイスをサポートできます。 ユーザ:自宅から作業するという選択肢はあっても、企業のデスクトップにある特定のソフトウェアやデータにリモートからアクセスする必要がある従業員や請負業者が対象となります。 ホスト:デスクトップ OS マシンと同じです。 アプリケーション タイプ:オフライン コンピュータから配信し、リモート ユーザのデバイスに高解像度でシームレスに表示するアプリケーションが対象となります。 |
このドキュメントで説明されている Cisco Validated Design の場合、RDS ベース サーバ OS マシンを使用するリモート デスクトップ サーバ ホストテッド セッション(RDSH)、およびインスタント クローン、リンク クローン自動化プール、およびフル クローン永続デスクトップを介してデスクトップ OS マシンを使用するホステッド仮想デスクトップ(HVD)の個々の設定が、設定されてテストされています。次のセクションでは、この CVD テスト環境を含む、VMware Horizon 導入に関連する設計決定について説明します。
導入されるアーキテクチャはモジュラです。お客様それぞれの環境はその正確な設定においては多様ですが、このドキュメントに記載されている参照アーキテクチャは、いったん構築されたとしても、要件や需要の変化に応じて容易に拡張できます。これにはスケールアップ(既存の Cisco HyperFlex システム内にさらにリソースを追加する)およびスケールアウト(Cisco UCS HX シリーズ ノードをさらに追加する)の両方が含まれます。
ソリューションには、Cisco ネットワーク、Cisco UCS、Cisco HyperFlex ハイパーコンバージド ストレージ(単一のデータセンター ラックに効率的に収まる)、アクセス レイヤ ネットワーク スイッチが含まれています。
この検証済み設計ドキュメントは、それぞれ次のソフトウェアを搭載している Horizon 仮想デスクトップまたは Horizon RDSH の公開デスクトップ ワークロードの、4400 ユーザにまで拡張する複数の設定の展開について詳述しています。
· Cisco HyperFlex の VMware Horizon 7 共有リモート デスクトップ サーバ ホスト (RDSH) セッション
· Cisco HyperFlex 上の VMware Horizon 7 非永続および永続仮想デスクトップ(VDI)
· User Profile Manager 用の Microsoft Windows Server 2016
· 実世界 VDI ワークロードをシミュレートするログイン VSI 管理およびデータ サーバ用の Microsoft Windows Sever 2016
· VMware vSphere ESXi 6.5.2 (Update 2) Hypervisor
· RDSH サーバ用の Windows Sever 2016 と VDI 仮想マシンの用の Windows 10 64 ビット オペレーティング システム
· Microsoft SQL Server 2016
· Cisco HyperFlex データ プラットフォーム v3.5(1a)
· 冗長性と最大 4400 シート スケールまでのサポートのための VMware Horizon 7 接続サーバおよび複製サーバ
· VMware Horizon 7 Composer Server
図 36 ソリューションを有効にするように設定された物理ハードウェア ケーブル配線を持つ詳細参照アーキテクチャ
ソリューションには、図 36に示すように次のハードウェアが含まれます。
· 2 台の Cisco Nexus 93180YC FX レイヤ 2 アクセス スイッチ
· 2 台の Cisco ファブリック インターコネクト 6332 UP
· 2 台の Cisco UCS C220 M4 ラック サーバ(デュアル ソケット Intel Xeon E5-2620v4 2.1-GHz 8 コア プロセッサ、128 GB の RAM 2133 MHz、およびホステッド インフラストラクチャ用の VIC1227 mLOM カードを搭載)、N+1 サーバ フォールト トレランスを備えたもの。(図には表示されません)。
· 仮想デスクトップ ワークロード用に Cisco HyperFlex データ プラットフォーム v3.5(1a) を実行する、16 台の Cisco UCS HXAF220c-M5S ラック サーバ(Intel Xeon ゴールド 6140 スケーラブル ファミリ 2.3 GHz 18 コア プロセッサ、768 GB の RAM 2666 MHz、VIC1387 mLOM カードを搭載)、N+1 サーバ フォールト トレランスを備えたもの。
· 8 つの Cisco UCS C220 M5 ラック サーバ インテル Xeon ゴールド 6140 スケーラブルなファミリ 2.3 GHz 18 コア プロセッサ、768 GB の RAM 2666 MHz と N + 1 サーバ耐障害性で実行して、Cisco HyperFlex データ プラットフォーム v3.5(1a) 仮想デスクトップのワークロードの VIC1387 mLOM カード
· 8 つの UCS B200 M5 ブレード サーバ インテル Xeon ゴールド 6140 スケーラブルなファミリ 2.3 GHz 18 コア プロセッサ、768 GB の RAM 2666 MHz と N + 1 サーバ耐障害性で実行して、Cisco HyperFlex データ プラットフォーム v3.5(1a) 仮想デスクトップのワークロードの VIC1340 mLOM カード。
表 3 この学習で使用されているソフトウェアおよびファームウェアのバージョンを一覧表示します。
ベンダー |
製品 |
バージョン |
シスコ |
UCS コンポーネント ファームウェア |
4.0(1b) バンドル リリース |
シスコ |
UCS Manager |
4.0(1b) バンドル リリース |
シスコ |
UCS HXAF220c-M5S ラックサーバ |
4.0(1b) バンドル リリース |
シスコ |
VIC 1387 |
4.2(2b) |
シスコ |
UCS B200 M5 ブレード サーバ |
4.0(1b) バンドル リリース |
シスコ |
VIC 1340 |
4.2(2d) |
シスコ |
HyperFlex Data Platform |
3.5.1a |
シスコ |
Cisco NENIC |
2.1.2.71 |
シスコ |
Cisco fNIC |
1.6.0.37 |
Network |
Cisco Nexus 9000 NX-OS |
7.0(3)I7(2) |
VMware |
Horizon 接続サーバ |
7.6.0-9823717 |
VMware |
Horizon Composer サーバ |
7.6.0-9491669 |
VMware |
Horizon エージェント |
7.6.0-9539447 |
VMware |
Horizon クライアント |
4.9.0-9539668 |
VMware |
vCenter Server アプライアンス |
6.5.0-5973321 |
VMware |
vSphere ESXi 6.5 Update 2 |
6.5.2.U2-8935087 |
このソリューションの論理アーキテクチャが共有ホステッド 4400 RDSH までサポート サーバのデスクトップ ユーザとホステッド仮想 Microsoft Windows 10 内のデスクトップに 16 ノード Cisco UCS HXAF220c-M5S、
8 つ Cisco UCS C220 M5S および 8 つの Cisco UCS B200 M5 に設計されています HyperFlex クラスタには、各ワークロードのタイプの物理的な冗長化を提供します。
図 37 論理アーキテクチャ設計
表 3 このソリューションのソフトウェアのバージョンを一覧表示します。
このドキュメントは、環境を完全に設定できるようにすることを意図しています。このプロセスでは、さまざまな手順で、お客様固有の命名規則、IP アドレス、VLAN スキームを挿入したり、適切な MAC アドレスを記録することが必要になります。表 4 ~ 表 8 では環境を設定する必要がある情報が一覧表示されています。
環境に推奨される VLAN の設定には、次で概説されている合計で 7 つの VLAN が含まれています。表 4
表 4 表 2:この学習で設定されている VLAN
VLAN 名 |
VLAN ID |
VLAN の目的 |
デフォルト |
1 |
ネイティブ VLAN |
Hx-in-Band-Mgmt |
50 |
インバンド管理インターフェイス用の VLAN |
Infra-Mgmt |
51 |
仮想インフラストラクチャ用の VLAN |
hx-storage-data |
52 |
VLAN for HyperFlex Storage |
Hx-vmotion |
53 |
VLAN for VMware vMotion |
Vm-network |
54 |
VDI トラフィックの VLAN |
OOB-Mgmt |
132 |
アウトオブバンド管理インターフェイス用の VLAN |
物理デバイス管理用の専用のネットワークまたはサブネットがデータセンターで頻繁に使用されます。このシナリオでは、2 つのファブリック インターコネクトの mgmt0 インターフェイスが専用のネットワークまたはサブネットに接続されます。これは、次の警告をクリアすれば、HyperFlex のインストールにとって有効な設定です。HyperFlex インストーラを導入する場合は、必ず、ファブリック インターコネクトの mgmt0 インターフェイスのサブネットに IP 接続し、上記 hx-inband-mgmt VLAN で使用されるサブネットにも IP 接続する必要があります。
hx-storage-data VLAN とサブネットを通過するすべての HyperFlex ストレージ トラフィックがジャンボ フレームを使用するように設定されます。正確に言えば、すべての通信が、最大伝送ユニット(MTU)サイズが 9000 バイトの IP パケットを送信するように設定されます。より大きな MTU 値を使用するということは、送信される各 IP パケットがより大きなペイロードを伝送することを意味するため、パケットあたりに送信するデータ量が増え、結果的にデータの送受信が高速化します。この要件は、Cisco UCS アップリンクを、ジャンボ フレームを通過させるように設定する必要があることも意味します。Cisco UCS アップリンク スイッチでジャンボ フレームを許可するように設定できなかった場合は、一部の障害シナリオで、特に、ケーブルやポートの障害によってストレージ トラフィックがノースバウンド Cisco UCS アップリンク スイッチを通過したときに、サービスの中断につながる可能性があります。
3 つの VMware クラスタは、ソリューションとテスト環境をサポートする 1 つの vCenter データセンター インスタンスに構成されました。
· インフラストラクチャ クラスタ:インフラストラクチャ VM(vCenter、Active Directory、DNS、DHCP、SQL Server、VMware Horizon 接続サーバ、VMware Horizon 複製サーバ、VMware Horizon Composer サーバ、および HyperFlex データ プラットフォーム インストーラなど)。
· HyperFlex クラスタ: VMware Horizon RDSH VM(Windows Server 2016)または永続/非永続 VDI VM プール(Windows 10 64 ビット)。
HyperFlex リリース v3.0 以降では、32 の HXAF シリーズ HXAF220 または HXAF240 および 32 のコンピューティング専用ノードがある単一の VMware クラスタをサポートしています。詳細については、次を参照してください。https://www.cisco.com/c/en/us/td/docs/hyperconverged_systems/HyperFlex_HX_DataPlatformSoftware/Cisco_HXDataPlatform_RN_3_0.html
· VSI ランチャ クラスタ:ログイン VSI クラスタ(ログイン VSI ランチャ インフラストラクチャは、同じスイッチのセットと vCenter インスタンスを使用して接続されていますが、別のローカル ストレージとサーバ上でホストされています)。
図 38 VSphere Web GUI の VMware vSphere クラスタ
以降の項では、VMware ESXi ハイパーバイザ内の要素の設計、システム要件、仮想ネットワーキング、および Cisco HyperFlex HX Distributed Data Platform 用の ESXi の設定について詳しく説明します。
Cisco HyperFlex システムは、ESXi ハイパーバイザ レベルで事前定義された仮想ネットワーク設計を備えています。4 つの異なる仮想スイッチが HyperFlex インストーラによって作成され、それぞれが、UCS サービス プロファイルで定義された vNIC から提供される 2 つのアップリンクを使用します。作成される vSwitch は次のとおりです。
· vswitch-hx-inband-mgmt:これは、自動インストールの一部として ESXi キックスタート ファイルによって名前変更されるデフォルト vSwitch0 です。デフォルト vmkernel ポート vmk0 が、標準の管理ネットワーク ポート グループ内に設定されます。スイッチは、ジャンボ フレームを含まない 2 つのアップリンク(ファブリック A 上のアクティブとファブリック B 上のスタンバイ)を使用します。ストレージ プラットフォーム コントローラ VM が個々の管理インターフェイスで接続するための 2 番目のポート グループが作成されます。VLAN は、vNIC テンプレートに割り当てられるネイティブ VLAN ではないため、ESXi/vSphere で割り当てられます。
· vswitch-hx-storage-data:この vSwitch は、自動インストールの一部として作成されます。vmkernel ポート vmk1 が、NFS を介した HX データストアへの接続に使われるインターフェイスであるストレージ ハイパーバイザ データ ネットワーク ポート グループ内に設定されます。スイッチは、ジャンボ フレームを必要とする 2 つのアップリンク(ファブリック B 上のアクティブとファブリック A 上のスタンバイ)を使用します。ストレージ プラットフォーム コントローラ VM が個々のストレージ インターフェイスで接続するための 2 番目のポート グループが作成されます。VLAN は、vNIC テンプレートに割り当てられるネイティブ VLAN ではないため、ESXi/vSphere で割り当てられます。
· vswitch-hx-vm-network:この vSwitch は、自動インストールの一部として作成されます。スイッチは、ジャンボ フレームを含まない 2 つのアップリンク(ファブリック A および B の両方でアクティブ)を使用します。VLAN は、vNIC テンプレートに割り当てられるネイティブ VLAN ではないため、ESXi/vSphere で割り当てられます。
· vmotion:この vSwitch が自動インストールの一部として作成されます。スイッチは、ジャンボ フレームを必要とする 2 つのアップリンク(ファブリック A 上のアクティブとファブリック B 上のスタンバイ)を使用します。VLAN は、vNIC テンプレートに割り当てられるネイティブ VLAN ではないため、ESXi/vSphere で割り当てられます。
次の表と図は、HyperFlex インストーラによって作成される ESXi 仮想ネットワーキング設計の詳細を示しています。
表 5 表:ESXi ホスト仮想スイッチの設定
仮想スイッチ |
ポート グループ |
アクティブ vmnic |
パッシブ vmnic |
VLAN IDs |
ジャンボ |
vswitch-hx-inband-mgmt |
管理ネットワーク ストレージ コントローラ管理ネットワーク |
vmnic0 |
vmnic4 |
hx-inband-mgmt |
No |
vswitch-hx-storage-data |
ストレージ コントローラ データ ネットワーク ストレージ ハイパーバイザ データ ネットワーク |
vmnic5 |
vmnic1 |
hx-storage-data |
Yes |
vswitch-hx-vm-network |
none |
vmnic2 vmnic6 |
none |
vm-network |
No |
vmotion |
none |
vmnic3 |
vmnic7 |
hx-vmotion |
Yes |
図 39 ESXi ネットワーク設計
VMDirectPath I/O は、あたかも VM 自体に属する物理デバイスであるかのように、ゲスト VM が ESXi ホスト内の PCI デバイスと PCIe デバイスに直接アクセスできるようにします(これを PCI パススルーともいいます)。ハードウェア デバイスに適切なドライバを使用して、ゲスト VM はすべての I/O 要求を物理デバイスに直接送信し、ハイパーバイザをバイパスします。Cisco HyperFlex システムでは、ストレージ プラットフォーム コントローラ VM がこの機能を使用して、Cisco HX シリーズ ラックマウント サーバ内の Cisco 12Gbps SAS HBA カードを完全に制御します。これによりコントローラ VM は、サーバに実装された物理ディスクにハードウェア レベルで直接アクセスでき、これらを使用して Cisco HX Distributed Filesystem が構築されます。Cisco SAS HBA に直接接続されたディスク、または SAS エクステンダを経由して SAS HBA に接続されたディスクのみが、コントローラ VM によって制御されます。SD カードなど、別のコントローラに接続された他のディスクは引き続き ESXi ハイパーバイザによって制御されます。VMDirectPath I/O 機能の設定は Cisco HyperFlex インストーラによって実行されるため、手動による設定手順は必要ありません。
Cisco HyperFlex システムの主要コンポーネントは、HyperFlex クラスタ内の各ノード上で動作するストレージ
プラットフォーム コントローラ仮想マシンです。複数のコントローラ VM が連動して Cisco HX Distributed Filesystem を形成および調整し、すべてのゲスト VM I/O 要求を処理します。これらのコントローラ VM は、Linux サービスや Windows サービスと同様の概念である 1 つの vSphere ESXi エージェントとして導入されます。ESXi エージェントは特定の 1 つのホストに関連付けられ、ESXi ハイパーバイザと一緒に開始および停止します。ハイパーバイザとエージェントの両方が開始するまで、システムはオンラインで準備ができているとは見なされません。それぞれの ESXi ハイパーバイザ ホストには、そのノードのコントローラ VM である 1 つの ESXi エージェントが導入され、それを他のホストに移動/移行することはできません。ESXi エージェントの集合が vSphere ESXi クラスタ内の 1 つの ESXi エージェンシーを介して管理されます。
ストレージ コントローラ VM は、Cisco HX Distributed Filesystem を管理および保守するカスタム ソフトウェアとサービスを実行します。コントローラ VM 内で動作するサービスとプロセスは、ESXi エージェントの一部としてエージェンシーに公開されないため、ESXi ハイパーバイザと vCenter サーバはどちらも、コントローラ VM から提供されるストレージ サービスに関する直接的な情報を入手できません。コントローラ VM の機能と Cisco HX Distributed Filesystem に対する管理と可視性は、vSphere クラスタを管理している vCenter サーバまたはアプライアンスに実装されたプラグインを介して提供されます。このプラグインは、vSphere Web Client の同じ Web ベースのインターフェイス内で動作しながら、コントローラ VM と直接通信することで、要求された情報を表示したり指示された設定変更を実行したりします。コントローラ VM、エージェント、エージェンシー、および vCenter プラグインの導入はすべて Cisco HyperFlex インストーラによって実行されるため、手動による設定手順は必要ありません。
コントローラ VM の物理ストレージの場所は、Cisco HXAF220c M5S ~ HXAF240c M5SX モデル サーバに似ています。ストレージ コントローラ VM には、ESXi 環境内の他の一般的な仮想マシンと運用上の違いはありません。この VM には、VMDirectPath I/O を介して制御される SAS HBA とは別の場所で利用可能なブート可能ルート ファイルシステムを含む仮想ディスクが必要です。モデルの設定の詳細を以下に示します。
Cisco UCS コンピューティング専用ノードには、M.2 SATA SSD ドライブからプロビジョニングされる、3.5 GB VMFS データストア上の軽量ストレージ コントローラ VM もまた配置されます。
新しい HyperFlex クラスタには仮想マシン ストレージ用に設定されたデフォルトのデータストアがないため、vCenter Web クライアント プラグインまたは HyperFlex Connect の GUI を使用してデータストアを作成する必要があります。vSphere High Availability データストア ハートビート要件を満たすために、少なくとも 2 つのデータストアを使用することを推奨します。ただし、このうち 1 つは非常に小さなデータストアにすることができます。重要な点として、すべての HyperFlex データストアがシン プロビジョニングされることに注意してください。つまり、これらの設定サイズが、HyperFlex クラスタで実際に使用可能なスペースを大幅に上回る可能性があります。実際のスペース使用量が原因で空きスペースの量が少なくなると、vCenter プラグインで HyperFlex システムによりアラートが発行され、これらのアラートが自動サポート メール アラートによって送信されます。HyperFlex クラスタ ファイル システムの全体的なスペース使用量は、デフォルトの重複排除機能と圧縮機能により最適化されます。
新しい HyperFlex クラスタでは、仮想マシン ストレージ用のデフォルト データストアが設定されていないため、vCenter Web Client プラグインを使用してデータストアを作成する必要があります。vSphere High Availability データストア ハートビート要件を満たすために、少なくとも 2 つのデータストアを使用することを推奨します。ただし、このうち 1 つは非常に小さなデータストアにすることができます。重要な点として、すべての HyperFlex データストアがシン プロビジョニングされることに注意してください。つまり、これらの設定サイズが、HyperFlex クラスタで実際に使用可能なスペースを大幅に上回る可能性があります。実際のスペース使用量が原因で空きスペースの量が少なくなると、vCenter プラグインで HyperFlex システムによりアラートが発行され、これらのアラートが自動サポート メール アラートによって送信されます。HyperFlex クラスタ ファイル システムの全体的なスペース使用量は、デフォルトの重複排除機能と圧縮機能により最適化されます。
図 40 データストアの例
ストレージ コントローラ VM は Cisco HX Distributed Data Platform の重要な機能を提供するため、HyperFlex インストーラは、コントローラ VM 用の CPU リソース予約を設定します。この予約により、ESXi ハイパーバイザ ホストの物理 CPU リソースがゲスト VM によって大量に消費されている状況で、コントローラ VM に最小レベルの CPU リソースが確実に提供されます。表 6 次の表に、ストレージ コントローラ VM の CPU リソース予約の詳細を示します。
表 6 コントローラ VM 用 CPU 予約
vCPU 数 |
共有 |
予約 |
制限 |
8 |
Low |
10800 MHz |
無制限 |
ストレージ コントローラ VM は Cisco HX Distributed Data Platform の重要な機能を提供するため、HyperFlex インストーラはコントローラ VM 用にメモリ リソース予約を設定します。この予約により、ESXi ハイパーバイザ ホストの物理メモリ リソースがゲスト VM によって大量に消費されている状況で、コントローラ VM に最小レベルのメモリ リソースが確実に提供されます。
表 7 次の表に、ストレージ コントローラ VM のメモリ リソース予約の詳細を示します。
表 7 コントローラ VM 用メモリ予約
サーバ モデル |
ゲスト メモリの量 |
全ゲスト メモリに対する予約 |
HX220c M5S HXAF220c M5S |
48 GB |
○ |
HX240c M5SX HXAF240c M5SX |
72 GB |
○ |
Cisco UCS コンピューティング専用ノードは軽量ストレージ コントローラ VM を備えており、この VM は 1 つの vCPU と 512 MB のメモリ予約でのみ設定されています。
このセクションでは、検証済みの完全なソリューションを生成するために、個々のコンポーネントで実行されたを設定や調整を詳述します。図 41 は、このソリューションの設定トポロジを示しています。
図 41 拡張性のある VMware Horizon 7 ワークロードの HyperFlex を使用した設定トポロジ
次のサブセクションでは、VMware Horizon 7 環境の物理接続の設定を詳述します。
このセクションの情報は、この Cisco Validated Design(CVD) 環境における物理的機器のケーブル配線の参照として提供されています。ケーブル配線要件を簡略化するために、ここに示した表ではローカルとリモートの両方のデバイスとポートの位置について記しています。
このセクションの表には、規定のサポートされている設定の詳細情報が含まれています。
このマニュアルでは、アウトオブバンド管理ポートが導入サイトの既存の管理インフラストラクチャに接続されていることを想定しています。これらのインターフェイスは、さまざまな設定手順で使用されます。
必ずこのセクションで示すケーブル配線手順に従ってください。従わない場合、特定のポート位置が指示されるので、後の導入手順で変更する必要が生じます。
図 36 Cisco Nexus 9000 と Cisco UCS ファブリック インターコネクトを使用した、VMware Horizon 設定のケーブル配線図を示します。
表 8 Cisco Nexus 93180 A-ケーブル配線の情報
ローカル デバイス |
ローカル ポート |
接続 |
リモート デバイス |
リモート ポート |
Cisco Nexus 93180 A
|
Eth1/1 |
10 GbE |
Cisco Nexus 93180 B |
Eth1/1 |
Eth1/2 |
10 GbE |
Cisco Nexus 93180 B |
Eth1/2 |
|
Eth1/3 |
10 GbE |
Cisco Nexus 93180 B |
Eth1/3 |
|
Eth1/4 |
10 GbE |
Cisco Nexus 93180 B |
Eth1/4 |
|
Eth1/11 |
10 GbE |
ランチャ FI-A |
Eth/29 |
|
Eth1/12 |
10 GbE |
ランチャ FI-A |
Eth/30 |
|
Eth1/13 |
10 GbE |
ランチャ FI-B |
Eth/29 |
|
Eth1/14 |
10 GbE |
ランチャ FI-B |
Eth/30 |
|
|
MGMT0 |
GbE |
GbE 管理スイッチ |
いずれか(Any) |
|
Eth1/15 |
10 GbE |
Infra-host-01 |
Port01 |
|
Eth1/16 |
10 GbE |
Infra-host-02 |
Port01 |
|
Eth1/49 |
40 GbE |
Cisco UCS ファブリック インターコネクト A |
Eth1/35 |
|
Eth1/50 |
40 GbE |
Cisco UCS ファブリック インターコネクト B |
Eth1/35 |
GbE 接続を必要とするデバイスでは、GbE 銅ケーブル SFP+s を使用 (GLC-T =)。
表 9 Cisco Nexus 93180 B-ケーブル配線の情報
ローカル デバイス |
ローカル ポート |
接続 |
リモート デバイス |
リモート ポート |
Cisco Nexus 93180 B
|
Eth1/1 |
10 GbE |
Cisco Nexus 93180 A |
Eth1/1 |
Eth1/2 |
10 GbE |
Cisco Nexus 93180 A |
Eth1/2 |
|
Eth1/3 |
10 GbE |
Cisco Nexus 93180 A |
Eth1/3 |
|
Eth1/4 |
10 GbE |
Cisco Nexus 93180 A |
Eth1/4 |
|
Eth1/11 |
10 GbE |
ランチャ FI-A |
Eth/31 |
|
Eth1/12 |
10 GbE |
ランチャ FI-A |
Eth/32 |
|
Eth1/13 |
10 GbE |
ランチャ FI-B |
Eth/31 |
|
Eth1/14 |
10 GbE |
ランチャ FI-B |
Eth/32 |
|
MGMT0 |
GbE |
GbE 管理スイッチ |
いずれか(Any) |
|
Eth1/15 |
10 GbE |
Infra-host-01 |
Port02 |
|
Eth1/16 |
10 GbE |
Infra-host-02 |
Port02 |
|
Eth1/49 |
40 GbE |
Cisco UCS ファブリック インターコネクト B |
Eth1/36 |
|
|
Eth1/50 |
40 GbE |
Cisco UCS ファブリック インターコネクト B |
Eth1/36 |
表 10 Cisco UCS ファブリック インターコネクト A ケーブル配線情報
ローカル デバイス |
ローカル ポート |
接続 |
リモート デバイス |
リモート ポート |
Cisco UCS ファブリック インターコネクト A
|
Eth1/1 |
40 GbE |
サーバ 1 |
Port01 |
Eth1/2 |
40 GbE |
サーバ 2 |
Port01 |
|
Eth1/3 |
40 GbE |
サーバ 3 |
Port01 |
|
Eth1/4 |
40 GbE |
サーバ 4 |
Port01 |
|
Eth1/5 |
40 GbE |
サーバ 5 |
Port01 |
|
Eth1/6 |
40 GbE |
サーバ 6 |
Port01 |
|
Eth1/7 |
40 GbE |
サーバ 7 |
Port01 |
|
Eth1/8 |
40 GbE |
サーバ 8 |
Port01 |
|
Eth1/9 |
40 GbE |
サーバ 9 |
Port01 |
|
Eth1/10 |
40 GbE |
サーバ 10 |
Port01 |
|
Eth1/11 |
40 GbE |
サーバ 11 |
Port01 |
|
Eth1/12 |
40 GbE |
サーバ 12 |
Port01 |
|
Eth1/13 |
40 GbE |
サーバ 13 |
Port01 |
|
Eth1/14 |
40 GbE |
サーバ 14 |
Port01 |
|
Eth1/15 |
40 GbE |
サーバ 15 |
Port01 |
|
Eth1/16 |
40 GbE |
サーバ 16 |
Port01 |
|
Eth1/17 |
40 GbE |
サーバ 17 |
Port01 |
|
Eth1/18 |
40 GbE |
サーバ 18 |
Port01 |
|
Eth1/19 |
40 GbE |
サーバ 19 |
Port01 |
|
Eth1/20 |
40 GbE |
サーバ 20 |
Port01 |
|
Eth1/21 |
40 GbE |
サーバ 21 |
Port01 |
|
Eth1/22 |
40 GbE |
サーバ 22 |
Port01 |
|
Eth1/23 |
40 GbE |
サーバ 23 |
Port01 |
|
Eth1/24 |
40 GbE |
サーバ 24 |
Port01 |
|
Eth1/25 |
40 GbE |
5108 IOM シャーシ A |
IOM-A/1/1 |
|
Eth1/26 |
40 GbE |
5108 IOM シャーシ A |
IOM A/1/2 |
|
Eth1/27 |
40 GbE |
Cisco Nexus 93180 A |
Eth1/49 |
|
Eth1/28 |
40 GbE |
Cisco Nexus 93180 B |
Eth1/49 |
|
MGMT0 |
GbE |
GbE 管理スイッチ |
いずれか(Any) |
|
L1 |
GbE |
Cisco UCS ファブリック インターコネクト B |
L1 |
|
L2 |
GbE |
Cisco UCS ファブリック インターコネクト B |
L2 |
表 11 Cisco UCS ファブリック インターコネクト B ケーブル配線情報
ローカル デバイス |
ローカル ポート |
接続 |
リモート デバイス |
リモート ポート |
Cisco UCS ファブリック インター
|
Eth1/1 |
40 GbE |
サーバ 1 |
Port02 |
Eth1/2 |
40 GbE |
サーバ 2 |
Port02 |
|
Eth1/3 |
40 GbE |
サーバ 3 |
Port02 |
|
Eth1/4 |
40 GbE |
サーバ 4 |
Port02 |
|
Eth1/5 |
40 GbE |
サーバ 5 |
Port02 |
|
Eth1/6 |
40 GbE |
サーバ 6 |
Port02 |
|
Eth1/7 |
40 GbE |
サーバ 7 |
Port02 |
|
Eth1/8 |
40 GbE |
サーバ 8 |
Port02 |
|
Eth1/9 |
40 GbE |
サーバ 9 |
Port02 |
|
Eth1/10 |
40 GbE |
サーバ 10 |
Port02 |
|
Eth1/11 |
40 GbE |
サーバ 11 |
Port02 |
|
Eth1/12 |
40 GbE |
サーバ 12 |
Port02 |
|
Eth1/13 |
40 GbE |
サーバ 13 |
Port02 |
|
Eth1/14 |
40 GbE |
サーバ 14 |
Port02 |
|
Eth1/15 |
40 GbE |
サーバ 15 |
Port02 |
|
Eth1/16 |
40 GbE |
サーバ 16 |
Port02 |
|
Eth1/17 |
40 GbE |
サーバ 17 |
Port02 |
|
Eth1/18 |
40 GbE |
サーバ 18 |
Port02 |
|
Eth1/19 |
40 GbE |
サーバ 19 |
Port02 |
|
Eth1/20 |
40 GbE |
サーバ 20 |
Port02 |
|
Eth1/21 |
40 GbE |
サーバ 21 |
Port02 |
|
Eth1/22 |
40 GbE |
サーバ 22 |
Port02 |
|
Eth1/23 |
40 GbE |
サーバ 23 |
Port02 |
|
Eth1/24 |
40 GbE |
サーバ 24 |
Port02 |
|
Eth1/25 |
40 GbE |
5108 IOM シャーシ B |
IOM-B/1/1 |
|
Eth1/26 |
40 GbE |
5108 IOM シャーシ B |
IOM-B/1/2 |
|
Eth1/35 |
40 GbE |
Cisco Nexus 93180 A |
Eth1/50 |
|
Eth1/36 |
40 GbE |
Cisco Nexus 93180 B |
Eth1/50 |
|
MGMT0 |
GbE |
GbE 管理スイッチ |
いずれか(Any) |
|
L1 |
GbE |
Cisco UCS ファブリック インターコネクト B |
L1 |
|
L2 |
GbE |
Cisco UCS ファブリック インターコネクト B |
L2 |
図 42 Cisco Nexus 93180 A と B から Cisco UCS 6332 ファブリック A と B までのケーブル接続
このセクションでは、Cisco HyperFlex インストーラによりインフラストラクチャ ビルドの一部として実行された Cisco UCS 設定について詳述します。設定要素の多くは元々固定ですが、HyperFlex インストーラが VLAN 名と ID や IP プールなどの一部の項目を作成時に指定できるようにします。インストール中に手動で要素を設定できますが、そのような項目は <<>> カッコ付きで示されます。
ラック、電源、およびシャーシの設置の詳細については、インストール ガイドで説明されており(www.cisco.com/c/en/us/support/servers-unified-computing/ucs-manager/products-installation-guides-list.html を参照)、このマニュアルの範囲外です。各手順の詳細については、次のドキュメントを参照してください。Cisco UCS Manager コンフィギュレーション ガイド:GUI および CLI(コマンド ライン インターフェイス)Cisco UCS Manager - 設定ガイド - Cisco
HyperFlex のインストール中に、「hx-cluster」という名前の Cisco UCS 下部組織が作成されます。この下部組織は Cisco UCS 階層のルート レベルの下に作成され、HyperFlex で使用されるすべてのポリシー、プール、テンプレート、およびサービス プロファイルを保存するために使用されます。この配置を使用すれば、必要に応じて、ロールベース アクセス コントロール(RBAC)と管理ロケールを使用した組織管理を後で実現できます。この方法では、ルート レベル要素や他の下部組織の要素の管理とは別に、Cisco UCS ドメインの HyperFlex 固有の要素のみの管理を管理者に付与できます。
図 43 Cisco UCS Manager の設定:HyperFlex 下部組織
HyperFlex データ プラットフォームを展開および設定するには、次の手順を実行します。
1. タイムゾーンと NTP の設定:Cisco UCS Manager の Admin タブから、タイムゾーンを設定し、NTP サーバを追加します。変更を保存します。
2. サーバ ポートの設定: Equipment タブで、ファブリック A を選択し、HyperFlex ラック サーバを Cisco UCS Manager から管理するためのサーバ ポートとして設定するポートを選択します。
3. ファブリック B でサーバ ポートを設定するには、この手順を繰り返します。
4. アップリンク ポートの設定:ファブリック Aで、ノース バウンド スイッチへのネットワーク接続のアップリンク ポートとして設定するポートを選択します。
5. 同じことをファブリック B で繰り返します
6. ポート チャネルの作成:LAN タブで、Expand LAN > LAN cloud > Fabric A を選択します。Port Channel を右クリックします。
7. Cisco UCS のベスト プラクティスに従って、Create port-channel を選択してアップストリーム スイッチで接続します。当社の参照アーキテクチャの場合、Nexus 93180 スイッチのペアと接続しています。
8. ポートチャネル ID 番号と作成する名前を入力し、Next をクリックします。
9. ポートチャネルの一部として追加するアップリンク ポートを選択します。
10. Finish をクリックします。
11. ファブリック B でポートチャネルを作成するには、別のポートチャネル ID を使用して、前の手順に従います。
12. QoS システム クラスの設定:LAN タブのLan Cloud node から、QoS システム クラスを選択し、次の図に示すとおり、Platinum から Bronze までのシステム クラスを設定します。
a. MTU を 9216 を Platinum(ストレージ データ)と Bronze(vMotion)に設定します。
b. Platinum クラスで Enable Packet drop をオフします。
c. Platinum と Gold のプライオリティ クラスの重みを 4 に設定し、他のすべてをベストエフォートに設定します。
d. Silver クラスのマルチキャストを有効にします。
6300 シリーズ ファブリック インターコネクトでの QoS システム クラス設定の変更には、ファブリック インターコネクト(FI)のリブートが必要です。
13. UCS Manager ソフトウェアのバージョンを確認します。Equipment タブで、Firmware Management > Installed Firmware を選択します。
14. ファブリック インターコネクトと Cisco USC Manager の両方が Cisco UCS Manager v4.0.1a で設定されていることを確認します。
設計どおりに HX インストーラがサーバ ファームウェアのアップグレードを自動的に処理できるようにすることをお勧めします。サービス プロファイルが自動展開プロセス中に HX ノードに適用されると、これが発生します。
15. オプション:Cisco UCS Manager の扱いに精通しているかまたはインストールをさらに小さな単位に分割することを希望しているのであれば、サーバ自動ファームウェア ダウンロードを使用してノードで正しいファームウェアを事前ステージングできます。これにより、2 つの個別リブート操作を実行する代わりに、HyperFlex インストーラのアソシエーション時間を短縮できます。インストールが 1 箇所で実行されている場合には、この方法は必要なく推奨もされません。
Cisco.com から最新のインストーラ OVA をダウンロードします。ソフトウェア ダウンロード リンク:
https://software.cisco.com/download/home/286305544/type/286305994/release/3.5%25281a%2529
環境内の既存のホストに OVA を導入します。既存の vCenter シック クライアント(C#)または vSphere Web クライアントのいずれかを使用して、ESXi ホスト上に OVA を導入します。このドキュメントでは、Web クライアントから OVA を導入する手順について説明します。
Web クライアントから OVA を導入するには、次の手順を実行します。
1. vCenter 管理 IP アドレス https://<FQDN または VC の IP アドレス >:9443/vcenter-client を使用して Web ブラウザにログインして、vCenter Web クライアントにログインします。
2. HyperFlex データ プラットフォーム インストーラ VM を導入する場合は、ホストとクラスタの下で ESXi
ホストを選択します。
3. ESXi ホストを右クリックし、Deploy OVF Template を選択します。
4. 導入の手順に従って、HyperFlex データプラットフォーム インストーラ VM の導入を設定します。
5. 導入する OVA ファイルを選択し、Next をクリックします。
6. 展開する OVF テンプレートの詳細を確認して、Next クリックします。
7. テンプレートで導入する OVF の名前を入力し、データセンターとフォルダの場所を選択します。Next をクリックします。
8. 仮想ディスク形式を選択し、VM ストレージ ポリシーをデータストアのデフォルトに設定し、OVF 導入用のデータストアを選択します。Next をクリックします。
9. ネットワーク アダプタ宛先ポートグループを選択します。
10. ホスト名、ゲートウェイ、DNS、IP アドレス、ネットマスクに必要なパラメータを入力します。または、DHCP で割り当てられるアドレス用にすべてを空白のままにします。
単一の DNS サーバのみを提供します。複数の DNS サーバを入力すると、クエリが失敗します。vCenter に接続して OVA ファイルを展開し、IP アドレスのプロパティを指定する必要があります。ESXi ホストから直接展開しても、値を正しく設定することはできません。
これらのネットワーク間の内部にファイアウォール ルールがある場合、TAC に問い合わせてください。
必要な場合、OVF の導入が正常に完了した後、その他のネットワーク アダプタは HyperFlex プラットフォーム インストーラ VM を追加できます。たとえば、個別のインバンドおよび管理外ネットワークの場合、次のスクリーン ショットを参照してください。
11. OVF 導入の設定が選択された部分を確認して、導入後に電源オンのチェックボックスをクリックします。
Finish をクリックします。
HyperFlex インストーラ VM のデフォルトのクレデンシャルは、ユーザ名が root、パスワードが Cisco123 です。
HX インストーラ VM への SSH を使用し、HyperFlex インストーラ VM が DNS 解決に設定されていることを確認します。そうでない場合は設定します。
root@Cisco-HX-Data-Platform-Installer: # more /etc/network/eth0.interface
auto eth0
iface eth0 inet static
metric 100
address 10.10.50.18
netmask 255.255.255.0
gateway 10.10.50.1
dns-search vdilab-hc.local
dns-nameservers 10.10.51.21 10.10.51.22
root@Cisco-HX-Data-Platform-Installer:~# more /run/resolvconf/resolv.conf
# Dynamic resolv.conf(5) file for glibc resolver(3) generated by resolvconf(8)
# DO NOT EDIT THIS FILE BY HAND -- YOUR CHANGES WILL BE OVERWRITTEN
nameserver 10.10.51.21
nameserver 10.10.51.22
search vdilab-hc.local
Cisco HyperFlex クラスタを設定するには、次の手順を実行します。
1. Web ブラウザで HX インストーラ VM にログインします。http://<Installer_VM_IP_Address>
1. 8 つの Cisco HXAF220c M5S ノードで新しい HyperFlex クラスタを導入するために、クラスタ作成のワークフローを選択します。
2. 資格情報のページでは、Cisco UCS Manager、vCenter Server、ハイパーバイザのアクセスの詳細を入力します。Continue をクリックします。
3. 関連付けられていないすべてのサーバを選択するには、HyperFlex インストーラの右上隅にある 1 番上のチェック ボックスをオンにします。(HyperFlex サーバの使用可能なサブセットを設定するには、個別のサーバについて手動でクリックします。)
4. サーバの選択を終えた後に、Continue をクリックします。
必要なサーバ ポートはインストーラ ワークフローから設定できますが、サーバの検出の実行には時間がかかります。したがって、前述の HyperFlex インストーラのワークフロー開始前の前提条件セクションで説明されているとおり、サーバ ポートの設定と完全な HX ノードのディスカバリは、Cisco UCS Manager で行うことをお勧めします。
インストーラでサーバ ポートの設定を許可することを選択する場合は、次の手順を実行します。
1. Server Selection ウィンドウの右上隅にあるConfigure Server Ports をクリックします。
2. 各ファブリック インターコネクトに次の形式でポート番号を指定します。
A1/x-y、B1/x-y ここで A1 と B1 はファブリック インターコネクト A と B を示し、x と y は各ファブリック インターコネクトでの開始ポート番号と終了ポート番号をそれぞれ示します。
3. Configure をクリックします。
4. Cisco UCS Manager の設定の詳細を入力します。
a. hx-inband-mgmt、hx-storage-data、hx-vmotion、vm-network を入力。
b. MAC プール プレフィックス:各 HX MAC アドレスプールに使用するプレフィックス。すべての Cisco UCS ドメイン間で他の MAC アドレス プールと衝突しないプレフィックスを選択してください。
c. MAC アドレス プール内のブロックには、次の形式があります。
- ${prefix}:${fabric_id}${vnic_id}:{service_profile_id}
- 最初の 3 つのバイトは、常に「00:25:B5」です。
最初の 3 つのバイトは、常に「00:25:B5」です。
5. 外部管理および CIMC/KVM へのアクセス用の IP アドレスのブロックを作成する、IP アドレスの範囲を入力します。
6. Cisco UCS ファームウェア バージョンは、HyperFlex v3.5(1a) をインストールするために必要な Cisco UCS Manager リリースである 4.0 (1 b) に設定されます。
7. HyperFlex クラスタ名を入力します。
8. Cisco UCS Manager で作成する組織名を入力します。
9. Continue をクリックします。
ハイパーバイザ設定を行うには、次の手順を実行します。
1. Configure Common Hypervisor Settings セクションで、次のように入力します。
- Subnet Mask
- Gateway
- DNS サーバ
2. Hypervisor Settings セクションで次のようにします。
- それらを順序どおり並べる場合は、Make IP Address and Hostnames Sequential チェック ボックスを選択します。
- 開始 IP アドレスを入力します。
- 開始ホスト名を指定するかまたは各ノードのスタティック IP アドレスとホスト名を手動で入力します。
3. Continue をクリックします。
IP アドレスを追加するには、次の手順を実行します。
IP Addresses ページが表示されたら、Management Hypervisor 列の下に、Hypervisor Configuration タブで設定された各ノードのハイパーバイザ IP アドレスが表示されます。
このページにさらに次の 3 つの列が表示されます。
· ストレージ コントローラ/管理
· ハイパーバイザ/データ
· ストレージ コントローラ/データ
データ ネットワークの IP アドレスは、ハイパーバイザおよびストレージ コントローラ仮想マシンによるストレージ アクセス用の vmkernel アドレスです。
1. IP Addresses ページで、Make IP Address and Hostnames Sequential ボックスをオンにするか、または次の要求された値の各ノードの IP アドレスを手動で入力します。
- ストレージ コントローラ/管理
- ハイパーバイザ/データ
- ストレージ コントローラ/データ
2. 構成された管理およびデータ サブネットの、サブネットおよびゲートウェイの詳細を入力します。
3. Continue をクリックして進みます。
4. Cluster Configuration ページで、次のクレデンシャルを入力します。
- クラスタ名
- クラスタ管理 IP アドレス
- クラスタ データ IP アドレス
- データ レプリケーション係数: 2 または 3。
- コントローラ VM パスワード
- vCenter の設定
§ vCenter データセンター名
§ vCenter クラスタ名
- System Services
§ DNS Server(s)
§ NTP サーバ
§ Time Zone
- Auto Support
§ Enable Auto Support チェック ボックスをクリックします。
§ メール サーバ
§ Mail Sender
§ ASUP 受信者
- Advanced Networking
§ Management vSwitch
§ Data vSwitch
- 詳細設定
§ チェックボックスをクリックして VDI のみの展開用に最適化します
§ データ ネットワーク上でジャンボ フレームの有効化
§ ディスク パーティションのクリーンアップ(オプション)
- vCenter シングルサインオン サーバ
- vCenter シングルサインオン サーバ
5. 構成の詳細情報は、次のスクリーン ショットで示すようには、Web ブラウザのページの右上隅の下向き矢印アイコンをクリックすることで、JSON ファイルにエクスポートできます。
6. 設定の詳細は、右側のセクションの Configuration ページで確認できます。資格情報のページで入力された IP アドレス、クラスタの展開と作成ワークフロー用のサーバ選択、Cisco UCS Manager の設定、ハイパーバイザの設定、IP アドレスに対して入力した詳細を確認します。
7. 詳細を確認後に Start をクリックします。
インストール ワークフローが開始されると、Cisco UCS Manager の検証が実行されます。
QoS システム クラスが HyperFlex インストーラの要件に従って定義されていない場合は、必要な変更を加えます。HyperFlex インストーラのワークフローではそれに応じて警告が生成されます。QoS システム クラスでの 6300 シリーズ ファブリック インターコネクトの変更には、FI のリブートが必要です。
8. 検証に成功したら、ワークフローは Cisco UCS Manager の設定を続行します。
9. Cisco UCS Manager の設定が正常に実行されたら、インストーラはハイパーバイザ設定に進みます。
10. ハイパーバイザの設定が正常に実行されたら、導入検証タスクが実行されます。これは導入タスクをストレージ コントローラ VM で実行する前に、必要なコンポーネントとアクセス性を確認します。
11. インストーラは、ハイパーバイザ設定の検証が成功した後に、導入タスクを実行します。
12. ESXi ホスト設定が正常に導入されたら、HyperFlex インストーラのコントローラ VM ソフトウェア コンポーネントは、クラスタを作成する前に検証をチェックします。
13. 検証に成功すると、インストーラは HyperFlex クラスタ サービスを作成して開始します。
14. HyperFlex インストーラ VM ワークフローが正常に完了したら、インストーラの GUI に作成されたクラスタの概要が表示されます。
この演習では、クラスタ拡張の一部として、コンピューティング ノードのワークフローを追加します。
コンピューティング専用ノードのサービス プロファイルを設定して、ESXi ハイパーバイザをインストールします。
コンピューティング ノード ワークフローを追加するには、次の手順を実行します。
1. Cisco UCS Manager にログインします。
2. 下位組織 hx-cluster で、次のようにします。
a. 既存の vMedia ポリシーでは、「HyperFlex」は、データ プラットフォーム インストーラ VM から ESXi イメージをブートする vMedia マウント詳細を追加します。
b. ホスト名/IP アドレス:Cisco UCS Manager とも通信できるデータ プラットフォーム インストーラ VM の IP アドレスを追加します。
3. 新しい変更に対応するには、既存のサービス プロファイル テンプレートを変更し、vMedia ポリシー経由で ESXi をインストールします。
4. 既存のサービス プロファイル テンプレート「compute-nodes」で、vMedia Policy タブを選択します。
5. Modify vMedia Policy をクリックします。
6. vMedia ポリシーのドロップダウンリストから、HyperFlex を選択します。
7. 既存のサービス プロファイル テンプレート「compute-nodes」で、Boot Order タブをクリックします。
8. Modify Boot Policyをクリックします。
9. ブート ポリシーのドロップダウン リストから、HyperFlexInstall を選択します。
10. 変更を保存します。
11. HyperFlex クラスタ サブ組織内にある「compute-nodes」更新サービス プロファイル テンプレートからサービス プロファイルを作成します。
12. 命名プレフィックスおよび作成するインスタンス数を追加します。
13. OK をクリックします。
14. ESXi インストールの後に、ESXi ホストで VLAN タグを割り当てます。スタティック IP アドレスの設定は、Configure Management Network セクションにあります。
15. HyperFlex データ プラットフォーム インストーラ WebUI にログインします。I know what I'm doing, let me customize my workflow をクリックします。
16. Deploy HX Software とExpand HX Cluster を選択します。Continue をクリックします。
17. vCenter Server と ESXi の資格情報を入力します。Continue をクリックします。
18. 展開するクラスタを選択し、Continue をクリックします。
コンピューティング ノードのみの拡張を実行するので、Cisco UCS Manager configuration タブにはサーバ レポートはありません。
19. Add Compute Server タブをクリックして、既存の HyperFlex クラスタに追加するコンピューティング専用ノード拡張の数を指定します。ストレージ クラスタにアクセスするハイパーバイザ管理 IP アドレスと vmkernel IP アドレスを入力します。Continue をクリックします。
20. クラスタ拡張ワークフローは、まず展開検証タスクを実行します。
21. HyperFlex コントローラ VM 作成および導入タスクの展開を実行します。
22. 拡張の検証を実行します。
23. 実行された拡張クラスタ ワークフローの概要。
クラスタの作成操作の一部として、HyperFlex インストーラは、HyperFlex 機能を前の手順で識別された vSphere vCenter に追加します。この機能により vCenter 管理者は、その vSphere Web クライアントから HyperFlex クラスタを完全に管理できます。
24. Launch vSphere Web Client をクリックします。
Cisco HyperFlex インストーラは、各コンバージドまたはコンピューティング専用ノード上でコントローラ VM を作成および設定します。使用される命名規則は、図 44 に示すように、「stctlvm-<Cisco UCS ノードのシリアル番号 >」です。
コントローラ VM の名前またはリソース設定を変更しないでください。
図 44 Cisco UCS ノードの命名規則
HyperFlex クラスタを正常にインストールした後で、以前に設定されたクレデンシャルを使用して、SSH を介したデータ プラットフォーム インストーラ VM にロギングすることで、post_install スクリプトを実行します。
組み込み post_install スクリプトは、次の図に示すように、HyperFlex クラスタ上で HA/DRS を有効にする、vMotion インターフェイスの vmKernel を設定する、ESXi ロギングのデータストアを作成するなどの基本的な最終設定タスクを自動化します。
1. スクリプトを実行するには、まず選択したツールを使用して、Cisco HyperFlex データ プラットフォーム
インストーラへのセキュア接続をその IP アドレスとポート 22 を使用して行います。
2. 以前に提供されたクレデンシャルで認証します。(ユーザ名:デフォルトの設定を変更していない場合、root
とパスワード Cisco 123 を使用します)。
3. 認証されたら、コマンド プロンプトで post_install を入力し、Enter キーを押します。
4. 有効な vCenter 管理者ユーザ名とパスワード、および vCenter url IP アドレスを入力します。
5. 続くプロンプトには「はい」を示す y を入力します。例外として、Add VM network VLANs? は y または n でシスコサポートに SMS 経由でのヘルス ステータスのデータを送信するかどうかを選択できます。
6. vmkernel IP を要求するプロンプトが表示されたら、各ホストの vMotion VLAN の要求されたユーザ クレデンシャル、vMotion ネットマスク、VLAN ID、IP アドレスを入力します。
7. post_install の入力と出力の例:
root@Cisco-HX-Data-Platform-Installer:root@Cisco-HX-Data-Platform-Installer:~#post_install Getting ESX hosts from HX cluster...
vCenter URL: 10.10.50.20
Enter vCenter username (user@domain): administrator@vsphere.local
vCenter Password:
Found datacenter VDILAB-HX
Found cluster HX-VDI-CL
Enable HA/DRS on cluster? (y/n) y
Disable SSH warning? (y/n) y
Add vmotion interfaces? (y/n) y
Netmask for vMotion: 255.255.255.0
VLAN ID: (0-4096) 53
vMotion IP for 10.10.50.27: 10.10.53.27
Adding vmotion to 10.10.50.27
Adding vmkernel to 10.10.50.27
vMotion IP for 10.10.50.28: 10.10.53.28
Adding vmotion to 10.10.50.28
Adding vmkernel to 10.10.50.28
vMotion IP for 10.10.50.29: 10.10.53.29
Adding vmotion to 10.10.50.29
Adding vmkernel to 10.10.50.29
vMotion IP for 10.10.50.30: 10.10.53.30
Adding vmotion to 10.10.50.30
Adding vmkernel to 10.10.50.30
vMotion IP for 10.10.50.31: 10.10.53.31
Adding vmotion to 10.10.50.31
Adding vmkernel to 10.10.50.31
vMotion IP for 10.10.50.32: 10.10.53.32
Adding vmotion to 10.10.50.32
Adding vmkernel to 10.10.50.32
vMotion IP for 10.10.50.33: 10.10.53.33
Adding vmotion to 10.10.50.33
Adding vmkernel to 10.10.50.33
vMotion IP for 10.10.50.34: 10.10.53.34
Adding vmotion to 10.10.50.34
Adding vmkernel to 10.10.50.34
Add VM network VLANs? (y/n) n
Enable NTP on ESX hosts? (y/n) y
Starting ntpd service on 10.10.50.27
Starting ntpd service on 10.10.50.28
Starting ntpd service on 10.10.50.29
Starting ntpd service on 10.10.50.30
Starting ntpd service on 10.10.50.31
Starting ntpd service on 10.10.50.32
Starting ntpd service on 10.10.50.33
Starting ntpd service on 10.10.50.34
Send test email? (y/n) n
Validating cluster health and configuration...
Found UCSM 10.29.132.11, logging with username admin. Org is hx-vdi-org
UCSM Password:
TChecking MTU settings
Pinging 10.10.52.107 from vmk1
Pinging 10.10.52.101 from vmk1
Pinging 10.10.52.105 from vmk1
Pinging 10.10.52.108 from vmk1
Pinging 10.10.52.102 from vmk1
Pinging 10.10.52.104 from vmk1
Pinging 10.10.52.106 from vmk1
Pinging 10.10.52.103 from vmk1
Setting vnic2 to active and vmnic3 to standby
Pinging 10.10.52.107 from vmk1
Pinging 10.10.52.107 with mtu 8972 from vmk1
Pinging 10.10.52.101 from vmk1
Pinging 10.10.52.101 with mtu 8972 from vmk1
Pinging 10.10.52.105 from vmk1
Pinging 10.10.52.105 with mtu 8972 from vmk1
Pinging 10.10.52.108 from vmk1
Pinging 10.10.52.108 with mtu 8972 from vmk1
Pinging 10.10.52.102 from vmk1
Pinging 10.10.52.102 with mtu 8972 from vmk1
Pinging 10.10.52.104 from vmk1
Pinging 10.10.52.104 with mtu 8972 from vmk1
Pinging 10.10.52.106 from vmk1
Pinging 10.10.52.106 with mtu 8972 from vmk1
Pinging 10.10.52.103 from vmk1
Pinging 10.10.52.103 with mtu 8972 from vmk1
Setting vmnic3 to active and vnic2 to standby
Pinging 10.10.50.33 from vmk0
Pinging 10.10.50.27 from vmk0
Pinging 10.10.50.31 from vmk0
Pinging 10.10.50.34 from vmk0
Pinging 10.10.50.28 from vmk0
Pinging 10.10.50.30 from vmk0
Pinging 10.10.50.32 from vmk0
Pinging 10.10.50.29 from vmk0
Setting vnic1 to active and vmnic0 to standby
Pinging 10.10.50.33 from vmk0
Pinging 10.10.50.27 from vmk0
Pinging 10.10.50.31 from vmk0
Pinging 10.10.50.34 from vmk0
Pinging 10.10.50.28 from vmk0
Pinging 10.10.50.30 from vmk0
Pinging 10.10.50.32 from vmk0
Pinging 10.10.50.29 from vmk0
Setting vmnic0 to active and vnic1 to standby
Pinging 10.10.53.27 from vmk2
Pinging 10.10.53.28 from vmk2
Pinging 10.10.53.29 from vmk2
Pinging 10.10.53.30 from vmk2
Pinging 10.10.53.31 from vmk2
Pinging 10.10.53.32 from vmk2
Pinging 10.10.53.33 from vmk2
Pinging 10.10.53.34 from vmk2
Setting vnic7 to active and vmnic6 to standby
Pinging 10.10.53.27 from vmk2
Pinging 10.10.53.27 with mtu 8972 from vmk2
Pinging 10.10.53.28 from vmk2
Pinging 10.10.53.28 with mtu 8972 from vmk2
Pinging 10.10.53.29 from vmk2
Pinging 10.10.53.29 with mtu 8972 from vmk2
Pinging 10.10.53.30 from vmk2
Pinging 10.10.53.30 with mtu 8972 from vmk2
Pinging 10.10.53.31 from vmk2
Pinging 10.10.53.31 with mtu 8972 from vmk2
Pinging 10.10.53.32 from vmk2
Pinging 10.10.53.32 with mtu 8972 from vmk2
Pinging 10.10.53.33 from vmk2
Pinging 10.10.53.33 with mtu 8972 from vmk2
Pinging 10.10.53.34 from vmk2
Pinging 10.10.53.34 with mtu 8972 from vmk2
Setting vmnic6 to active and vnic7 to standby
Network Summary:
Host: 10.10.50.27
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.28
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.29
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.30
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.31
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.32
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.33
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.34
vswitch: vswitch-hx-inband-mgmt - mtu: 1500 - policy: loadbalance_srcid
vmnic0 - 1 - K22-HXVDI-A - active
vmnic1 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
Storage Controller Management Network - 50
Management Network - 50
vswitch: vswitch-hx-vm-network - mtu: 1500 - policy: loadbalance_srcid
vmnic4 - 1 - K22-HXVDI-A - active
vmnic5 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
vm-network-54 - 54
vswitch: vmotion - mtu: 9000 - policy: loadbalance_srcid
vmnic6 - 1 - K22-HXVDI-A - active
vmnic7 - 1 - K22-HXVDI-B - standby
Portgroup Name - VLAN
vmotion - 53
vswitch: vswitch-hx-storage-data - mtu: 9000 - policy: loadbalance_srcid
vmnic2 - 1 - K22-HXVDI-A - standby
vmnic3 - 1 - K22-HXVDI-B - active
Portgroup Name - VLAN
Storage Controller Data Network - 52
Storage Hypervisor Data Network - 52
Host: 10.10.50.27
No errors found
Host: 10.10.50.28
No errors found
Host: 10.10.50.29
No errors found
Host: 10.10.50.30
No errors found
Host: 10.10.50.31
No errors found
Host: 10.10.50.32
No errors found
Host: 10.10.50.33
No errors found
Host: 10.10.50.34
No errors found
Controller VM Clocks:
stCtlVM-FCH1937V2JV - 2018-10-22 05:32:09
stCtlVM-FCH1937V2TV - 2018-10-22 05:32:25
stCtlVM-FCH1842V1JG - 2018-10-22 05:32:41
stCtlVM-FCH1936V0GE - 2018-10-22 05:32:57
stCtlVM-FCH1937V2JT - 2018-10-22 05:33:14
stCtlVM-FCH1938V085 - 2018-10-22 05:33:30
stCtlVM-FCH1937V2TS - 2018-10-22 05:33:46
stCtlVM-FCH1937V2JU - 2018-10-22 05:34:02
Cluster:
Version - 3.5.1a-31118
Model - HXAF220C-M5S
Health - HEALTHY
Access Policy - LENIENT
ASUP enabled - False
SMTP Server -
root@Cisco-HX-Data-Platform-Installer:~#
8. vSphere WebClient にログインして、追加の共有データストアを作成します。
9. HyperFlex クラスタ作成ワークフローで作成されたクラスタ上の Summary タブに移動します。
10. Cisco HyperFlex Systems で、クラスタ名をクリックします。
Summary タブには、クラスタ ステータス、容量、およびパフォーマンスに関する詳細情報が表示されます。
11. Manage をクリックし、Datastores を選択します。Add datastore アイコンをクリックして、プロビジョニングするデータストア名とサイズを選択します。
Horizon プール、永続的/非永続、および RDSH サーバ デスクトップ パフォーマンス テストのための 40TB データストアを作成しました。
あるいは HyperFlex Connect WebUI を使用してデータストアを作成することもできます。HyperFlex Connect UI を使用してデータストアを作成するときには、ブロック サイズを選択するオプションがあります。デフォルトでは、データストアは vSphere WebClient を使用して 8K ブロック サイズで作成されます。
このセクションでは、本ソリューションを構成するソフトウェア インフラストラクチャ コンポーネントを構成する方法について説明します。
View 接続サーバ、レプリカ サーバ、View Composer Server をインストールするには、前提条件として、Windows 2008、2012 R2、または仮想マシンを使用可能な状態にしておく必要があります。
今回の調査では、すべての Horizon インフラストラクチャ サーバに共通して Windows Server 2016 仮想マシンを使用しました。
このリンクから VMware Horizon 7 インストール パッケージをダウンロードします。
https://my.vmware.com/web/vmware/info/slug/desktop_end_user_computing/vmware_horizon/7_6
次のセクションで、Horizon 7 v7.6.0 の体系的インストール プロセスを詳しく説明します。
VMware Horizon Composer Server をインストールするには、次の手順に従います。
1. Horizon Composer のインストーラを開きます。VMware viewcomposer 7.6.0 9491669.exe
2. Next をクリックして続行します。
3. EULA に同意します。Next をクリックします。
4. Next をクリックしてデフォルトのインストール フォルダを確定します。
5. データベース情報を入力します。インストール時に ODBC データベースを構成するには、ODBC DSN Setup をクリックします。
1. 64 ビットの ODBC を開き、System DSN タブを選択して Add をクリックします。
2. 新しいデータ ソースを作成し、SQL Server のネイティブ クライアントを選択します。クライアントの展開にはMicrosoft SQL Server 2016 の既存のインスタンスを使用します。Finish をクリックします。
3. データ ソースの名前を作成し、SQL Server を選択してから、Next をクリックします。
4. SQL Server 認証用のログイン クレデンシャルを入力するか、Windows 認証を使用します。Next をクリックします。
5. デフォルトのデータベースを選択して、Next をクリックします。
6. SQL Server システム メッセージの言語を変更するためのボックスをオンにして、言語を選択します。Finish をクリックします。
7. Test datastore をクリックし、SQL Server と新しく作成したデータ ソース間の接続を確認します。
8. これは Composer Server インストールの新しいインスタンスであるため、新しい SSL 証明書が作成されます。既存のComposer Server インストールを更新する場合は、新しい SSL 証明書を作成するか、既存の証明書を使用します。
9. SOAP ポートのポート設定はデフォルトのままにします。
10. Next をクリックします。
11. Install をクリックします。
12. Finish をクリックします。
Horizon 接続/レプリカ サーバをインストールするには、次の手順に従います。
1. View 接続サーバ インストーラ(VMware-viewconnectionserver-x86_64-7.6.0-9823717.exe)を開きます。
2. Next をクリックします。
3. EULA に同意して、Next をクリックします。
4. デフォルトのインストール先フォルダのまま、Next をクリックします。
5. インストールするインスタンスのタイプを選択します。
6. プライマリ接続サーバのインストールには標準サーバ インスタンスを選択します。
7. 標準サーバ インスタンスのインストールが完了したら、耐障害性接続サーバを構成するためにレプリカ サーバ インスタンスを選択します。
8. データ リカバリ パスワードを入力します。
9. Next をクリックします。
10. 承認済みユーザとグループを選択し、Next をクリックします。
11. 前に指定したドメイン ユーザ/グループのドメイン クレデンシャルを入力します。
12. User Experience Improvement Program にオプトインするか、このプログラムからオプトアウトします。
Next をクリックします。
13. Install をクリックします。
14. Finish をクリックします。
Horizon View SSL 証明書要求を生成するには、次のリンク先にアクセスして Microsoft 管理コンソール(MMC)証明書スナップインを使用します。https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2068666
Horizon 7 環境を構成するには、次の手順に従います。
1. WebUI を開き、https://<Horizon_Connection_ server_Management_IP_Address>/admin にログインします。
イベント データベースを構成するには、次の手順に従います。
1. Inventory ペインで、Horizon 7 管理者、View 構成、イベント構成ノードのテーブルにデータベース サーバ、データベース名、ログイン クレデンシャル、プレフィックスを追加してイベント データベースを構成します。
2. アクション ペインで Edit をクリックします。
以下に詳細を示します。
Horizon 7 ラインセンスを構成するには、次の手順に従います。
1. View Configuration をクリックします。
2. Product Licensing and Usage を選択します。
3. アクション ペインで Edit License をクリックします。
4. ライセンス シリアル番号を追加します。
5. OK をクリックします。
vCenter を構成するには、次の手順に従います。
1. View Configuration で、Servers を選択します。Add vCenter Server タブをクリックします。
2. vCenter Server の IP アドレスまたは FQDN とログイン クレデンシャルを入力します。
3. 詳細設定のオプションを変更することで、既存の動作制限を変更できます。詳細設定のオプションはデフォルトのままにします。
4. View Certificate をクリックします。証明書を受け入れます。
5. View Composer の設定、View Composer Sever の FQDN または管理 IP アドレス、ログイン クレデンシャルを追加します。
6. Next をクリックします。
7. 証明書を確認して受け入れます。
8. Add をクリックして新しいドメインを追加するか、Edit をクリックして既存のドメインを編集します。
9. Next をクリックします。
10. Storage Settings で、Reclaim VM disk space と Enable View Storage Accelerator をオンにします。
11. デフォルトのホスト キャッシュ サイズは 100 MB から 2048 MB の範囲で設定します。ここでは、最大サイズの 2048 MB を設定しています。
12. Next をクリックします。
13. Add vCenter Server の設定を確認し、Finish をクリックします。
インスタント クローン ドメイン管理を構成するには、次の手順に従います。
1. View 構成で、Instant Clone Domain Admins をクリックします。
2. Add ボタンをクリックします。ドメイン ユーザ/グループのクレデンシャルを入力します。
Horizon Persona Manager をインストールするには、次の手順に従います。
1. Horizon Persona Manager インストーラ(VMware-personamanagement-x86_64-7.6.0-9539447.exe)を開きます。
2. Next をクリックします。
3. EULA に同意して、Next をクリックします。
4. Install をクリックします。
5. Finish をクリックします。
テスト済み Horizon 展開タイプのマスター イメージを作成するには、次の手順に従います。
1. 既存のインフラストラクチャ クラスタ内の ESXi ホストを選択し、ゴールデン イメージとして使用する仮想マシンを作成します。このイメージに、インスタント クローン、リンクド クローン、およびフル クローン デスクトップ用のWindows 10 および Office 2016 を組み込みます。
テストには、64 ビット バージョンの Microsoft オペレーティング システムと Office を使用しました。
RDSH(Remote Desktop Server Sessions)セッション ホスト仮想マシン用の 4 番目のマスター イメージは、Microsoft Windows Server 2016 を使用して作成されています。
マスター イメージ仮想マシンには、次のパラメータを使用しました(表 12)。
表 12 ゴールデン イメージ仮想マシンのパラメータ
属性 |
インスタント/リンクド クローン |
永続/フル クローン |
RDSH サーバ |
デスクトップ オペレーティング システム |
Microsoft Windows 10 Enterprise(64 ビット) |
Microsoft Windows 10 Enterprise(64 ビット) |
Microsoft Windows Server 2016 Standard(64 ビット) |
ハードウェア |
VMware 仮想ハードウェア バージョン 13 |
VMware 仮想ハードウェア バージョン 13 |
VMware 仮想ハードウェア バージョン 13 |
vCPU |
2 |
2 |
8 |
メモリ |
4096 MB |
4096 MB* |
24576 MB |
予約済みメモリ |
4096 MB |
4096 MB* |
24576 MB |
ビデオ RAM |
35 MB |
35 MB |
4 MB |
3D グラフィックス |
消灯 |
消灯 |
消灯 |
NIC |
1 |
1 |
1 |
仮想ネットワーク アダプタ 1 |
VMXNet3 アダプタ |
VMXNet3 アダプタ |
VMXNet3 アダプタ |
仮想 SCSI コントローラ 0 |
準仮想 |
準仮想 |
準仮想 |
仮想ディスク:VMDK 1 |
32 GB |
100 GB |
40 GB |
仮想ディスク:VMDK 2 (リンクド クローン用の非永続ディスク) |
6 GB |
- |
- |
仮想フロッピー ドライブ 1 |
削除 |
削除 |
削除 |
仮想 CD/DVD ドライブ 1 |
– |
– |
- |
アプリケーション |
Login VSI 4.1.32 アプリケーション インストール Adobe Acrobat 11 Adobe Flash Player 16 Doro PDF 1.82 FreeMind Microsoft Internet Explorer Microsoft Office 2016 |
Login VSI 4.1.32 アプリケーション インストール Adobe Acrobat 11 Adobe Flash Player 16 Doro PDF 1.82 FreeMind Microsoft Internet Explorer Microsoft Office 2016 |
Login VSI 4.1.32 アプリケーション インストール Adobe Acrobat 11 Adobe Flash Player 16 Doro PDF 1.82 FreeMind Microsoft Internet Explorer Microsoft Office 2016 |
VMware ツール |
リリース 10.2.1.8267844 |
リリース 10.2.1.8267844 |
リリース 10.2.1.8267844 |
VMware View Agent |
リリース 7.6.0-9539447 |
リリース 7.6.0-9539447 |
リリース 7.6.0-9539447 |
属性 |
リンクド クローン/インスタント クローン |
永続/フル クローン |
RDSH サーバ |
* 永続デスクトップには、LoginVSI ナレッジ ワーカー ワークロードを実行するのに十分なメモリ割り当て量として 4 GB の RAM を設定しました。HyperFlex ノードとコンピューティング専用ノードには、このパフォーマンス調査に使用する合計メモリ容量である 768 GB を設定しました。
次の 1 つ以上のユース ケースを対象としたマスター イメージを準備します。
· VMware Horizon 7 RDSH 仮想マシン
· VMware Horizon 7 インスタント クローン
· VMware Horizon 7 リンクド クローン
· VMware Horizon 7 フル クローン
マスター イメージには、組織のすべてのプール ユーザが使用する Microsoft Office 2016 およびその他のアプリケーションを含めます。
必要な Microsoft 更新プログラムとパッチをマスター イメージに適用します。
この調査では、Login VSI ターゲット ソフトウェアを追加しました。LoginVSI ナレッ ジワーカー ワークロードを使用して各ユース ケースでのエンド ユーザ エクスペリエンスを比較評価できるようにするためです。
VDI 展開用に Windows 10 を最適化する方法については、以下のリンクをクリックしてください。
HVD または HSD 導入用の VMware 最適化ツール:https://labs.vmware.com/flings/vmware-os-optimization-tool
Horizon 用仮想デスクトップ エージェント ソフトウェアをインストールするには、次の手順に従います。
1. 作成されたマスター イメージごとに Horizon View Agent インストーラ(VMware-viewagent-7.6.0-9539447)を開きます。Next をクリックしてインストールします。
2. EULA 契約を確認して同意します。Next をクリックします。
3. Network protocol configuration を選択し、Next をクリックします。
4. 作成するデスクトップ プールに応じて、View Composer エージェントまたはインスタント クローン エージェントのいずれかのインストールを選択します。両方の機能を同じマスター イメージにインストールすることはできません。
5. リンクド クローン VDI 仮想マシンの場合は、VMware Horizon View Composer エージェントのインストールを有効にします。
6. インスタント クローンによる浮動割り当てデスクトップ プールを作成する場合は、Horizon View Composer エージェントを無効にして、Horizon インスタント クローン エージェントを有効にします。
Horizon View Agent を Microsoft Server 2016 仮想マシンにインストールする前に、リモート デスクトップ サービス役割とリモート デスクトップ セッション ホスト役割サービスを追加する必要があります。
7. サーバ マネージャから Windows Server OS にリモート デスクトップ サービス役割を追加するには、Add Roles and Features ウィザードを使用します。
8. リモート デスクトップ セッション ホスト サービスを追加します。
9. Install をクリックします。
VMware Horizon Agent のインストール:
10. リモート デスクトップ サービスがインストールされていない場合、View Agent からエージェントを「デスクトップ モード」でインストールするかどうか尋ねられます。
11. RDSH サーバを登録する接続サーバ インスタンスの FQDN または IP アドレスを追加します。
12. Install をクリックします。
13. Finish をクリックして VM を再起動します。
ベース Windows イメージに必要なその他のソフトウェアをインストールするには、次の手順に従います。
1. 調査では、テスト用に Microsoft Office 2016 64 ビット バージョンをインストールしました。
2. ワークロードのテストを容易にするために、VSI ターゲット ソフトウェア パッケージにログインします。
3. 追加する他のソフトウェア コンポーネントに、必要なサービス パックおよびホット フィックスをインストールします。
4. 必要に応じて VM を再起動またはシャット ダウンします。
デスクトップ プールの自動作成に使用するネイティブ スナップショットを作成するには、次の手順に従います。
1. vCenter WebUI にログインします。
2. デスクトップ プールの自動作成に使用するマスター イメージを選択します。
3. 右クリックして Cisco HX Data Platform > Snapshot Now を選択します。
4. HX ネイティブ スナップショットの名前を入力します。
仮想デスクトップのカスタマイズ仕様を作成するには、次の手順に従います。
1. vCenter WebUI で、Customization Specification Manager を選択します。
2. Windows ベースのゲスト OS 最適化用 Windows として VM オペレーティング システムを選択します。名前を入力します。
3. 名前と組織の詳細を入力します。
4. コンピュータ名を指定します。このソリューションでは、Use the virtual machine name オプション ボタンを選択しています。
5. 必要に応じて、製品のライセンス キーを入力します。
6. パスワード クレデンシャルを入力します。
7. タイムゾーンを選択します。
8. 必要に応じて、ユーザが初めてログインしたときに実行するコマンドを追加します。
9. ネットワーク情報として、DHCP サーバを使用して IP アドレスを割り当てるか、手動構成を使用するかを指定します。
10. ドメイン名とユーザ クレデンシャルを入力します。
11. Generate New Security ID (SID) チェックボックスをオンにします。
12. 設定内容を確認し、Next をクリックしてカスタマイズ仕様を作成します。
13. Finish をクリックします。
RDSH デスクトップ プールを作成するには、その前に、RDSH ファームを作成する必要があります。RDSH ファームを作成するには、次の手順に従います。
1. VMware Horizon 管理コンソールで、Inventory ペインの Resources ノードを展開し、Farms を選択します。
2. アクション ペインで Add をクリックし、新しい RDSH ファームを作成します。
3. Automated Farm または Manual Farm のどちらを作成するかを選択します。このソリューションでは、Automated Farm を選択しています。
手動ファームを作成する場合は、各 RDSH サーバの Horizon 接続/レプリカ サーバ インスタンスを手動で登録する必要があります。
4. Horizon RDSH ファームを展開するために使用する VCenter Server と Horizon Composer Server を選択します。
5. Next をクリックします。
RDSH サーバ ファームのサーバ VM 用のインスタント クローンまたは View Composer リンクド クローンのどちらを作成するかを選択できます。いずれの選択肢にもメリットと制約事項がありますが、その違いについての説明は、この CVD の範囲外です。詳細については、VMware のドキュメントを参照してください。
6. RDSH ファーム ID、アクセス グループ、デフォルトの表示プロトコル(Blast/PCoIP/RDP)を指定します。
7. デフォルトの表示プロトコルをユーザが変更できるようにするかどうか、セッションをタイムアウトにするかどうか、接続が切断されたユーザをログオフするかどうかを選択し、HTML アクセスを有効にするためのチェックボックスをオンにします。
8. Next をクリックします。
9. プロビジョニング設定、導入する RDSH サーバ VM の命名規則と数を選択します。
この調査では、16 ノード HyperFlex クラスタで 1032 個の RDSH 仮想マシンを導入しました。
10. Next をクリックします。
11. Next をクリックします。
12. vCenter の設定(マスター イメージ、スナップショット、フォルダ、ホストまたはクラスタ、リソース プール、ストレージなど)を選択します。
13. Next をクリックします。
14. ステップ 6 のデータストアで、Storage Overcommit フィールドに Unbounded を選択します。
15. OK をクリックします。
16. Next をクリックします。
17. Active Directory ドメイン、RDSH マシンをプロビジョニングする予定の Active Directory OU、前にカスタマイズ固有の構成の一部として作成した Sysprep ファイルを指定します。
RDSH ファームの作成にインスタント クローン プールを使用する場合は、次のスクリーンショットに示されている Sysprep ゲストのカスタマイズ手順に従う必要はありません。
18. Next をクリックします。
19. プール作成の設定内容を確認します。
20. Finish をクリックします。
VMware Horizon 管理コンソールに、プロビジョニング タスクのステータスとプールの設定が表示されます。
Horizon 7 RDS 公開デスクトップ プールを作成するには、次の手順に従います。
1. Horizon 管理コンソールで、Inventory ペインの Catalog ノードに含まれる Desktop Pools を選択します。
2. アクション ペインで Add をクリックします。
3. RDS デスクトップ プールを選択します。
4. Next をクリックします。
5. プール ID と表示名を入力します。
6. Next をクリックします。
7. Desktop Pool Settings ページでは、デフォルトの設定を受け入れます。
8. Next をクリックします。
9. Select an RDS farm for this desktop pool オプション ボタンをクリックします。
10. 前のセクションで作成されたファームをクリックします。
11. Next をクリックします。
12. プールの設定を確認します。
13. 新しい RDSH デスクトップを作成する権限をユーザに付与する場合、Entitle users after this wizard finishes チェックボックスをオンにします。
14. Finish をクリックします。
15. Users or Groups チェックボックスをオンにし、検索ツールを使用して権限を付与する対象のユーザまたはグループを検索します。検索結果で、目的のユーザまたはグループを強調表示します。
16. OK をクリックします。
17. これで、RDSH ファームとデスクトップ プールが機能する状態になり、Horizon RDSH セッションを使用できるユーザまたはグループが特定されました。
VMware Horizon リンクド クローン Windows 10 デスクトップ プールを作成するには、次の手順に従います。
1. Horizon 管理コンソールで、Inventory ペインの Catalog ノードに含まれる Desktop Pools を選択します。
2. アクション ペインで Add をクリックします。
3. プールの割り当てタイプを選択します。
4. Next をクリックします。
5. ユーザの割り当てを Floating または Dedicated として選択します。
6. Next をクリックします。
7. View Composer Linked Clones を選択し、該当する vCenter と View Composer 仮想マシンを強調表示します。
8. Next をクリックします。
9. プール識別情報を入力します。
10. Next をクリックします。
11. Desktop Pool settings を選択します。
このダイアログをスクロールダウンして、必ずすべてのオプションを構成してください。
12. Next をクリックします。
13. Provisioning Settings を選択します。
14. Next をクリックします。
15. View Composer ディスク構成を選択します。
16. Next をクリックします。
17. 次へ をクリックします。
18. 6 つの必須フィールドのそれぞれで、フィールドの横にある Browse ボタンを使用して値を選択します。
19. Datastore フィールドでは、正しいデータストアを選択し、Storage Overcommit を Unbounded に設定し
ます。
20. OK をクリックします。
21. Next をクリックします。
22. Advanced Storage Options を、次のスクリーンショットに示す値に設定します。
23. Next をクリックします。
24. ゲスト最適化の設定を選択します。
25. Active Directory ドメインを選択し、仮想マシンをプロビジョニングする Active Directory ドメインの場所を指定してから、QuickPrep または Sysprep のいずれかのオプションを選択します。前に作成したカスタマイズ仕様を強調表示します。
26. Next をクリックします。
27. このプロセスの一環としてユーザに資格を付与する場合、Entitle users after pool creation wizard completion チェックボックスをオンにします。「Horizon 7 RDS デスクトップ プールの作成」で説明している手順に従って、リンクド クローン プールに対する権限をユーザに付与します。
28. Finish をクリックしてリンクド クローン プールの作成プロセスを完了します。
VMware Horizon インスタント クローン Windows 10 デスクトップ プールを作成するには、次の手順に従います。
1. Horizon 管理コンソールで、Inventory ペインの Catalog ノードに含まれる Desktop Pools を選択します。
2. アクション ペインで Add をクリックします。
3. プールの割り当てタイプとして自動割り当てを選択します。
4. Next をクリックします。
5. ユーザの割り当てを Floating または Dedicated として選択します。
6. Next をクリックします。
7. Instant Clones を選択し、vCenter Server を選択してから、Next をクリックします。
8. プール識別情報を入力します。
9. Next をクリックします。
10. Desktop Pool settings を選択します。
必ずスクロールダウンして Acrobat Flash の設定を選択してください。
11. Next をクリックします。
12. Provisioning Settings を選択します。
13. Next をクリックします。
14. Next をクリックします。
15. vCenter Settings を選択し、6 つの必須フィールドのそれぞれに値を設定します。
16. Next をクリックします。
17. Datastore フィールドでは、正しいデータストアを選択し、Storage Overcommit を Unbounded に設定し
ます。
18. OK をクリックします。
19. Guest Customization を選択します。
20. Active Directory ドメインを参照し、インスタント クローン マシンをプロビジョニングする AD コンテナの場所を指定します。
21. Next をクリックします。
22. プール構成の要約を確認します。
23. 新しいプールに対する権限をユーザまたはグループに付与する場合、Entitle users after pool creation wizard completion チェックボックスをオンにします。
24. Finish をクリックします。
25. 「Horizon 7 RDS デスクトップ プールの作成」で説明している手順に従って、リンクド クローン プールに対する権限をユーザに付与します。
VMware Horizon 永続 Windows 10 デスクトップ プールを作成するには、次の手順に従います。
1. Horizon 管理コンソールで、Inventory ペインの Catalog ノードに含まれる Desktop Pools を選択します。
2. アクション ペインで Add をクリックします。
3. プールの割り当てタイプを選択します。
4. Next をクリックします。
5. Dedicated オプション ボタンを選択します。
6. 必要に応じて、Enable automatic assignment チェックボックスをオンにします。
7. Next をクリックします。
8. Full Virtual Machines オプション ボタンを選択し、該当する vCenter と Composer を強調表示します。
9. Next をクリックします。
10. プール識別情報を入力します。
11. Next をクリックします。
12. Desktop Pool settings を選択します。
13. Next をクリックします。
14. 要件に応じたプロビジョニング設定を選択します。
15. Next をクリックします。
16. Next をクリックします。
17. 5 つの vCenter 設定のそれぞれを選択します。
18. Next をクリックします。
19. Datastore フィールドでは、正しいデータストアを選択し、Storage Overcommit を Unbounded に設定し
ます。
20. OK をクリックします。
21. Advance Storage Options を選択し、View ストレージ アクセラレータを有効にします。
22. Next をクリックします。
23. ゲスト最適化の設定を選択します。
24. Next をクリックします。
25. 作成するプールの要約を確認します。
26. 新しいプールに対する権限をユーザに付与する場合、Entitle users after pool creation wizard completion チェックボックスをオンにします。
27. Finish をクリックします。
28. 「Horizon 7 RDS デスクトップ プールの作成」で説明している手順に従って、リンクド クローン プールに対する権限をユーザに付与します。
このプロジェクトでは、8 台の CiscoUCS HXAF220c-MS4 ラック サーバと 8 台の Cisco UCS B200 M4 ブレード サーバを実行する単一の Cisco HyperFlex クラスタを単一の Cisco UCS ドメインでテストしました。このソリューションのテストで目的としたのは、調査対象の各ワークロードの線形スケーラビリティを明らかにすることです。
ハードウェア コンポーネント:
· Cisco UCS 6332 ファブリック インターコネクト 2 台
· Cisco Nexus 93180YC FX アクセス スイッチ 2 台
· Cisco UCS HXAF220c-M5SX ラック サーバ 16 台。サーバごとに、2.3 GHz の Intel Xeon Gold 6140
スケーラブル ファミリ プロセッサ 2 基と 768 GB のメモリ(2666 MHz で 32 GB x 24 DIMM)を搭載
· Cisco VIC 1387 mLOM
· 12G モジュラ型 SAS HBA コントローラ
· 240GB M.2 SATA SSD ドライブ(ブートおよび HyperFlex データ プラットフォーム コントローラ VM)
· 240GB 2.5” 6G SATA SSD ドライブ(ハウスキーピング)
· 400GB 2.5” 6G SAS SSD ドライブ(キャッシュ)
· 960GB 2.5” SATA SSD ドライブ 8 基(キャパシティ)
· 32GB mSD カード 1 枚(一時キャッシュをアップグレード)
· Cisco UCS C220 M5 ラック サーバ 8 台。サーバごとに 2.3 GHz の Intel Xeon プロセッサ 6140 CPU 2 基と 768 GB のメモリ(2666 MHz で 32 GB x 24 DIMM)を搭載
· Cisco VIC 1387 mLOM
· 12G モジュラ型 SAS HBA コントローラ
· 240GB M.2 SATA SSD ドライブ(ブートおよび HyperFlex データ プラットフォーム コントローラ VM)
· Cisco UCS B200 M5 ブレード サーバ 8 台。サーバごとに 2.3 GHz の Intel Xeon プロセッサ 6140 CPU 2 基と 768 GB のメモリ(2666 MHz で 32 GB x 24 DIMM)を搭載
· Cisco VIC 1340 mLOM
· 64GB SD カード 2 枚
ソフトウェア コンポーネント:
· Cisco UCS ファームウェア 4.0(1b)
· Cisco HyperFlex データ プラットフォーム 3.5.1a
· VMware vSphere 6.5
· VMware Horizon 7 ホスト型仮想デスクトップおよびホスト型共有デスクトップ
· VMware Horizon View Composer Server
· ユーザ プロファイル用仮想ファイル サーバ
· Microsoft SQL Server 2016
· Microsoft Windows 10
· Microsoft Windows 2016
· Microsoft Office 2016
· Login VSI 4.1.32.1
すべての検証テストは、カリフォルニア州サンホセにある Cisco ラボ内のオンサイトで実施されました。
テスト結果の重点を仮想デスクトップ ライフサイクルのプロセス全体におくために、テスト対象の RDSH サーバ セッションでのデスクトップの起動、ユーザ ログインと仮想デスクトップの取得(「ランプアップ」とも呼ばれる)、ユーザ ワークロードの実行(「定常状態」とも呼ばれる)、およびユーザ ログオフに関する指標を収集しました。
仮想デスクトップ、ストレージ、および負荷生成ソフトウェアからテスト指標を収集し、個々のテスト サイクルの全体的な成功を評価しました。各テスト サイクルを合格とみなす条件は、テスト予定のユーザすべてがランプアップと定常状態のフェーズを完了すること、そしてすべての指標が合格基準として許容されるしきい値を超えていないことです。
ハードウェア構成ごとに実施した 3 回のテスト サイクルは正常に完了し、3 回のテストで比較的一貫した結果になりました。
http://www.loginvsi.com から、詳細な情報と無料のテスト ライセンスを入手できます。
結果の一貫性を確保するために、この調査での各テスト サイクルでは次のプロトコルを使用しました。
VMware Horizon 7 管理コンソールを使用して、すべての仮想マシンおよび RDSH サーバをシャットダウンしました。
必要な数のランチャが実行中になって Login VSI Agent が「テスト開始を待機」状態になるまで、テストに使用するランチャ VM を 10 台単位で 1 分ごとに再起動しました。
実際の過酷な環境をシミュレートするには、ログオンから作業開始までのシーケンス(ランプアップ)の完了に 48 分必要です。また、すべてのセッションを開始し、最後のセッションの開始後 2 分以内に 60 の単一サーバ ユーザまたは 4400 のフルスケール テスト ユーザがアクティブになる必要があります。
さらに、すべての単一サーバとスケール テストに Login VSI ベンチマーク方式を使用することも要件となっています。こうすることで、テストが実際のシナリオを表すことになります。単一サーバで 3 回連続して実行するテストでは、毎回同じプロセスに従いました。次の手順を実行します。
1. 0:00:00:次のシステムで PerfMon ロギングを開始します。
- テストの実行で使用されるインフラストラクチャと VDI ホスト ブレード
- テストの実行で使用されるすべてのインフラストラクチャ(AD、SQL、View 接続ブローカ、イメージ管理など)
2. 0:00:10:ストレージ システムでストレージ パートナー パフォーマンス ロギングを開始します。
3. 0:05:VMware Horizon 7 管理コンソールを使用して RDS マシンを起動します。
4. 0:06:最初のマシン グループが起動されます。
5. 0:35:単一サーバまたはスケール ターゲット数の RDS サーバが Horizon に登録されます。
最後のデスクトップが登録されて VMware Horizon 7 管理コンソールのダッシュボードで使用可能になるまでに許容される時間は 60 分です。通常、Windows 10 デスクトップには 20 ~ 30 分、RDS VM には 10 分あれば十分です。
6. 1:35:十分な数のランチャ(ランチャごとに 20 ~ 25 のセッション)を使用して、単一サーバまたはスケール ターゲット数のデスクトップ VM で Login VSI 4.1.32.1 ナレッジ ワーカー ベンチマーク モードのテストを開始します。自動ログオフ時間は 900 秒に設定します。
7. 2:23:単一サーバまたはスケール ターゲット数のデスクトップが起動されます(48 分のベンチマーク起動レート )。
8. 2:25:開始されたすべてのセッションがアクティブになっていなければなりません。
この時間枠内で、開始されたすべてのセッションがアクティブになっていれば、テスト実行は成功したとみなされます。
9. 2:40:Login VSI テストが(上記で指定された 900 秒の自動ログオフにより)終了します。
10. 2:55:すべてのアクティブ セッションがログオフします。
11. 開始されてアクティブになったすべてのセッションがログオフされた場合、テスト実行は成功したとみなされます。この条件を満たした証拠として、VMware Horizon 7 管理ダッシュボードに、デスクトップの状態が登録済み/利用可能に戻っていることが示されている必要があります。
12. 2:57:すべてのロギングが終了します。これで、テストは完了です。
13. 3:15:すべてのログ ファイルをアーカイブにコピーします。ブローカを介して仮想デスクトップをメンテナンス モードに設定し、すべての Windows 7 マシンをシャットダウンします。
14. 3:30:すべてのハイパーバイザを再起動します。
15. 3:45:新しいテスト シーケンスを開始できる状態になります。
このテストの「合格」基準は以下のとおりです。前提条件として、CPU 使用率、メモリ使用量、ストレージ使用率、ネットワーク使用率で測定されるサーバ キャパシティを効果的に使用するのに十分なセッション数で、テストが実行されます。ナレッジ ワーカーのワークロード セッションを開始するには、Login VSI バージョン 4.1.32.1 を使用します。開始されたセッションの数は、テストで最後のセッションが開始されてから 2 分以内に、VSI 管理コンソールに表示されるアクティブなセッション数と同じにならなければなりません。
定常状態の間は常に、次の点を確認するために VMware Horizon 接続サーバ ダッシュ ボードがモニタリングされます。
· 定常状態にある間、実行中のすべてのセッションが「使用中」として報告される
· 定常状態にある間、登録解除、利用不可、または使用可能の状態になるセッションが 1 つもない
テストの最後の 20 分以内に、すべてランチャ上のすべてのセッションが自動的にログアウトされ、Login VSI Agent
がシャット ダウンされる必要があります。シスコでのスタック セッションに対する許容値は 0.5 パーセントです
(1 パーセントの半分)。スタック セッションの数がこの値を超えた場合、テストは失敗したとみなされます。
Cisco Validated Design performance パフォーマンス基準に合格するには、3 回連続して実行したテスト結果の誤差が 1 パーセント以内であることが要件となります。パートナーが作成したホワイト ペーパーでは、2 回連続して実行したテストの結果が 1 パーセント以内の誤差であれば許容されるとしています。(パートナーによるテスト データのすべてがホワイト ペーパーの提案と併せて提出される必要があります)。
公開する Cisco Validated Designs に、上記のプロセスに従って推奨されるワークロードを記載し、テストで VSImax ダイナミックに達しなかったことを明記する予定です。
このテストの目的は、VMware Horizon 7 Composer で Microsoft Windows Server 2016 を使用してプロビジョニングした VMware Horizon 7 ホスト型共有デスクトップを Cisco UCS HXAF220C-M5SX 上で検証するために必要なデータを提供することです。
このセクションに記載されている情報は、お客様が独自の実装を設計する際に参照できるデータ ポイントになります。これらの検証結果は、ここに概説した特定の環境条件下での一例であり、VMware 製品の完全な特性を定義するものではありません。
システム パフォーマンスと線形スケーラビリティを確立するために、4 つのテスト シーケンスを実行しました。各シーケンスには 3 回連続のテスト実行が含まれます。これらのテストの結果はすべて同じでした。
Login VSI の背後にある原理は、従来のベンチマークとは異なります。一般に、ほとんどのシステム ベンチマークは定常状態のベンチマークです。定常状態のベンチマークでは 1 つ以上のプロセスを実行し、測定された実行時間がテストの結果となります。簡単に言うと、ベンチマークより実行時間が短いか、スループットが高ければ、高速なシステムということになります。
Login VSI のアプローチは、それとは異なります。Login VSI は何よりもまず、定常状態のベンチマークとして設計されてはいません(ただし必要に応じて、Login VSI がその役割を果たすこともできます)。Login VSI は、システムを飽和させて SBC または VDI のワークロードを比較評価するように設計されています。Login VSI は、Microsoft Office、Internet Explorer、Adobe PDF Reader といった周知のデスクトップ アプリケーションを使用してシミュレートしたユーザ ワークロードによってシステムに負荷をかけます。シミュレートするユーザの数を徐々に増やして、最終的にシステムを飽和状態にします。システムが飽和状態になると、アプリケーションの応答時間は大幅に増加します。アプリケーション応答時間のレイテンシには、システムが過負荷状態であること(またはこの状態に近づいていること)が顕著に反映されます。システムをほぼ過負荷状態にすることによって、結果的に真の最大ユーザ キャパシティを特定できるというわけです。
テストの実行後、応答時間を分析することで、アクティブ セッションの最大数や最大デスクトップ キャパシティを計算できます。Login VSI 内では、これは VSImax として計算されます。システムが飽和状態に近づきつつあると応答時間が増加します。平均応答時間を確認すれば、飽和状態での応答時間の増加は明らかです。
この VSImax は「仮想セッション インデックス(VSI)」を表します。仮想デスクトップ インフラストラクチャ(VDI)やターミナル サービス (RDS) のワークロードでは、これは有効かつ有用な情報です。このインデックスにより比較が容易になり、構成変更による真の影響をハイパーバイザ ホスト レベルまたはゲスト レベルで理解することが可能になります。
Login VSI の特定の設計上の選択が行われた理由を理解することが重要です。設計上の重要な選択となったのは、リモート セッションを使用するのではなく、ターゲット システム上のセッション内で直接ワークロードを実行するという点です。ワークロードをシミュレートするスクリプトを実行するエンジンは、シミュレートされたユーザのデスクトップ セッションのコンテキスト内でログインが実行された時点で、すべてのターゲット システム上でワークロード スクリプトを実行します。
Login VSI 手法に変わる方法としては、リモーティング プロトコルを使用してクライアント側でユーザ アクションを生成するという方法があります。これらの方法は常に製品に固有であり、ベンダーに依存します。さらに重要なことに、一部のプロトコルにはクライアント側のユーザ アクションをスクリプト化する手段がありません。
Login VSI では、スクリプトを一貫してサーバ側で実行するようになっています。Login VSI のようなベンチマークには、これが唯一実際的で、プラットフォームに依存しない方法です。
デスクトップ ワークロードをシミュレートするスクリプトは、48 時間のループ形式で作成されています。このスクリプトは、シミュレートされた Login VSI ユーザがログオンした時点で、一般的な Office ワーカー アクティビティを実行します。ループが終了すると、スクリプトは自動的に再起動されます。各ループ内では、特定の 16 の操作の応答時間が定期的に合計 16 回測定されます。このうち 5 つの操作の応答時間を使用して VSImax が判断されます。
応答時間を測定する 5 つの操作は次のとおりです。
· メモ帳でファイルを開く(NFO)
VSINotepad.exe をロードして開始し、ファイルを開くダイアログを表示します。この操作は、OS と VSINotepad.exe 自体の実行によって処理されます。ユーザの視点からは、この操作はほぼ瞬時に完了します。
· メモ帳でロードを開始する(NSLD)
VSINotepad.exe をロードして開始し、ファイルを開きます。この操作も、OS と VSINotepad.exe 自体の実行によって処理されます。ユーザの視点からは、この操作はほぼ瞬時に完了します。
· Zip 高圧縮(ZHC)
この操作は高圧縮を有効にした状態で、ランダムに 1 つのファイルをコピーして圧縮します(7zip を使用)。圧縮によって一瞬 CPU 使用率とディスク IO 回数を急増させます。
· Zip 低圧縮(ZLC)
この操作は低圧縮を有効にした状態で、ランダムに 1 つのファイルをコピーして圧縮します(7zip を使用)。圧縮によって一瞬の間、ディスク IO 回数を急増させ、CPU にある程度の負荷をかけます。
· CPU
ランダムに大規模なデータ配列を計算し、短期間 CPU 利用率を急増させます。
Login VSI 内で測定されるこれらの操作は、CPU(ユーザとカーネル)、メモリ、ディスク、OS 全体、アプリケーション自体、出力、GDI などの各種サブシステムに大きく影響しますが、本質的にかなり短時間の操作です。これらの操作に常に時間がかかるようになってくると、何らかのリソースに対する過剰なキューイングにより、システムは飽和状態になります。その結果、平均応答時間が増加します。この影響は、エンド ユーザにも明白になります。こうした操作に常に数秒かかるようだと、ユーザはそのシステムは動作が遅く、応答していないとみなします。
図 45 正常なシステムを示す VSI テスト最大応答時間グラフの例
図 46 明かなパフォーマンス問題を示す VSI テスト応答時間グラフの例
テストが完了したら、VSImax を計算できます。システムが飽和状態にならず、平均応答時間のレイテンシしきい値を超えることなくテストが完了した場合、VSImax には達していないため、正常に実行できる最大セッション数は判定できません。
応答時間は測定タイプによって大きく異なります。たとえば、Zip で高圧縮を有効にすると応答時間は約 2800 ms になりますが、高圧縮を有効にしなければ、応答時間はわずか 75 ms です。これらの操作の応答時間は、重み付けされてから合計されます。これにより、各アクティビティが合計応答時間に対して同等の影響を持つことになります。
前の VSImax モデルと比べると、この重み付けにより、システム パフォーマンスがより正確に表されます。VSImax 合計では、すべての操作の重みはほとんど変わりません。応答時間に適用される重みを以下に示します。
VSImax v4.1 の計算に含まれる以下の操作には、次の重みが適用されます(米国表記)。
· メモ帳でファイルを開く(NFO):0.75
· メモ帳でロードを開始する(NSLD):0.2
· Zip 高圧縮(ZHC):0.125
· Zip 低圧縮(ZLC):0.2
· CPU:0.75
以上の重みは、ベースラインと通常の Login VSI の両方で適用されます。
Login VSI 4.1 を導入したことから、環境の基本フェーズを計算する新しい手法も策定しました。新しいワークロード(Taskworker、Powerworker など)では、ベースラインの信頼性を向上させるために「基本フェーズ」を有効にするという方法は使われなくなっています。以下に、この計算について説明します。テストのすべての結果の中から、VSI 応答時間が最も短い 15 個の結果をサンプルとして取り、そのうち最も応答時間が短い 2 個を除外して残り 13 個のサンプルで平均値を求めます。その結果がベースラインとなります。この計算は次のように行われます。
· テスト結果のすべてから、最も値が小さい 15 個のサンプルを取ります。
· 15 個のサンプルから、最も値が小さい 2 個のサンプルを除外します。
· ベースラインとして、残り 13 個の結果の平均値を求めます。
Login VSI 4.1.x では、システムにログオンしたアクティブ ユーザの数に基づいて VSImax 平均応答時間を計算します。
常に、Login VSI 応答時間の 5 個のサンプルと「アクティブ」なセッション数の 40 パーセントを基に、平均値が求められます。たとえば、アクティブなセッション数が 60 の場合、最新の 5 個のサンプルと 24 個(60 個の 40 パーセント)のサンプルを合わせた 31 個の応答時間の測定値を使用して平均値が計算されます。
ノイズ(偶発的な急増)を計算から除外するために、上位 1 個と下位 1 個のサンプルを下限として、VSI 応答時間サンプルの上位 5 パーセントと下位 5 パーセントが平均値の計算から除外されます。つまり、アクティブ ユーザ数が 60 の場合、最後の 31 個の VSI 応答時間サンプルが取られ、これら 31 個のサンプルから、上位 2 個のサンプルと下位 2 個のサンプルが除外されます(31 個の 5 パーセントは 1.55 で、これが 2 に丸められます)。残り 27 個の結果を基に、60 ユーザでの平均値が計算されます。
VSI 平均応答時間の結果が VSIbase + 1000 ms のレイテンシしきい値に達しなければ、VSImax v4.1.x には達しません。テスト対象のシステムによっては、VSImax 応答時間がベースラインの平均値の 2 倍から 3 倍になることもあります。エンド ユーザの計算では、応答時間がベースラインの 3 倍である場合、最大パフォーマンスの劣化として許容されるとみなされます。
VSImax v4.1.x では、このレイテンシしきい値は 1000 ms に固定されています。そのため、システムによってベースライン結果が異なる場合は尚更のこと、2 つの異なるシステムをより正確に、より公平に比較できます。最終的には、VSImax v4.1.x でのシステム パフォーマンスは、合計平均応答時間ではなく負荷状態でのレイテンシによって判断されます。すべてのシステムに共通して、現在レイテンシは 1000 ms(重み付き)です。
合計応答所要時間のしきい値は、加重平均ベースライン応答時間 + 1000 ms です。
システムの加重平均ベースライン応答時間が 1500 ms の場合、最大平均応答時間が 2500 ms(1500 + 1000)を超えてはなりません。同様に、平均ベースラインが 3000 ms であれば、最大平均応答時間は 4000 ms(3000 + 1000)以下でなければなりません。
テスト中の平均 VSI 応答時間がしきい値を超えなければ、VSImax には達していないため、正常に実行できる最大セッション数は判定できません。システムを VSImax しきい値を超えて飽和させる必要がある前述の VSImax 手法と比べると、この方法は根本的に異なります。
最後に指摘する点として、VSImax v4.1.x は常に平均ベースライン VSI 応答時間の結果と併せて報告されます。たとえば、「VSImax v4.1 は 125 で、ベースラインは 1526 ms です(The VSImax v4.1 was 125 with a baseline of 1526ms)」といったように報告されます。この情報はシステムを比較するのに大いに役立ち、より包括的にシステムを理解できます。ベースライン パフォーマンスは、システムが個々のユーザに提供できる最大のパフォーマンスを理解する上で役立ちます。VSImax は、システムの合計ユーザ キャパシティを明らかにします。この 2 つは、一方を見れば自然ともう一方を理解できるようなものではありません。
たとえば、3.6 GHZ で動作する非常に高速のデュアル コア CPU を搭載したサーバと 10 コアの CPU を搭載したサーバと比べると、個々のユーザにはデュアル コア マシンのほうが 10 コアのマシンよりも優れたパフォーマンスを提供します。これは、ベースライン VSI 応答時間によって示されます。このスコアが低ければ低いほど、個々のユーザが期待できるパフォーマンスは高くなります。
一方、速度に劣る 10 コアの CPU を搭載したサーバは、高速のデュアル コア システムよりも大きなキャパシティを容易に提供できます。これは、VSImax v4.1.x によって示されます。つまり、VSImax が高ければ高いほど、全体的により大きなユーザ キャパシティを期待できます。
VSImax v4.1 は、Login VSI 4.1.x で導入された新しい手法です。この手法により、システム パフォーマンスをより深く理解し、極めて大規模なシステムにスケーリングできるようになっています。
デスクトップ仮想化環境では、デスクトップ ユーザの待機時間を最小限にするためにどれだけ素早く効率的に仮想マシンを起動できるかが、主要なパフォーマンス指標になります。
シスコの仮想デスクトップ テスト プロトコルの一環として、ベンチマーク テストの終了時に各仮想マシンがシャットダウンされます。新しいテストを実行するときは、4400 台すべてのデスクトップでコールド ブートを行い、Horizon 管理コンソールで 4400 番目の仮想マシンが利用可能なマシンとして登録されるまでの時間を測定します。
次のグラフに示されているように、データ プラットフォーム バージョン 3.5(1a) ソフトウェアを実行する Cisco HyperFlex HXAF220cM5SX、Cisco UCS C220M5、B200 M5 クラスタは、このタスクを 15 分以内に完了できます。
図 47 15 分未満で Office 2016 Virtual Desktops 10 インスタント クローン、リンクド クローン、永続(フル クローン)Windows 10 Office 2016 仮想デスクトップを起動して利用可能として登録する 4400 Horizon Server 2016 RDSH セッション
VMware Horizon 7 RDS ホスト型共有デスクトップおよびホスト型仮想デスクトップのユース ケースに推奨される
最大ワークロードは、Login VSI ナレッジ ワーカー ワークロードのエンド ユーザ エクスペリエンスの測定と、HXAF220c-M5S、Cisco UCS C220 M5、UCS B200 M5 サーバの動作パラメータの両方に基づいて判断されています。
この最大ワークロードの推奨アプローチに基づいて、サーバ N + 1 耐障害性構成のブレードがメンテナンスやアップグレード目的のサーバ停止時に正常にサポートできる負荷を判断できます。
卓越したエンド ユーザ エクスペリエンスを確保するために、Login VSI 平均応答時間と VSI IndexAverage が、ベースラインに 2000 ミリ秒を加算した値を超えないようにすることをお勧めします。さらに、定常状態での平均プロセッサ使用率が 90 ~ 95 パーセント未満になるようにしてください。
デスクトップ仮想化ワークロードにメモリをオーバーサブスクライブすることは必ず避けてください。
データ グラフ全体にわたり、テストの各フェーズを示すコールアウトが追加されています。
テスト フェーズ |
説明 |
ブート |
すべての RDS と VDI 仮想マシンを同時に起動します。 |
ログイン |
この Login VSI テスト フェーズでは、セッションを開始し、48 分間にわたってワークロードを実行します。 |
安定状態 |
定常状態のフェーズでは、すべてのユーザがログインし、各種のワークロード(Microsoft Office の使用、Web のブラウズ、PDF の出力、動画の再生、ファイルの圧縮など)を実行します。 |
Logoff |
セッションが Login VSI ワークロードの実行を終了してログオフします。 |
Windows Server 2016 ホスト型セッションと永続/非永続ホスト型仮想デスクトップ ユーザ用に 6140 基の Gold プロセッサと 768 GB のメモリを搭載した Cisco HXAF220c-M5S ノード、Cisco US C220 M5 ノード、および Cisco UCS B200 M5 ノードで構成された Cisco HyperFlex クラスタに推奨される最大ワークロードは、それぞれ Office 2016 仮想デスクトップを使用した 4400 のセッションです。
このセクションでは、RDSH VM および VDI 非永続/永続パフォーマンス モニタリングを実行する、16 の HXAF220c-M5S コンバージド ノードと 16 のコンピューティング専用ノード(Cisco UCS HXAF220C-M5 8 台と Cisco UCS B200 M5 8 台)で構成された Cisco UCS HyperFlex ストレージ クラスタに対するフルスケール テスト中に収集された主要なパフォーマンス指標について詳しく説明します。
4400 ユーザのフルスケール テストは、1550 の RDS ホスト型サーバ セッション、950 台の VDI 非永続インスタント クローン仮想マシン VM、950 台の VDI 非永続リンクド クローン仮想マシン VM、および 950 台の VDI 永続フル クローン仮想マシン VM で構成されています。
テスト結果では、次の点が明らかになっています。
· ベースライン応答時間 = 0.634 秒
· 4400 のデスクトップ セッションが実行中の平均応答時間 = 1.091 秒
· 定常状態での平均 CPU 使用率 = 85%
· 768 GB の RAM の平均使用量 = 356 GB
· ホストあたりのピーク ネットワーク使用率 = 1800 Mbps
· 読み取り操作の平均レイテンシ = 0.15 ms、読み取り操作の最大レイテンシ = 0.79 ms
· 書き込み操作の平均レイテンシ = 2.8 ms、書き込み操作の最大レイテンシ = 5.0 ms
· 定常状態でのクラスタあたりのピーク I/O 操作回数/秒(IOPS) = 50000
· 定常状態でのクラスタあたりのピーク スループット = 1000 Mbps
· 重複排除による削減 = 89%
· 圧縮による削減 = 44%
· ストレージ容量の節約 = 94%
図 48 4400 ユーザ テストに対する LoginVSI アナライザ グラフ
図 49 32 ノード HyperFlex クラスタで 4 回連続して実行された 4400 ナレッジ ワークロード テストの LoginVSI アナライザ グラフ
図 50 32 ノードでの 4400 ユーザ テスト実行中の ESXi ホスト CPU コア使用率の例
図 51 32 ノードでの 4400 ユーザ テスト実行中の ESXi ホスト メモリ使用量の例
図 52 32 ノードでの 4400 ユーザ テスト実行中の ESXi ホスト ネットワーク アダプタ(VMNIC)の受信/送信速度
(Mbit/秒)の例
図 53 32 ノードでの 4400 ユーザ テスト実行中のナレッジ ワーカー ワークロードの HyperFlex Cluster WebUI パフォーマンス グラフ
図 54 vCenter WebUI から報告された、32 ノード HyperFlex クラスタに展開された Windows Server 2016 ベースのホスト型共有セッションと Windows 10 ベースのホスト型仮想デスクトップでサポートされる、4400 ユーザ セッションでの HyperFlex クラスタの重複排除および圧縮による削減結果
Cisco HyperFlex ソリューションは、コスト効率が良く、導入と管理が容易なプラットフォームを提供することによって、IT の差し迫ったニーズを解決します。使用されているアーキテクチャとアプローチによって、シスコ製の使い慣れた一貫性のある管理モデルを採用した、柔軟で高性能なシステムが実現します。さらにこのソリューションは、次世代のハイパーコンバージド システムを実現するためのさまざまなエンタープライズクラスのデータ管理機能も提供します。
シスコならではの柔軟性によってコンピューティング専用ノードを追加すれば、デスクトップ仮想化などのコンピューティング集約型のワークロードに対応する真のハイパーコンバージド クラスタを実現できます。これらのノードにハイパーコンバージェンスのライセンスは不要です。これはつまり、コストを削減できるということです。
復元力のある高性能な VMware Horizon 7 でプロビジョニングされたホスト型アプリケーションまたはデスクトップ向けの Microsoft Windows 7 仮想マシンと Microsoft Windows Server 2016 は、デスクトップ仮想化管理者に多くの利益をもたらします。
32 ノードでテストされたシステムは、8800 のナレッジ ワーカー ユーザに予期されるユーザ キャパシティに応じて 64 ノードまで拡張可能です(単一の UCS ラック ソリューションに 32 のハイパーコンバージド ノードと 32 のコンピューティング専用ノードを格納)。
このソリューションでは、グラフィック アクセラレーション ワークロードも完全にサポートできます。Cisco HyperFlex HXAF240c M5 ノードと Cisco UCS C240 M5 サーバのそれぞれで、最大 2 枚の NVIDIA M10 カードまたは P40 カードと、最大 6 枚の NVIDIA P4 カードをサポートできます。Cisco UCS B200 M5 サーバでは、高密度、高パフォーマンスのグラフィック ワークロード用に、最大 2 枚の NVIDIA P6 カードをサポートします。この機能と VMware Horizon との統合方法の詳細については、NVIDIA GPU およびソフトウェアを使用した第 5 世代サーバに関する『Cisco Graphics White Paper』[英語] を参照してください。
ベンチマーク モードの Login VSI ツールで測定された仮想デスクトップのエンド ユーザ エクスペリエンスは、Intel Xeon スケーラブル ファミリ プロセッサと Cisco 2666Mhz メモリでは卓越した結果を示しています。実際のところ、シスコによって、ハイパーコンバージド プラットフォームでのデスクトップ仮想化パフォーマンスの新しい業界標準が確立されています。
Ramesh Guduru
テクニカル マーケティング エンジニア、仮想クライアント コンピューティングおよびグラフィック ソリューション、Cisco Systems, Inc.
Ramesh は事業案件専門家として、Cisco HyperFlex、Cisco Unified Computing System、Cisco Nexus スイッチ, VMware vSphere および VMware Horizon エンド ユーザ コンピューティングに取り組んでいます。枯れ葉、シスコのコンピューティング システム事業部門ソリューション チームのメンバーです。
この Cisco Validated Design の設計、検証、作成をサポートし、貢献してくれた以下の同僚に感謝の言葉を贈ります。彼の貢献と専門知識のおかげで、このドキュメントが完成しました。
· Mike Brennan、テクニカル マーケティング エンジニア、仮想クライアント コンピューティングおよびグラフィック ソリューション、Cisco Systems, Inc.
!Command: show running-config.
!Time: Fri Nov 13 17:17:40 2018
version 7.0(3)I7(2)
switchname XXXXXXXXXXX
class-map type network-qos class-fcoe
match qos-group 1
class-map type network-qos class-all-flood
match qos-group 2
class-map type network-qos class-ip-multicast
match qos-group 2
vdc XXXXXXXXXX id 1
limit-resource vlan minimum 16 maximum 4094
limit-resource vrf minimum 2 maximum 4096
limit-resource port-channel minimum 0 maximum 511
limit-resource u4route-mem minimum 248 maximum 248
limit-resource u6route-mem minimum 96 maximum 96
limit-resource m4route-mem minimum 58 maximum 58
limit-resource m6route-mem minimum 8 maximum 8
feature telnet
cfs eth distribute
feature interface-vlan
feature hsrp
feature lacp
feature dhcp
feature vpc
feature lldp
clock protocol ntp vdc 1
no password strength-check
username admin password 5 $1$MSJwTJtn$Bo0IrVnESUVxLcbRHg86j1 role network-admin
ip domain-lookup
no service unsupported-transceiver
class-map type qos match-all class-fcoe
policy-map type qos jumbo
class class-default
set qos-group 0
copp profile strict
snmp-server user admin network-admin auth md5 0x71d6a9cf1ea007cd3166e91a6f3807e5
priv 0x71d6a9cf1ea007cd3166e91a6f3807e5 localizedkey
rmon event 1 log trap public description FATAL(1) owner PMON@FATAL
rmon event 2 log trap public description CRITICAL(2) owner PMON@CRITICAL
rmon event 3 log trap public description ERROR(3) owner PMON@ERROR
rmon event 4 log trap public description WARNING(4) owner PMON@WARNING
rmon event 5 log trap public description INFORMATION(5) owner PMON@INFO
ntp server 10.10.50.2
ntp peer 10.10.50.3
ntp server 171.68.38.66 use-vrf management
ntp logging
ntp master 8
vlan 1,50-56
vlan 50
name InBand-Mgmt-C1
vlan 51
name Infra-Mgmt-C1
vlan 52
name StorageIP-C1
vlan 53
name vMotion-C1
vlan 54
name VM-Data-C1
vlan 55
name Launcher-C1
service dhcp
ip dhcp relay
ip dhcp relay information option
ipv6 dhcp relay
vrf context management
ip route 0.0.0.0/0 10.29.132.1
vpc domain 50
role priority 1000
peer-keepalive destination 10.29.132.5 source 10.29.132.4
interface Vlan1
no shutdown
ip address 10.29.132.2/24
interface Vlan50
no shutdown
ip address 10.10.50.2/24
hsrp version 2
hsrp 50
preempt
priority 110
ip 10.10.50.1
ip dhcp relay address 10.10.51.21
ip dhcp relay address 10.10.51.22
interface Vlan51
no shutdown
ip address 10.10.51.2/24
hsrp version 2
hsrp 51
preempt
priority 110
ip 10.10.51.1
interface Vlan52
no shutdown
ip address 10.10.52.2/24
hsrp version 2
hsrp 52
preempt
priority 110
ip 10.10.52.1
interface Vlan53
no shutdown
ip address 10.10.53.2/24
hsrp version 2
hsrp 53
preempt
priority 110
ip 10.10.53.1
interface Vlan54
no shutdown
ip address 10.54.0.2/20
hsrp version 2
hsrp 54
preempt
priority 110
ip 10.54.0.1
ip dhcp relay address 10.10.51.21
ip dhcp relay address 10.10.51.22
interface port-channel10
description vPC-PeerLink
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type network
service-policy type qos input jumbo
vpc peer-link
interface port-channel11
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 11
interface port-channel12
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 12
interface port-channel13
description FI-Uplink-K13
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 13
interface port-channel14
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 14
interface port-channel49
description FI-Uplink-K23
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
vpc 49
interface port-channel50
description FI-Uplink-K23
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
vpc 50
interface Ethernet1/1
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/2
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/3
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/4
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/5
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 11 mode active
interface Ethernet1/6
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 11 mode active
interface Ethernet1/7
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 12 mode active
interface Ethernet1/8
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 12 mode active
interface Ethernet1/9
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 13 mode active
interface Ethernet1/10
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 13 mode active
interface Ethernet1/11
interface Ethernet1/12
interface Ethernet1/13
interface Ethernet1/14
interface Ethernet1/15
description HX-Infra01
switchport mode trunk
switchport trunk allowed vlan 1,50-55
interface Ethernet1/16
description HX-Infra02
switchport mode trunk
switchport trunk allowed vlan 1,50-55
interface Ethernet1/17
interface Ethernet1/18
interface Ethernet1/19
interface Ethernet1/20
interface Ethernet1/21
interface Ethernet1/22
interface Ethernet1/23
interface Ethernet1/24
interface Ethernet1/25
interface Ethernet1/26
interface Ethernet1/27
switchport mode trunk
switchport trunk allowed vlan 1,50-54
spanning-tree port type edge trunk
interface Ethernet1/28
switchport mode trunk
switchport trunk allowed vlan 1,50-54
spanning-tree port type edge trunk
interface Ethernet1/29
interface Ethernet1/30
interface Ethernet1/31
interface Ethernet1/32
interface Ethernet1/33
interface Ethernet1/34
interface Ethernet1/35
interface Ethernet1/36
interface Ethernet1/37
interface Ethernet1/38
interface Ethernet1/39
interface Ethernet1/40
interface Ethernet1/41
interface Ethernet1/42
interface Ethernet1/43
interface Ethernet1/44
interface Ethernet1/45
interface Ethernet1/46
interface Ethernet1/47
interface Ethernet1/48
interface Ethernet1/49
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 49 mode active
interface Ethernet1/50
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 50 mode active
interface Ethernet1/51
interface Ethernet1/52
interface Ethernet1/53
interface Ethernet1/54
interface mgmt0
vrf member management
ip address 10.29.132.4/24
clock timezone PST -8 0
clock summer-time PDT 2 Sunday March 02:00 1 Sunday November 02:00 60
line console
line vty
boot nxos bootflash:/nxos.7.0.3.I7.2.bin
!Command: show running-config
!Time: Fri Nov 13 17:18:36 2018
version 7.0(3)I7(2)
switchname XXXXXXXXXX
class-map type network-qos class-fcoe
match qos-group 1
class-map type network-qos class-all-flood
match qos-group 2
class-map type network-qos class-ip-multicast
match qos-group 2
vdc XXXXXXXXXX id 1
limit-resource vlan minimum 16 maximum 4094
limit-resource vrf minimum 2 maximum 4096
limit-resource port-channel minimum 0 maximum 511
limit-resource u4route-mem minimum 248 maximum 248
limit-resource u6route-mem minimum 96 maximum 96
limit-resource m4route-mem minimum 58 maximum 58
limit-resource m6route-mem minimum 8 maximum 8
feature telnet
cfs eth distribute
feature interface-vlan
feature hsrp
feature lacp
feature dhcp
feature vpc
feature lldp
clock protocol ntp vdc 1
no password strength-check
username admin password 5 $1$jEwHqUvM$gpOec2hramkyX09KD3/Dn. role network-admin
ip domain-lookup
no service unsupported-transceiver
class-map type qos match-all class-fcoe
policy-map type qos jumbo
class class-default
set qos-group 0
copp profile strict
snmp-server user admin network-admin auth md5 0x9046c100ce1f4ecdd74ef2f92c4e83f9
priv 0x9046c100ce1f4ecdd74ef2f92c4e83f9 localizedkey
rmon event 1 log trap public description FATAL(1) owner PMON@FATAL
rmon event 2 log trap public description CRITICAL(2) owner PMON@CRITICAL
rmon event 3 log trap public description ERROR(3) owner PMON@ERROR
rmon event 4 log trap public description WARNING(4) owner PMON@WARNING
rmon event 5 log trap public description INFORMATION(5) owner PMON@INFO
ntp peer 10.10.50.2
ntp server 10.10.50.3
ntp server 171.68.38.66 use-vrf management
ntp logging
ntp master 8
vlan 1,50-54
vlan 50
name InBand-Mgmt-C1
vlan 51
name Infra-Mgmt-C1
vlan 52
name StorageIP-C1
vlan 53
name vMotion-C1
vlan 54
name VM-Data-C1
service dhcp
ip dhcp relay
ip dhcp relay information option
ipv6 dhcp relay
vrf context management
ip route 0.0.0.0/0 10.29.132.1
vpc domain 50
role priority 2000
peer-keepalive destination 10.29.132.4 source 10.29.132.5
interface Vlan1
no shutdown
ip address 10.29.132.3/24
interface Vlan50
no shutdown
ip address 10.10.50.3/24
hsrp version 2
hsrp 50
preempt
priority 110
ip 10.10.50.1
ip dhcp relay address 10.10.51.21
ip dhcp relay address 10.10.51.22
interface Vlan51
no shutdown
ip address 10.10.51.3/24
hsrp version 2
hsrp 51
preempt
priority 110
ip 10.10.51.1
interface Vlan52
no shutdown
ip address 10.10.52.3/24
hsrp version 2
hsrp 52
preempt
priority 110
ip 10.10.52.1
interface Vlan53
no shutdown
ip address 10.10.53.3/24
hsrp version 2
hsrp 53
preempt
priority 110
ip 10.10.53.1
interface Vlan54
no shutdown
ip address 10.54.0.3/20
hsrp version 2
hsrp 54
preempt
priority 110
ip 10.54.0.1
ip dhcp relay address 10.10.51.21
ip dhcp relay address 10.10.51.22
interface Vlan55
no shutdown
ip address 10.10.55.3/24
hsrp version 2
hsrp 55
preempt
priority 110
ip 10.55.0.1
ip dhcp relay address 10.10.51.21
ip dhcp relay address 10.10.51.22
interface port-channel10
description vPC-PeerLink
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type network
service-policy type qos input jumbo
vpc peer-link
interface port-channel11
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 11
interface port-channel12
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
service-policy type qos input jumbo
vpc 12
interface port-channel13
description FI-Uplink-K22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
vpc 13
interface port-channel14
description FI-Uplink-k22
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
mtu 9216
vpc 14
interface Ethernet1/1
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/2
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/3
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/4
switchport mode trunk
switchport trunk allowed vlan 1,50-55
channel-group 10 mode active
interface Ethernet1/5
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 11 mode active
interface Ethernet1/6
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 11 mode active
interface Ethernet1/7
switchport mode trunk
switchport trunk allowed vlan 1,50-55
mtu 9216
channel-group 12 mode active
interface Ethernet1/8
switchport mode trunk
switchport trunk allowed vlan 1,50-54
mtu 9216
channel-group 12 mode active
interface Ethernet1/9
interface Ethernet1/10
interface Ethernet1/11
interface Ethernet1/12
interface Ethernet1/13
interface Ethernet1/14
interface Ethernet1/15
description HX-Infra01
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/16
description HX-Infra02
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/17
interface Ethernet1/18
interface Ethernet1/19
interface Ethernet1/20
interface Ethernet1/21
interface Ethernet1/22
interface Ethernet1/23
interface Ethernet1/24
interface Ethernet1/25
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/26
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/27
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/28
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/29
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/30
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/31
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/32
switchport mode trunk
switchport trunk allowed vlan 1,50-55
spanning-tree port type edge trunk
interface Ethernet1/33
interface Ethernet1/34
interface Ethernet1/35
interface Ethernet1/36
interface Ethernet1/37
interface Ethernet1/38
interface Ethernet1/39
interface Ethernet1/40
interface Ethernet1/41
interface Ethernet1/42
interface Ethernet1/43
interface Ethernet1/44
interface Ethernet1/45
interface Ethernet1/46
interface Ethernet1/47
interface Ethernet1/48
switchport access vlan 50
interface Ethernet1/49
interface Ethernet1/50
interface Ethernet1/51
interface Ethernet1/52
interface Ethernet1/53
interface Ethernet1/54
interface mgmt0
vrf member management
ip address 10.29.132.5/24
clock timezone PST -8 0
clock summer-time PDT 2 Sunday March 02:00 1 Sunday November 02:00 60
line console
line vty
boot nxos bootflash:/nxos.7.0.3.I7.2.bin
no system default switchport shutdown
以下のグラフは、4400 Horizon 7 で展開されたユーザ ベンチマーク テストで Login VSI 4.1.32.1 ナレッジ ワーカー ワークロードをテスト中の 32 ノード クラスタのパフォーマンス パラメータを示しています。
これらのパフォーマンス グラフから、データ プラットフォーム バージョン v3.5.(1a) を実行するハイブリッド構成の HyperFlex のオールフラッシュ ノードとコンピューティング専用ノードがすべて一貫して、このクラスのハードウェアの通常の動作パラメータ以内で正常に機能していることがわかります。このデータは、32 台すべてのサーバで均等にワークロードが分散されることも裏付けます。
図 55 HXAF-VDI01:メモリ使用量(Mbyte)
図 56 HXAF VDI01:ホストの CPU コア使用率
図 57 HXAF VDI01:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 58 HXAF-VDI02:メモリ使用量(Mbyte)
図 59 HXAF VDI02:ホストの CPU コア使用率
図 60 HXAF VDI02:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 61 HXAF-VDI03:メモリ使用量(Mbyte)
図 62 HXAF VDI03:ホストの CPU コア使用率
図 63 HXAF VDI03:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 64 HXAF-VDI04:メモリ使用量(Mbyte)
図 65 HXAF VDI04:ホストの CPU コア使用率
図 66 HXAF VDI04:ネットワーク アダプタ(VMNIC)の受信/送信 Mbit/秒
図 67 HXAF-VDI05:メモリ使用量(Mbyte)
図 68 HXAF VDI05:ホストの CPU コア使用率
図 69 HXAF VDI05:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 70 HXAF-VDI06:メモリ使用量(Mbyte)
図 71 HXAF VDI06:ホストの CPU コア使用率
図 72 HXAF VDI06:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 73 HXAF-VDI07:メモリ使用量(Mbyte)
図 74 HXAF VDI07:ホストの CPU コア使用率
図 75 HXAF VDI07:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 76 HXAF-VDI08:メモリ使用量(Mbyte)
図 77 HXAF VDI08:ホストの CPU コア使用率
図 78 HXAF VDI08:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 79 HXAF-VDI09:メモリ使用量(Mbyte)
図 80 HXAF VDI09:ホストの CPU コア使用率
図 81 HXAF VDI09:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 82 HXAF-VDI10:メモリ使用量(Mbyte)
図 83 HXAF VDI10:ホストの CPU コア使用率
図 84 HXAF VDI10:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 85 HXAF-VDI11:メモリ使用量(Mbyte)
図 86 HXAF VDI11:ホストの CPU コア使用率
図 87 HXAF VDI11:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 88 HXAF-VDI12:メモリ使用量(Mbyte)
図 89 HXAF VDI12:ホストの CPU コア使用率
図 90 HXAF VDI12:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 91 HXAF-VDI13:メモリ使用量(Mbyte)
図 92 HXAF VDI13:ホストの CPU コア使用率
図 93 HXAF VDI13:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 94 HXAF-VDI14:メモリ使用量(Mbyte)
図 95 HXAF VDI14:ホストの CPU コア使用率
図 96 HXAF VDI14:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 97 HXAF-VDI15:メモリ使用量(Mbyte)
図 98 HXAF VDI15:ホストの CPU コア使用率
図 99 HXAF VDI15:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 100 HXAF-VDI16:メモリ使用量(Mbyte)
図 101 HXAF VDI16:ホストの CPU コア使用率
図 102 HXAF VDI16:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 103 Cisco UCS C220 M5-VDI09:メモリ使用量(Mbyte)
図 104 Cisco UCS C220 M5-VDI09:ホストの CPU コア使用率
図 105 Cisco UCS C220 M5-VDI09:ネットワーク アダプタ(VMNIC)の受信/送信速度 (Mbit/秒)
図 106 Cisco UCS C220 M5-VDI10:メモリ使用量(Mbyte)
図 107 Cisco UCS C220 M5-VDI10:ホストの CPU コア使用率
図 108 Cisco UCS C220 M5-VDI10:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 109 Cisco UCS C220 M5-VDI11:メモリ使用量(Mbyte)
図 110 Cisco UCS C220 M5-VDI11:ホストの CPU コア使用率
図 111 Cisco UCS C220 M5-VDI11:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 112 Cisco UCS C220 M5-VDI12:メモリ使用量(Mbyte)
図 113 Cisco UCS C220 M5-VDI12:ホストの CPU コア使用率
図 114 Cisco UCS C220 M5-VDI12:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 115 Cisco UCS C220 M5-VDI13:メモリ使用量(Mbyte)
図 116 Cisco UCS C220 M5-VDI13:ホストの CPU コア使用率
図 117 Cisco UCS C220 M5-VDI13:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 118 Cisco UCS C220 M5-VDI14:メモリ使用量(Mbyte)
図 119 Cisco UCS C220 M5-VDI14:ホストの CPU コア使用率
図 120 Cisco UCS C220 M5-VDI14:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 121 Cisco UCS C220 M5-VDI15:メモリ使用量(Mbyte)
図 122 Cisco UCS C220 M5-VDI15:ホストの CPU コア使用率
図 123 Cisco UCS C220 M5-VDI15:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 124 Cisco UCS C220 M5-VDI16:メモリ使用量(Mbyte)
図 125 Cisco UCS C220 M5-VDI16:ホストの CPU コア使用率
図 126 Cisco UCS C220 M5-VDI16:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 127 Cisco UCS B200 M5-VDI01:メモリ使用量(Mbyte)
図 128 Cisco UCS B200 M5-VDI01:ホストの CPU コア使用率
図 129 Cisco UCS B200 M5-VDI01:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 130 Cisco UCS B200 M5-VDI02:メモリ使用量(Mbyte)
図 131 Cisco UCS B200 M5-VDI02:ホストの CPU コア使用率
図 132 Cisco UCS B200 M5-VDI02:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 133 Cisco UCS B200 M5-VDI03:メモリ使用量(Mbyte)
図 134 Cisco UCS B200 M5-VDI03:ホストの CPU コア使用率
図 135 Cisco UCS B200M5-VDI03:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 136 Cisco UCS B200 M5-VDI04:メモリ使用量(Mbyte)
図 137 Cisco UCS B200 M5-VDI05:ホストの CPU コア使用率
図 138 Cisco UCS B200 M5-VDI04:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 139 Cisco UCS B200 M5-VDI05:メモリ使用量(Mbyte)
図 140 Cisco UCS B200 M5-VDI05:ホストの CPU コア使用率
図 141 Cisco UCS B200 M5-VDI05:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 142 Cisco UCS B200 M5-VDI06:メモリ使用量(Mbyte)
図 143 Cisco UCS B200 M5-VDI06:ホストの CPU コア使用率
図 144 Cisco UCS B200 M5-VDI06:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 145 Cisco UCS B200 M5-VDI07:メモリ使用量(Mbyte)
図 146 Cisco UCS B200 M5-VDI07:ホストの CPU コア使用率
図 147 Cisco UCS B200 M5-VDI07:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)
図 148 Cisco UCS B200 M5-VDI08:メモリ使用量(Mbyte)
図 149 Cisco UCS B200 M5-VDI08:ホストの CPU コア使用率
図 150 Cisco UCS B200 M5-VDI08:ネットワーク アダプタ(VMNIC)の受信/送信速度(Mbit/秒)