Linux KVM での展開(リリース 3.2.2 以降)

Linux KVM で Nexus Dashboard クラスタを展開するための前提条件と注意事項

Linux KVM で Nexus Dashboard クラスタの展開に進む前に、KVM が次の前提条件を満たしている必要があり、次の注意事項に従う必要があります。

  • 次の前提条件とガイドラインは、 Nexus Dashboard リリース 3.2.2 にのみ適用されます。

    • ノードの VM を作成する場合、 CLIベースの手順のみがサポートされます。

  • KVM ホストは、次のサポートされているLinuxディストリビューションのいずれかを実行している必要があります。

    • KVM による Red Hat Enterprise Linux(RHEL)8.8

    • KVM による Red Hat Enterprise Linux(RHEL)8.10

  • RHEL ホストOSに KVM、 qemuvirt-manager、および libvirt がすでにインストールされていることを確認します。

  • virt-installvirt-manager の導入で有効であることを確認します。

  • KVM フォーム ファクタが拡張性とサービス要件をサポートする必要があります。

    クラスタ フォーム ファクタに基づいて、拡張性とサービス サポートおよび共同ホストは異なります。Nexus ダッシュボード キャパシティ プラン二ング ツールを使用して、仮想フォーム ファクタが展開要件を満たすことを確認できます。

  • 前提条件:Nexus Dashboard に記載されている一般的な前提条件を確認して完了します。

  • 展開予定のサービスのリリース ノートに説明されている追加の前提条件を確認し、条件を満たすようにしてください。

  • Linux KVM に Nexus Dashboard を展開するには、KVM ハイパーバイザが次の要件を満たしていることを確認します。

    • Nexus Dashboard 仮想マシンを起動するには、 CPU 仮想化が必要です。ホストには次が必要です。

      • x86 ベースのシステム用の Intel VT-x および Intel 64 仮想化拡張機能を備えた Intel プロセッサ、または

      • AMD-V および AMD64 仮想化拡張機能を備えた AMD プロセッサ。

      次のコマンドを使用して仮想化拡張機能をチェックし、システムにハードウェア仮想化拡張機能があり、それらが有効になっているかどうかを判断できます。

      grep -E 'svm|vmx' /proc/cpuinfo

    • また、KVM ホストは、 Nexus Dashboard 仮想マシンをホストするために、次のコンピューティング リソース要件も満たす必要があります。

      • CPU:16 vCPU

      • メモリ:64 GB RAM

      • ストレージ:合計ディスクストレージ 550 GB。

        ディスクの I/O 遅延は 20 ミリ秒以下である必要があるため、 SSD または NVME ドライブを使用してストレージを割り当てる必要があります。「Linux KVM ストレージ デバイスの I/O 遅延の確認」を参照してください。

    • 可用性の高いクラスター(たとえば、3 つ以上のリモート対応マシン)を展開する場合、仮想マシンの展開は次の配置要件を満たす必要があります。

      • 仮想マシン間で同じ SSD を共有することはできません。

      • 各 Nexus Dashboard ノードは異なる KVM ハイパーバイザに展開することを推奨します。

    • また、 Nexus Dashboad の展開に必要な次のネットワーク ブリッジをホスト レベルで構成する必要があります。

      • 管理網ブリッジ(mgmt-bridge): Nexus Dashboad を管理するための外部ネットワーク。

      • データ網ブリッジ(data-bridge): Nexus Dashboad 内でクラスタリングを形成するために使用される内部ネットワーク。

Linux KVM ストレージ デバイスの I/O 遅延の確認

Linux KVM に Nexus Dashboard クラスタを展開する場合、KVM のストレージ デバイスの遅延は 20 ミリ秒未満である必要があります。

Linux KVM ストレージ デバイスの I/O 遅延を確認するには、次の手順を実行します。

手順


ステップ 1

テスト ディレクトリを作成します。

たとえば、 test-dataという名前のディレクトリを作成します。

ステップ 2

フレキシブル I/O テスター(FIO)を実行します。

# fio --rw=write --ioengine=sync --fdatasync=1 --directory=test-data --size=22m --bs=2300 --name=mytest

ステップ 3

コマンドの実行後に、fsync/fdatasync/sync_file_range セクションの 99.00th=[<value>] が 20 ミリ秒未満であることを確認します。


Linux KVM での Nexus ダッシュボードの展開

ここでは、Linux KVM で Cisco Nexus ダッシュボード クラスタを展開する方法について説明します。


(注)  


KVM の展開は、Nexus Dashboard Fabric Controller でのみサポートされます。


始める前に

手順


ステップ 1

Cisco Nexus ダッシュボード イメージをダウンロードします。

  1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

    https://software.cisco.com/download/home/286327743/type/286328258

  2. [Nexus ダッシュボード ソフトウェア] をクリックします。

  3. 左側のサイドバーから、ダウンロードする Nexus ダッシュボードのバージョンを選択します。

  4. Linux KVM の Cisco Nexus ダッシュボード イメージをダウンロードします(nd-dk9.<version>.qcow2)。

ステップ 2

ノードをホストする Linux KVM サーバーにイメージをコピーします。

scp を使用してイメージをコピーできます。次に例を示します。

# scp nd-dk9.<version>.qcow2 root@<kvm-host-ip>:/home/nd-base

次の手順は、イメージ nd-dk9.3.2.1i.qcow2/home/nd-base ディレクトリにコピーしたことを前提としています。

ステップ 3

各 KVM ホストで次の構成を行います。

  1. /etc/libvirt/qemu.conf を編集、 Nexus Dashboard の展開に使用する予定のストレージの所有権に基づいて、ユーザーとグループが正しく設定されていることを確認します。

    これは、デフォルトの libvirtdとは異なるディスク ストレージ パスを使用する場合にのみ必要です。

  2. /etc/libvirt/libvirt.conf を編集、 uri_default のコメントを外します。

  3. ルートから systemctl restart libvirtd コマンドを使用して設定を更新した後、 libvirtd サービスを再起動します。

ステップ 4

ノードに必要なディスク イメージを作成します。

前述のように、2 つのディスク イメージを作成するには、合計 550 GB のSSDストレージが必要です。

  • ダウンロードした QCOW2 イメージに基づいてディスクを起動します。

  • 500GB のデータ ディスク

ステップ 5

KVM ホストに ルート ユーザーとしてログインし、各ノードで次の手順を実行します。

  1. ストレージ ディスク(raw ディスクまたは LVM)をディレクトリ /opt/cisco/ndにマウントします。

  2. ルート ディレクトリの下に /root/create_vm.sh として次のスクリプトを作成します。

    (注)  

     

    この情報を手動で入力する場合は、これらの行の後に空白がないことを確認します。

    #!/bin/bash -ex
    
    # Configuration
    # Name of Nexus Dashboard Virtual machine
    name=nd1
    
    # Path of Nexus Dashboard QCOW2 image.
    nd_qcow2=/home/nd-base/nd-dk9.3.2.1i.qcow2
    
    # Disk Path to storage Boot and Data Disks.
    data_disk=/opt/cisco/nd/data
    
    # Management Network Bridge
    mgmt_bridge=mgmt-bridge
    
    # Data Network bridge
    data_bridge=data-bridge
    
    # Data Disk Size
    data_size=500G
    
    # CPU Cores
    cpus=16
    
    # Memory in units of MB.
    memory=65536
    
    # actual script
    rm -rf $data_disk/boot.img
    /usr/bin/qemu-img convert -f qcow2 -O raw $nd_qcow2 $data_disk/boot.img
    rm -rf $data_disk/disk.img
    /usr/bin/qemu-img create -f raw $data_disk/disk.img $data_size
    virt-install \
    --import \
    --name $name \
    --memory $memory \
    --vcpus $cpus \
    --os-type generic \
    --osinfo detect=on,require=off \
    --check path_in_use=off \
    --disk path=${data_disk}/boot.img,format=raw,bus=virtio \
    --disk path=${data_disk}/disk.img,format=raw,bus=virtio \
    --network bridge=$mgmt_bridge,model=virtio \
    --network bridge=$data_bridge,model=virtio \
    --console pty,target_type=serial \
    --noautoconsole \
    --autostart

ステップ 6

以前のステップを繰り返し、2 番目と 3 番目のノードを展開して、すべての VM を開始します。

(注)  

 

単一のノードクラスタを展開している場合は、この手順をスキップできます。

ステップ 7

ノードのコンソールのいずれかを開き、ノードの基本情報を設定します。Linux KVM 環境にデスクトップ GUI がない場合は、 virsh コンソールを 実行します。<node-name>コマンドを使用して、ノードのコンソールにアクセスします。

  1. いずれかのキーを押して、初期設定を開始します。

    初回セットアップユーティリティの実行を要求するプロンプトが表示されます。

    [ OK ] Started atomix-boot-setup.
           Starting Initial cloud-init job (pre-networking)...
           Starting logrotate...
           Starting logwatch...
           Starting keyhole...
    [ OK ] Started keyhole.
    [ OK ] Started logrotate.
    [ OK ] Started logwatch.
    
    Press any key to run first-boot setup on this console...
  2. admin パスワードを入力して確認します。

    このパスワードは、rescue-user SSH ログインおよび初期 GUI パスワードに使用されます。

    (注)  

     

    すべてのノードに同じパスワードを指定する必要があります。指定しない場合、クラスタ作成に失敗します。

    Admin Password:
    Reenter Admin Password:
  3. 管理ネットワーク情報を入力します。

    Management Network:
      IP Address/Mask: 192.168.9.172/24
      Gateway: 192.168.9.1
  4. 最初のノードのみ、「クラスタ リーダー」として指定します。

    クラスタ リーダー ノードにログインして、設定を完了し、クラスタの作成を完了します。

    Is this the cluster leader?: y
  5. 入力した譲歩をレビューし、確認します。

    入力した情報を変更するかどうかを尋ねられます。すべてのフィールドが正しい場合は、n を選択して続行します。入力した情報を変更する場合は、y を入力して基本設定スクリプトを再起動します。

    Please review the config
    Management network:
      Gateway: 192.168.9.1
      IP Address/Mask: 192.168.9.172/24
    Cluster leader: yes
    
    Re-enter config? (y/N): n

ステップ 8

前の手順を繰り返して、2 番目と 3 番目のノードの初期情報を構成します。

最初のノードの設定が完了するのを待つ必要はありません。他の 2 つのノードの設定を同時に開始できます。

(注)  

 

すべてのノードに同じパスワードを指定する必要があります。指定しない場合、クラスタ作成に失敗します。

2 番目と 3 番目のノードを展開する手順は同じですが、クラスタ リーダーではないことを示す必要がある点が異なります。

ステップ 9

初期ブートストラップ プロセスを待機して、すべてのノードで完了します。

管理ネットワーク情報を入力して確認すると、最初のノード(クラスタ リーダー)初期設定でネットワーキングが設定され、UI が表示されます。この UI を使用して、他の 2 つのノードを追加し、クラスタの展開を完了します。

Please wait for system to boot: [#########################] 100%
System up, please wait for UI to be online.

System UI online, please login to https://192.168.9.172 to continue.

ステップ 10

ブラウザを開き、https://<node-mgmt-ip> に移動して、GUI を開きます。

残りの設定ワークフローは、ノードの GUI の 1 つから実行します。展開したノードのいずれか 1 つを選択して、ブートストラッププロセスを開始できます。他の 2 つのノードにログインしたり、これらを直接構成したりする必要はありません。

前の手順で入力したパスワードを入力し、[ログイン(Login)] をクリックします。

ステップ 11

[クラスタの詳細(Cluster Details)] を入力します。

[クラスタ起動(Cluster Bringup)] ウィザードの [クラスタの詳細(Cluster Details)] 画面で、次の情報を入力します。

  1. Nexus ダッシュボード クラスタの [クラスタ名(Cluster Name)] を入力します。

    • クラスタ名は、 RFC-1123 の要件に従う必要があります。

    • マルチクラスター接続を使用して複数の Nexus Dashboard クラスター間の接続を確立する場合は、一緒に接続する予定のクラスターの名前が一意である必要があります。

  2. (オプション)クラスタの IPv6 機能を有効にする場合は、[IPv6 を有効にする(Enable IPv6)] チェックボックスをオンにします。

  3. [+DNS プロバイダの追加(+Add DNS Provider)] をクリックして、1 つ以上の DNS サーバを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  4. (オプション)[+DNS 検索ドメインの追加(+Add DNS Search Domain )] をクリックして、検索ドメインを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  5. (オプション)NTP サーバー認証を有効にする場合には、[NTP 認証(NTP Authentication)] チェックボックスをオンにし、[NTP キーの追加(Add NTP Key)]をクリックします。

    次のフィールドで、以下の情報を提供します。

    • NTP キー:Nexus ダッシュボードと NTP サーバ間の NTP トラフィックを認証するために使用される暗号キー。次の手順で NTP サーバーを定義します。複数の NTP サーバで同じ NTP キーを使用できます。

    • キー ID:各 NTP キーに一意のキー ID を割り当てる必要があります。この ID は、NTP パケットの検証時に使用する適切なキーを識別するために使用されます。

    • 認証タイプ:このリリースでは、MD5SHA、および AES128CMAC 認証タイプがサポートされています。

    • このキーが信頼できるかどうかを選択します。信頼できないキーは NTP 認証に使用できません。

    (注)  

     

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    NTP 認証の要件とガイドラインの完全なリストについては、すべての有効なサービスの前提条件と注意事項 を参照してください。

  6. [+ NTP ホスト名/IP アドレスの追加(+Add NTP Host Name/IP Address)] をクリックして、1 つ以上の NTP サーバを追加します。

    次のフィールドで、以下の情報を提供します。

    • NTP ホスト:IP アドレスを指定する必要があります。完全修飾ドメイン名(FQDN)はサポートされていません。

    • キー ID:このサーバーの NTP 認証を有効にする場合は、前の手順で定義した NTP キーのキー ID を指定します。

      NTP 認証が無効になっている場合、このフィールドはグレー表示されます。

    • この NTP サーバーを [優先(Preferred)] にするかどうかを選択します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    (注)  

     

    ログインしているノードに IPv4 アドレスのみが設定されているが、前の手順で [IPv6 を有効にする(Enable IPv6)] をオンにして NTP サーバーの IPv6 アドレスを指定した場合は、次の検証エラーが表示されます。

    これは、ノードに IPv6 アドレスがまだなく(次の手順で指定します)、NTP サーバーの IPv6 アドレスに接続できないためです。

    この場合、次の手順の説明に従って他の必要な情報の入力を完了し、[次へ(Next)] をクリックして次の画面に進み、ノードの IPv6 アドレスを入力します。

    追加の NTP サーバーを指定する場合は、[+NTP ホストの追加(+Add NTP Host)] を再度クリックし、このサブステップを繰り返します。

  7. [プロキシ サーバー(Proxy Server)] を指定し、[検証(Validate)] をクリックします。

    Cisco Cloud に直接接続できないクラスタの場合は、接続を確立するためにプロキシ サーバを構成することをお勧めします。これにより、ファブリック内の非適合ハードウェアおよびソフトウェアにさらされるリスクを軽減できます。

    [+無視するホストを追加(+Add Ignore Host)] をクリックして、プロキシをスキップする 1 つ以上の IP アドレス通信を提供することもできます。

    プロキシ サーバーでは、次の URL が有効になっている必要があります。

    dcappcenter.cisco.com
    svc.intersight.com
    svc.ucs-connect.com
    svc-static1.intersight.com
    svc-static1.ucs-connect.com

    プロキシ設定をスキップする場合は、[プロキシをスキップ(Skip Proxy)] をクリックします。

  8. (オプション) プロキシ サーバで認証が必要な場合は、[プロキシで認証が必要(Authentication required for Proxy)][はい(Yes)] に変更し、ログイン資格情報を指定します。

  9. (オプション) [詳細設定(Advanced Settings)] カテゴリを展開し、必要に応じて設定を変更します。

    詳細設定では、次の設定を行うことができます。

    • カスタム App NetworkService Network を提供します。

      アプリケーション オーバーレイ ネットワークは、Nexus ダッシュボードで実行されるアプリケーションのサービスで使用されるアドレス空間を定義します。このフィールドには、デフォルトの 172.17.0.1/16 値が事前に入力されています。

      サービス ネットワークは、Nexus ダッシュボードとそのプロセスで使用される内部ネットワークです。このフィールドには、デフォルトの 100.80.0.0/16 値が事前に入力されています。

      以前に [IPv6 を有効にする(Enable IPv6)] オプションをオンにした場合は、アプリケーション ネットワークとサービス ネットワークの IPv6 サブネットを定義することもできます。

      アプリケーションおよびサービスネットワークについては、このドキュメントの前の すべての有効なサービスの前提条件と注意事項 の項で説明します。

  10. [次へ(Next)] をクリックして続行します。

ステップ 12

[クラスタの詳細(Cluster Details)] を入力します。

[クラスタ起動(Cluster Bringup)] ウィザードの [クラスタの詳細(Cluster Details)] 画面で、次の情報を入力します。

  1. Nexus ダッシュボード クラスタの [クラスタ名(Cluster Name)] を入力します。

    • クラスタ名は、 RFC-1123 の要件に従う必要があります。

    • マルチクラスター接続を使用して複数の Nexus Dashboard クラスター間の接続を確立する場合は、一緒に接続する予定のクラスターの名前が一意である必要があります。

  2. (オプション)クラスタの IPv6 機能を有効にする場合は、[IPv6 を有効にする(Enable IPv6)] チェックボックスをオンにします。

  3. [+DNS プロバイダの追加(+Add DNS Provider)] をクリックして、1 つ以上の DNS サーバを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  4. (オプション)[+DNS 検索ドメインの追加(+Add DNS Search Domain )] をクリックして、検索ドメインを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  5. (オプション)NTP サーバー認証を有効にする場合には、[NTP 認証(NTP Authentication)] チェックボックスをオンにし、[NTP キーの追加(Add NTP Key)]をクリックします。

    次のフィールドで、以下の情報を提供します。

    • NTP キー:Nexus ダッシュボードと NTP サーバ間の NTP トラフィックを認証するために使用される暗号キー。次の手順で NTP サーバーを定義します。複数の NTP サーバで同じ NTP キーを使用できます。

    • キー ID:各 NTP キーに一意のキー ID を割り当てる必要があります。この ID は、NTP パケットの検証時に使用する適切なキーを識別するために使用されます。

    • 認証タイプ:このリリースでは、MD5SHA、および AES128CMAC 認証タイプがサポートされています。

    • このキーが信頼できるかどうかを選択します。信頼できないキーは NTP 認証に使用できません。

    (注)  

     

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    NTP 認証の要件とガイドラインの完全なリストについては、すべての有効なサービスの前提条件と注意事項 を参照してください。

  6. [+ NTP ホスト名/IP アドレスの追加(+Add NTP Host Name/IP Address)] をクリックして、1 つ以上の NTP サーバを追加します。

    次のフィールドで、以下の情報を提供します。

    • NTP ホスト:IP アドレスを指定する必要があります。完全修飾ドメイン名(FQDN)はサポートされていません。

    • キー ID:このサーバーの NTP 認証を有効にする場合は、前の手順で定義した NTP キーのキー ID を指定します。

      NTP 認証が無効になっている場合、このフィールドはグレー表示されます。

    • この NTP サーバーを [優先(Preferred)] にするかどうかを選択します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    (注)  

     

    ログインしているノードに IPv4 アドレスのみが設定されているが、前の手順で [IPv6 を有効にする(Enable IPv6)] をオンにして NTP サーバーの IPv6 アドレスを指定した場合は、次の検証エラーが表示されます。

    これは、ノードに IPv6 アドレスがまだなく(次の手順で指定します)、NTP サーバーの IPv6 アドレスに接続できないためです。

    この場合、次の手順の説明に従って他の必要な情報の入力を完了し、[次へ(Next)] をクリックして次の画面に進み、ノードの IPv6 アドレスを入力します。

    追加の NTP サーバーを指定する場合は、[+NTP ホストの追加(+Add NTP Host)] を再度クリックし、このサブステップを繰り返します。

  7. [プロキシ サーバー(Proxy Server)] を指定し、[検証(Validate)] をクリックします。

    Cisco Cloud に直接接続できないクラスタの場合は、接続を確立するためにプロキシ サーバを構成することをお勧めします。これにより、ファブリック内の非適合ハードウェアおよびソフトウェアにさらされるリスクを軽減できます。

    [+無視するホストを追加(+Add Ignore Host)] をクリックして、プロキシをスキップする 1 つ以上の IP アドレス通信を提供することもできます。

    プロキシ サーバーでは、次の URL が有効になっている必要があります。

    dcappcenter.cisco.com
    svc.intersight.com
    svc.ucs-connect.com
    svc-static1.intersight.com
    svc-static1.ucs-connect.com

    プロキシ設定をスキップする場合は、[プロキシをスキップ(Skip Proxy)] をクリックします。

  8. (オプション) プロキシ サーバで認証が必要な場合は、[プロキシで認証が必要(Authentication required for Proxy)][はい(Yes)] に変更し、ログイン資格情報を指定します。

  9. (オプション) [詳細設定(Advanced Settings)] カテゴリを展開し、必要に応じて設定を変更します。

    詳細設定では、次の設定を行うことができます。

    • カスタム App NetworkService Network を提供します。

      アプリケーション オーバーレイ ネットワークは、Nexus ダッシュボードで実行されるアプリケーションのサービスで使用されるアドレス空間を定義します。このフィールドには、デフォルトの 172.17.0.1/16 値が事前に入力されています。

      サービス ネットワークは、Nexus ダッシュボードとそのプロセスで使用される内部ネットワークです。このフィールドには、デフォルトの 100.80.0.0/16 値が事前に入力されています。

      以前に [IPv6 を有効にする(Enable IPv6)] オプションをオンにした場合は、アプリケーション ネットワークとサービス ネットワークの IPv6 サブネットを定義することもできます。

      アプリケーションおよびサービスネットワークについては、このドキュメントの前の すべての有効なサービスの前提条件と注意事項 の項で説明します。

  10. [次へ(Next)] をクリックして続行します。

ステップ 13

[ノードの詳細(Node Details)] 画面で、最初のノードの情報を更新します。

前の手順の初期ノード構成時に現在ログインしているノードの管理ネットワークと IP アドレスを定義しましたが、他のプライマリノードを追加し、クラスタを作成する進む前に、ノードのデータ ネットワーク情報も指定する必要があります。

  1. 最初のノードの横にある [編集(Edit)]ボタンをクリックします。

    ノードの[シリアル番号(Serial Number)][管理ネットワーク(Management Network)]情報、および[タイプ(Type)]が自動的に入力されます。ただし、他の情報は手動で入力する必要があります。

  2. ノードの [名前(Name)] を入力します。

    ノードの 名前 はホスト名として設定されるため、 RFC-1123 の要件に従う必要があります。

  3. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  4. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  5. (オプション)クラスタが L3 HA モードで展開されている場合は、データ ネットワークの [BGP を有効にする(Enable BGP)] をオンにします。

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、すべての有効なサービスの前提条件と注意事項 と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。BGP が構成されている場合は、残りのすべてのノードで BGP を構成する必要があります。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  6. [Save]をクリックして、変更内容を保存します。

ステップ 14

[ノードの詳細(Node Details)] 画面で、[ノードの追加(Add Node)] をクリックして、クラスタに 2 番目のノードを追加します。

単一ノード クラスタを展開する場合は、この手順をスキップします。

  1. [展開の詳細(Deployment Details)] エリアで、2 番目のノードに [管理 IP アドレス(Management IP Address)] および [パスワード(Password)] を指定します。

    ノードの初期構成手順で、管理ネットワーク情報とパスワードを定義しました。

  2. [検証(Validate)] をクリックして、ノードへの接続を確認します。

    接続が検証されると、ノードのシリアル番号管理ネットワーク情報が自動的に入力されます。

  3. ノードの [名前(Name)] を入力します。

  4. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  5. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  6. (オプション)クラスタが L3 HA モードで展開されている場合は、データ ネットワークの [BGP を有効にする(Enable BGP)] をオンにします。

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、すべての有効なサービスの前提条件と注意事項 と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  7. [Save]をクリックして、変更内容を保存します。

  8. クラスタの最後の(3 番目の)プライマリ ノードでこの手順を繰り返します。

ステップ 15

[ノードの詳細(Node Details)] ページで、入力した情報を確認し、[次へ(Next)] をクリックして続行します。

ステップ 16

クラスタの展開モードを選択します。

  1. 有効にするサービスを選択します。

    リリース 3.1(1) より前では、クラスタの初期展開が完了した後に、個々のサービスをダウンロードしてインストールする必要がありました。今では、初期インストール時にサービスを有効にするように選択できます。

    (注)  

     

    クラスタ内のノードの数によっては、一部のサービスまたは共同ホスティングのシナリオがサポートされない場合があります。必要な数のサービスを選択できない場合は、[戻る(Back)] をクリックし、前の手順で十分な数のセカンダリ ノードを指定したことを確認します。

  2. [永続サービスIP/プールの追加(Add Persistent Service IPs/Pools)] をクリックして、Insights またはファブリック コントローラ サービスに必要な 1 つ以上の永続 IP を指定します。

    永続的 IP の詳細については、ユーザー ガイドのすべての有効なサービスの前提条件と注意事項のセクションを参照してください。

  3. [次へ(Next)] をクリックして続行します。

ステップ 17

[サマリー(Summary)] 画面で設定情報を見直して確認し、[保存(Save)] をクリックしてクラスタを構築します。

ノードのブート ストラップとクラスタの起動中に、全体的な進捗状況と各ノードの個々の進捗状況がUIに表示されます。ブートストラップの進行状況が表示されない場合は、ブラウザでページを手動で更新し、ステータスを更新してください。

クラスタが形成され、すべてのサービスが開始されるまでに最大 30 分かかる場合があります。クラスタの設定が完了すると、ページが Nexus ダッシュボード GUI にリロードされます。

ステップ 18

クラスタが健全であることを検証します。

展開モードに応じて、クラスタが形成されすべてのサービスが開始されるまでに最大 30 分かかる場合があります。

クラスタが使用可能になったら、ノードの管理 IP アドレスのいずれかを参照してアクセスできます。admin ユーザーのデフォルト パスワードは、最初のノードに選択した rescue-user のパスワードと同じです。この間、UI は上部に「サービスのインストールが進行中です。Nexus Dashboard の設定タスクは現在無効になっています」という意味のバナーを表示します。

すべてのクラスタが展開され、すべてのサービスが開始されたら、[概要(Overview)] ページでクラスタが正常であることを確認できます。

または、SSH を使用し、rescue-user として、ノード展開中に指定したパスワードを使っていずれかのノードにログインし、acs health コマンドを実行してクラスタの状態を確認できます。

  • クラスタが収束している間、次の出力が表示されることがあります。

    $ acs health
    k8s install is in-progress
    $ acs health
    k8s services not in desired state - [...]
    $ acs health
    k8s: Etcd cluster is not ready
  • クラスタが稼働している場合は、次の出力が表示されます。

    $ acs health
    All components are healthy

(注)  

 

場合によっては、ノードの電源を再投入(電源をオフにしてから再度オン)すると、この段階でスタックが停止することがある可能性があります。

deploy base system services

これは、pND(物理 Nexus Dashboard)クラスタの再起動後のノードの etcd の問題が原因です。

この問題を解決するには、影響を受けるノードで acs reboot clean コマンドを入力します。

ステップ 19

Nexus Dashboard とサービスを展開したら、設定と操作の記事の説明に従って各サービスを設定できます。