Cisco UCS Director Express for Big Data 管理ガイド、リリース 2.1
マニュアルのコンテンツ
Search
ダウンロード
プリント
章のタイトル: Hadoop クラスタ構成時の設定
Hadoop クラスタ構成時の設定
外部データベース設定の作成
インスタント Hadoop クラスタおよびカスタマイズされた Hadoop クラスタ作成の操作を使用して、すべての Hadoop ディストリビューション(Cloudera、MapR、および Hortonworks)の独自の外部データベースを備えた各 Hadoop クラスタを導入できます。
新しいデータベースを設定するか、 Cisco UCS Director Express for Big Data の既存のデータベースを使用できます。Oozie、Hive、および Hue の各サービスは、[外部データベース設定の作成(Create External Database Configurations)] ダイアログを使用して作成した設定済みのデータベース情報を使用します。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[外部データベース(External Database)] タブをクリックします。
ステップ 3
[追加(Add)] をクリックします。
外部データベース テーブルから以前に作成したデータベースを変更または削除できます。
ステップ 4
[外部データベース設定の作成(Create External Database Configurations)] ダイアログで、次のフィールドに値を入力します。
名前
説明
[データベース名(Database Name)] フィールド
作成するデータベース タイプの一意の名前を入力します。
[データベース タイプ(Database Type)] フィールド
リストからデータベースのタイプを選択します。
[サーバ名(Server Name)] フィールド
データベース サーバの IPv4 アドレスを入力します。
[ポート(Port)] フィールド
データベースのタイプに基づいてポート番号を入力します。
[ユーザ名(User Name)] フィールド
データベース サーバにアクセスするためのユーザ名を入力します。
[パスワード(Password)] フィールド
データベース サーバにアクセスするためのパスワードを入力します。
[パスワードの確認(Confirm Password)] フィールド
データベース サーバにアクセスするためのパスワードを確認します。
ステップ 5
[送信(Submit)] をクリックします。
次の作業
インスタント Hadoop クラスタとカスタマイズされた Hadoop クラスタ作成の操作で、Hadoop クラスタを導入します。
Hadoop 配信サービスで使用されるデフォルトのデータベース
Cloudera(サービス名)のデフォルトのデータベース:
Cloudera Manager—mysql
Oozie—mysql
Hive—mysql
Hue—mysql
MapR(サービス名)のデフォルトのデータベース:
Oozie—Derby
Hive—mysql
Hue—SQlite
Hortonworks(サービス名)のデフォルトのデータベース:
Ambari—PostGres
Oozie—Derby
Hive—mysql
Hadoop クラスタ設定パラメータ テンプレートの作成
Hadoop クラスタをトリガーする前に、メニュー バーの [Hadoop 設定パラメータ(Hadoop Config Parameters)] タブ からのみ Hadoop クラスタ設定パラメータ テンプレートを作成できます。 Hadoop クラスタ設定パラメータ テンプレートを選択して、編集、複製、または削除ができます。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[Hadoop 設定パラメータ(Hadoop Config Parameters)] タブをクリックします。
ステップ 3
[追加(Add)] をクリックします。
ステップ 4
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ(Hadoop Config Parameters)] ページで、次のフィールドに値を入力してください。
名前
説明
[テンプレート名(Template Name)] フィールド
Hadoop クラスタ設定パラメータ テンプレートの一意の名前。
[テンプレートの説明(Template Description)] フィールド
Hadoop クラスタ設定パラメータ テンプレートの説明。
[Hadoop ディストリビューション(Hadoop Distribution)] ドロップダウン リスト
Hadoop ディストリビューションを選択します。
[Hadoop ディストリビューション バージョン(Hadoop Distribution Version)] ドロップダウン リスト
Hadoop ディストリビューションのバージョンを選択します。
ステップ 5
[次へ(Next)] をクリックします。
ステップ 6
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - HDFS サービス(Hadoop Config Parameters - HDFS Service)] ページで、Hadoop クラスタ HDFS サービス パラメータの名前、値、および最低限のサポート対象 Hadoop ディストリビューションを指定してください。
ステップ 7
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - YARN サービス(Hadoop Config Parameters - YARN Service)] ページで、次のパラメータを設定してください。
ステップ 8
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - HBase サービス(Hadoop Config Parameters - HBase Service)] ページで、次のパラメータを設定してください。
ステップ 9
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - MapReduce サービス(Hadoop Config Parameters - MapReduce Service)] ページで、次のパラメータを設定してください。
ステップ 10
[Hadoop クラスタ設定パラメータ テンプレートの作成(Create Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - その他のパラメータ(Hadoop Config Parameters - Miscellaneous Parameters)] ページで、(ServiceLevel および RoleLevel)パラメータを設定してください。
ステップ 11
[送信(Submit)] をクリックします。
Hadoop クラスタ設定パラメータ テンプレートの更新 - Hadoop クラスタ作成後
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[ビッグデータ アカウント(Big Data Accounts)] タブをクリックし、既存のビッグデータ アカウントを選択します。
ステップ 3
[クラスタの設定(Configure Cluster)] をクリックします。
ステップ 4
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ(Hadoop Config Parameters)] ページで、Hadoop ディストリビューションを選択します。
ステップ 5
[次へ(Next)] をクリックします。
ステップ 6
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - HDFS サービス(Hadoop Config Parameters - HDFS Service)] ページで、Hadoop クラスタ HDFS サービス パラメータの名前、値、および最低限のサポート対象 Hadoop ディストリビューション(ある場合)を指定してください。
ステップ 7
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - YARN サービス(Hadoop Config Parameters - YARN Service)] ページで、必要に応じてパラメータを更新してください。
ステップ 8
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - HBase サービス(Hadoop Config Parameters - HBase Service)] ページで、必要に応じてパラメータを更新してください。
ステップ 9
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - MapReduce サービス(Hadoop Config Parameters - MapReduce Service)] ページで、必要に応じてパラメータを更新してください。
ステップ 10
[Hadoop クラスタ設定パラメータ テンプレートの更新(Update Hadoop Cluster Configuration Parameters Template)] ウィザードの [Hadoop 設定パラメータ - その他のパラメータ(Hadoop Config Parameters - Miscellaneous Parameters)] ページで、必要に応じて(ServiceLevel および RoleLevel)パラメータを設定してください。
ステップ 11
[送信(Submit)] をクリックします。
QoS システム クラス
Quality of Service
QoS およびシステム クラスの詳細については、「QoS System Classes 」を参照してください。
Cisco Unified Computing System は、Quality of Service(QoS)を実装するために、次の方法を提供しています。
特定のタイプのトラフィックに対するグローバル設定をシステム全体にわたって指定するためのシステム クラス。
個々の vNIC にシステム クラスを割り当てる QoS ポリシー。
アップリンク イーサネット ポートによるポーズ フレームの扱い方法を決定するフロー制御ポリシー。
システム クラス
Cisco UCS は、Data Center Ethernet(DCE)を使用して Cisco UCS ドメイン内のすべてのトラフィックを処理します。イーサネットに対するこの業界標準の機能拡張では、イーサネットの帯域幅が 8 つの仮想レーンに分割されています。内部システムと管理トラフィック用に 2 つの仮想レーンが予約されています。それ以外の 6 つの仮想レーンの Quality of Service(QoS)を設定できます。Cisco UCS ドメイン全体にわたり、これら 6 つの仮想レーンで DCE 帯域幅がどのように割り当てられるかは、システム クラスによって決定されます。
各システム クラスは特定のタイプのトラフィック用に帯域幅の特定のセグメントを予約します。これにより、過度に使用されるシステムでも、ある程度のトラフィック管理が提供されます。たとえば、ファイバ チャネル プライオリティ システム クラスを設定して、FCoE トラフィックに割り当てられる DCE 帯域幅の割合を決定することができます。
次の表は、設定可能なシステム クラスをまとめたものです。
システム クラス
説明
ベスト エフォート
ベーシック イーサネット トラフィックのために予約されたレーンに対する QoS を設定するシステム クラス。このシステム クラスのプロパティの中には、あらかじめ設定されていて、変更できないものもあります。
たとえば、このクラスには、必要に応じてデータ パケットのドロップを許可するドロップ ポリシーがあります。このシステム クラスは無効にできません。
サービスプロファイルの QoS ポリシーに含めることができる設定可能なシステム クラスのセット。各システム クラスはトラフィック レーンを 1 つ管理します。これらのシステム クラスのプロパティはすべて、カスタム設定やポリシーを割り当てるために使用できます。
ファイバ チャネル
Fibre Channel over Ethernet トラフィックのために予約されたレーンに対する Quality of Service を設定するシステム クラス。このシステム クラスのプロパティの中には、あらかじめ設定されていて、変更できないものもあります。
たとえば、このクラスには、データ パケットが絶対にドロップされないことを保証するドロップなしポリシーがあります。このシステム クラスは無効にできません。
(注)
FCoE トラフィックには、他のタイプのトラフィックで使用できない、予約された QoS システム クラスがあります。他のタイプのトラフィックに、FCoE で使用される CoS 値がある場合、その値は 0 にリマークされます。
QoS システム クラスの編集
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[QoS システム クラス(QoS System Class)] タブを選択します。
ステップ 3
編集する QoS システム クラス(優先順位別)を選択し、[編集(Edit)] をクリックします。
ベスト エフォート
プラチナ
ゴールド
シルバー
ブロンズ
ステップ 4
[QoS システム クラスの変更(Modify QoS System Class)] ダイアログボックスで、次のフィールドに値を入力します。
名前
説明
[有効化(Enable)] チェックボックス
このチェックボックスをオンにすると、対応する QoS クラスがファブリック インターコネクト上で設定され、QoS ポリシーに割り当て可能になります。
オフになっている場合、クラスはファブリック インターコネクトで設定されていません。システム クラスで CoS が 0 に設定されている場合、このクラスに関連付けられているすべての QoS ポリシーのデフォルトは、[ベスト エフォート(Best Effort)] または Cos 0 システム クラスになります。
このチェックボックスは、[ベスト エフォート(Best Effort)] と [ファイバ チャネル(Fibre Channel)] の場合はオンです。
[Cos(Cos)] ドロップダウン リスト
サービス クラス。0 ~ 6 の整数を入力できます。0 は最低プライオリティを表し、6 は最高プライオリティを表します。QoS ポリシーを削除する際や、割り当てられたシステム クラスが無効な際に、システム クラスをトラフィックのデフォルト システム クラスにする必要がある場合を除き、この値を 0 に設定することは推奨しません。
このフィールドは、内部トラフィックの場合は 7 に、ベストエフォートの場合は [ANY] に設定されます。これらの値は両方とも予約されており、他のプライオリティに割り当てることはできません。
[パケット低下(Packet Drop)] チェックボックス
このフィールドは、ファイバ チャネル クラスの場合はオフであり(破棄パケットは許可されない)、ベストエフォートの場合はオンです(破棄パケットは常に許可される)。
[負荷(Weight)] ドロップダウン リスト
次のいずれかを選択できます。
[最適化されたマルチキャスト(Multicast Optimized)] チェックボックス
このチェックボックスをオンにすると、パケットを複数の宛先に同時に送信するように、クラスが最適化されます。このオプションは、ファイバ チャネルには適用されません。
[MTU] ドロップダウン リスト
チャネルの最大伝送単位。次のいずれかになります。
1500 ~ 9216 の整数。この値は最大パケット サイズに対応します。
[fc]:事前に定義されている 2240 のパケット サイズ。
[ノーマル(Normal)]:事前に定義されている 1500 のパケット サイズ。
[手動指定(Specify Manually)]:1500 ~ 9216 のパケット サイズ。
このフィールドは、ファイバ チャネルの場合は常に [fc] に設定されます。
ステップ 5
[送信(Submit)] をクリックします。
クラスタ前パフォーマンス テストの設定
メモリ、ネットワーク、およびネットワークのメトリックを分析できます。デフォルトのビッグデータ メトリック レポートは、Hadoop クラスタを作成する前に各ホストについて収集された統計情報を提供します。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[管理(Management)] タブをクリックします。
ステップ 3
[クラスタ前パフォーマンス テスト(Pre Cluster Performance Tests)] セクションで、次のチェックボックスをオンにします。
(注)
デフォルトでは、メモリ、ネットワーク、およびディスクの各テストを実行するチェックボックスはオフになっています。クラスタ前ディスク テストを有効にしている場合、Hadoop クラスタの作成に影響します。
ステップ 4
[送信(Submit)] をクリックします。
Hadoop クラスタおよび Splunk 導入ワークフローの承認
はじめる前に
を選択し、次のユーザ ロールを持つユーザを追加します。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[管理(Management)] タブをクリックします。
ステップ 3
[OS ユーザ承認が必要(Require OS User Approval)] チェックボックスをオンにします。 [ユーザ ID(User ID)] テーブルから、Network Admin ユーザ ロールに対するユーザの [ログイン名(Login Name)] を確認します。
[承認依頼通知の数(Number of Approval Request Reminders)] を入力します。
(注)
Network Admin が要求を承認または拒否するまで通知メールを指定した間隔で送信する必要がある場合、承認要求通知の数をゼロに設定します。
[通知間隔(Reminder Interval(s))] を時間で入力します。
(注)
すべてのユーザが要求を承認または拒否するように設定するには、[すべてのユーザから承認が必要(Approval required from all the users)] チェックボックスをオンにします。
ステップ 4
[コンピューティング ユーザ承認が必要(Require Compute User Approval)] チェックボックスをオンにします。 [ユーザ ID(User ID)] テーブルから、Computing Admin ユーザ ロールに対するユーザの [ログイン名(Login Name)] を選択します。
[承認依頼通知の数(Number of Approval Request Reminders)] を入力します。
(注)
Computing Admin が要求を承認または拒否するまで通知メールを指定した間隔で送信する必要がある場合、承認要求通知の数をゼロに設定します。
[通知間隔(Reminder Interval(s))] を時間で入力します。
(注)
ユーザが要求を承認または拒否するように設定するには、[すべてのユーザから承認が必要(Approval required from all the users)] チェックボックスをオンにします。
ステップ 5
[アカウント ユーザ承認が必要(Require Accounts User Approval)] チェックボックスをオンにします。 [ユーザ ID(User ID)] テーブルから、Hadoop ユーザ ロールに対するユーザの [ログイン名(Login Name)] を選択します。
[承認依頼通知の数(Number of Approval Request Reminders)] を入力します。
(注)
Hadoop ユーザが要求を承認または拒否するまで通知メールを指定した間隔で送信する必要がある場合、承認要求通知の数をゼロに設定します。
[通知間隔(Reminder Interval(s))] を時間で入力します。
(注)
ユーザが要求を承認または拒否するように設定するには、[すべてのユーザから承認が必要(Approval required from all the users)] チェックボックスをオンにします。
ステップ 6
[送信(Submit)] をクリックします。
次の作業
Network Admin、Computing Admin、およびビッグデータ アカウントのユーザ ロールを持つユーザが、ビッグデータ ソフトウェアを導入する前に要求を承認したかどうかを確認します。
必須 OS およびビッグデータ ソフトウェアの Cisco UCS Director Bare Metal Agent へのアップロード
必須 RHEL 6.x ISO ファイル、ビッグデータ ソフトウェア、共通ソフトウェア、および Oracle JDK を Cisco UCS Director Bare Metal Agent にアップロード(追加)できます。ローカル システムやリモート システムから必須ファイルをアップロードできます。ファイルは、まず Cisco UCS Director にアップロードされます。[ソフトウェア カタログの作成(Create Software Catalogs)] ダイアログボックスの [送信(Submit)] ボタンをクリックして、必須ファイルをターゲット Cisco UCS Director Bare Metal Agent に移動できます。
サポートされるファイル形式:
Linux OS— rhel-x.x.iso
ビッグデータ ソフトウェア— xxxx x.y.z.zip(.gz または .tgz または .tar)。たとえば、MapR-x.y.z.zip、splunk-x.y.z.zip
共通ソフトウェア— bd-sw-rep.zip(.gz または .tgz または .tar)
JDK ソフトウェア—(x.y.z.rpm または .gz)
[ソフトウェア カタログ(Software Catalogs)] ページに、Cisco UCS Director Bare Metal Agent のビッグデータおよびその他の必須ソフトウェアが表示されます。
ヒント
ビッグデータの必須ソフトウェアの列が空の場合、Cisco UCS Director Bare Metal Agent にはすでに必要なすべてのファイルが含まれています。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[ソフトウェア カタログ(Software Catalogs)] タブをクリックします。
ステップ 3
[追加(Add)] をクリックします。
ステップ 4
ファイルをローカル システムからアップロードするには、[アップロード(Upload)] をクリックします。
(注)
指定された形式でアップロードする前にフォルダを作成して、ビッグデータ ソフトウェアのすべての必須ファイルを含め、フォルダを圧縮します。
ステップ 5
[ターゲット BMA(Target BMA)] ドロップダウン リストからターゲット Cisco UCS Director Bare Metal Agent を選択します。
ステップ 6
必須ファイルをアップロードしたら、[BMA サービスの再起動(Restart BMA Services)] をオンにして Cisco UCS Director Bare Metal Agent を再起動します。
(注)
5 ~ 10 分後に [ソフトウェア カタログ(Software Catalogs)] ページを更新し、新しいカタログおよび変更されたカタログを表示します。
名前
説明
[Linux OS のアップロード(Linux OS Upload)]
[カタログ名(Catalog Name)] フィールド
オペレーティング システムの名前(たとえば、RHEL.6.5)
[アップロード タイプ(Upload Type)] ドロップダウン リスト
次のいずれかを実行します。
デスクトップ ファイル
Cisco UCS Director Bare Metal Agent でアクセス可能な Web サーバのパス
Cisco UCS Director Bare Metal Agent のマウントポイント(たとえば、/root/iso)
Cisco UCS Director Bare Metal Agent の ISO へのパス(たとえば、/temp/rhel65/iso)
[ビッグデータ ソフトウェアのアップロード(Big Data Software Upload)]
[カタログ名(Catalog Name)] フィールド
ビッグデータ ソフトウェア。Hadoop ディストリビューションなど(たとえば、distribution_name-x.y.z)または Splunk Enterprise ソフトウェア(splunk-x.y.z)。
[アップロード タイプ(Upload Type)] ドロップダウン リスト
[共通ソフトウェアのアップロード(Common Software Upload)]
[アップロード タイプ(Upload Type)] ドロップダウン リスト
[JDK のアップロード(JDK Upload)]
[JDK バージョン(JDK Version)] フィールド
JDK のバージョン。たとえば、JDK 1.x
[アップロード タイプ(Upload Type)] ドロップダウン リスト
[Linux OS のアップロード(Linux OS Upload)]
[カタログ名(Catalog Name)] フィールド
オペレーティング システムの名前(たとえば、RHEL.6.5)
[アップロード タイプ(Upload Type)] ドロップダウン リスト
次のいずれかを実行します。
デスクトップ ファイル
Cisco UCS Director Bare Metal Agent でアクセス可能な Web サーバのパス
Cisco UCS Director Bare Metal Agent のマウントポイント(たとえば、/root/iso)
Cisco UCS Director Bare Metal Agent の ISO へのパス(たとえば、/temp/rhel65/iso)
[ビッグデータ ソフトウェアのアップロード(Big Data Software Upload)]
[カタログ名(Catalog Name)] フィールド
ビッグデータ ソフトウェア。Hadoop ディストリビューションなど(たとえば、distribution_name-x.y.z)または Splunk Enterprise ソフトウェア(splunk-x.y.z)
[アップロード タイプ(Upload Type)] ドロップダウン リスト
[共通ソフトウェアのアップロード(Common Software Upload)]
[アップロード タイプ(Upload Type)] ドロップダウン リスト
[JDK のアップロード(JDK Upload)]
[JDK バージョン(JDK Version)] フィールド
JDK のバージョン。たとえば、JDK 1.x
[アップロード タイプ(Upload Type)] ドロップダウン リスト
ステップ 7
[送信(Submit)] をクリックします。
次の作業
ソフトウェアのアップロードはこちら で追跡できます。[レコードの変更(Change Record)] タブをクリックし、進行中のソフトウェアのアップロードを追跡し、そのステータスを確認します。
サポート対象 Oracle JDK のソフトウェア バージョン
この項では、サポートされている Oracle JDK のソフトウェアのバージョンを示します。
Cloudera 向けサポート対象 Oracle JDK バージョンおよびアップグレード シナリオ
Hadoop ディストリビューション
Oracle JDK 1.6
Oracle JDK 1.7
Oracle JDK 1.8
Cloudera Manager 5.4.x
—
JDK 1.7.0_25
JDK 1.8.0_60
Cloudera Manager 5.3.x
—
—
JDK 1.8.0_11
アップグレードする Hadoop ディストリビューション バージョン
サポート対象アップグレード バージョン
Cloudera Manager 5.3.x、JDK 1.7.0_25
Cloudera Manager 5.4.x、JDK 1.8
MapR 向けサポート対象 Oracle JDK バージョン
Hadoop ディストリビューション
JDK 1.7
JDK 1.8
MapR 5.0.0
○
○
MapR 4.1.0
なし
○
アップグレードする Hadoop ディストリビューション バージョン
サポート対象アップグレード バージョン
MapR 4.1.0、JDK 1.7
MapR 5.0.0、JDK 1.8
Hortonworks 向けサポート対象 Oracle JDK ソフトウェア バージョンおよびアップグレード シナリオ
Hadoop ディストリビューション
JDK 1.7
JDK 1.8
Hortonworks 2.3
—
○
Hortonworks 2.2
○
○
アップグレードする Hadoop ディストリビューション バージョン
サポート対象アップグレード バージョン
Hortonworks 2.2、JDK 1.7
Hortonworks 2.3、JDK 1.8
Cisco UCS Director
Express for Big Data Baremetal Agent の Cloudera、MapR、および Hortonworks
RPM
Cloudera、MapR、および Hortonworks の共通のパッケージ
(注)
利用できない Hadoop
ソフトウェアについては、ベンダーのオンライン リポジトリの該当ファイルで
/opt/cnsaroot/bigdata_templates/common_templates/HadoopDistributionRPM.txt
ファイルを更新します。
(注)
Hadoop ベンダー
サポート ドキュメンテーションでサポート対象バージョンを確認することをお勧めします。
次の共通パッケージを
/opt/cnsaroot/bd-sw-rep/ にダウンロードします。
Cloudera
の共通パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.X.X にダウンロードします。
ClouderaEnterpriseLicense.lic— Cloudera からライセンス キーを取得します
userrpmlist.txt—詳細パッケージ リスト用
catalog.properties— Cloudera のバージョンのラベル名を提供します(x は Cisco UCS
Director Express for Big Data Baremetal Agent の Cloudera バージョンを表します)
mysql-connector-java-5.1.26.tar.gz (http://cdn.mysql.com/archives/mysql-connector-java-5.1
から)
Cloudera 5.0.1
パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.0.1 にダウンロードします。
Cloudera 5.0.6
パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.0.6 にダウンロードします。
Cloudera 5.2.0
パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.2.0 にダウンロードします。
Cloudera 5.2.1
パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.2.1 にダウンロードします。
Cloudera
5.3.0 パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.3.0 にダウンロードします。
Cloudera
5.4.1 パッケージとパーセル
次のパッケージを
/opt/cnsaroot/bd-sw-rep/cloudera-5.4.1 にダウンロードします。
MapR
3.1.1、4.0.1、および 4.0.2 の共通パッケージ
次の共通パッケージを
/opt/cnsaroot/bd-sw-rep/MapR-3.1.1 and MapR-4.0.x
directories にダウンロードします。
MapR 4.1.0
および 5.0.0 の共通パッケージ
次の共通パッケージを
/opt/cnsaroot/bd-sw-rep/MapR-4.1.0 and MapR-5.0.0
directories にダウンロードします。
MapR 3.1.1
パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/MapR-3.1.1 にダウンロードします。
MapR 4.0.1
パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/MapR-4.0.1 にダウンロードします。
MapR 4.0.2
パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/MapR-4.0.2 にダウンロードします。
MapR 4.1.0
パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/MapR-4.1.0 にダウンロードします。
MapR 5.0.0
パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/MapR-5.0.0 にダウンロードします。
Hortonworks
の共通のパッケージ
次の共通パッケージを
/opt/cnsaroot/bd-sw-rep/Hortonworks-2.X にダウンロードします。
Hortonworks
2.1 パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/Hortonworks-2.1 にダウンロードします。
Hortonworks
2.2 パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/Hortonworks-2.2 にダウンロードします。
Hortonworks
2.3 パッケージ
次のパッケージを
/opt/cnsaroot/bd-sw-rep/Hortonworks-2.3 にダウンロードします。
Hadoop クラスタのディストリビューションのアップグレードのための Cloudera および MapR RPM
Cloudera 5.3.0 パッケージとパーセル
Cloudera 5.4.1 パッケージとパーセル
設定チェック ルール
設定チェックを実行することによって既存のクラスタ設定を検証できます。設定チェック プロセスでは、現在のクラスタ設定をレポートの違反と設定チェック ルールと照合する必要があります。
設定チェック ルールは、Hadoop クラスタの事前定義済みの Cisco Validated Design(CVD)パラメータです。設定チェック ルールは [ソリューション(Solutions)] > [ビッグデータ(Big Data)] > [設定(Settings)] に表示されます。 設定チェックが完了すると、違反が [ソリューション(Solutions)] > [ビッグデータ(Big Data)] > [アカウント(Accounts)] の [障害(Faults)] タブに表示されます。 設定チェック ルールはいつでも有効または無効にできますが、新しいルールを追加することはできません。
設定チェック ルール
説明
[パラメータ(Parameter)]
設定の事前定義された CVD パラメータ。
[有効(Enabled)]
設定チェック ルールの状態で、有効(true)または無効(false)。
[予測値(Expected value)]
Cisco Validated Design(CVD)で定義されているパラメータに予測された値。
[説明(Description)]
設定のパラメータの説明。
[ディストリビューション(Distribution)]
Hadoop ディストリビューション。
[サポートされている最小ディストリビューション(Minimum Supported Distribution)]
Hadoop ディストリビューションの最低限のサポート対象バージョン。
[サービス(Service)]
Hadoop サービス。
[役割(Role)]
Hadoop サービス ロール。
[タイプ(Type)]
違反のタイプで [CVD] または [矛盾(Inconsistent)]。
[修正ワークフロー(Fix Workflow)]
違反を修正するために起動できるワークフローを指します。
実際のクラスタ設定値が設定チェック ルールで定義された目標値とは異なる場合、それらの設定値は違反として報告されます。たとえば、CVD が NameNode のヒープ サイズは 4 GB であるとします。しかし、クラスタ設定の NameNode のヒープ サイズが 1 GB だった場合、これは CVD 違反として報告されます。また、矛盾した設定パラメータが報告されます。たとえば、プライマリ ノードおよびセカンダリ ノード両方の NameNode ヒープ サイズは同じでなければなりません。サイズに不一致があると、このパラメータは矛盾として報告されます。
Hadoop クラスタ設定のチェック
クラスタの設定を検証するには、次の手順を実行します。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[ビッグデータ アカウント(Big Data Accounts)] タブをクリックします。
ステップ 3
設定チェックを実行するアカウントを選択し、[設定のチェック(Check Configuration)] をクリックします。
ステップ 4
[送信(Submit)] をクリックします。
設定チェックが処理中であることを示すダイアログボックスが表示されます。
ステップ 5
[OK] をクリックします。
設定チェックが完了すると、違反が選択したビッグデータ アカウントの [障害(Faults)] タブに表示されます。
次の作業
(注)
設定チェックはこちらで追跡できます。。[レコードの変更(Change Record)] タブをクリックし、進行中の設定チェックを追跡し、完了したか、障害が発生しているかどうかを確認します。
設定違反の修正
設定チェックが完了すると、設定違反が選択したビッグデータ アカウントの [障害(Faults)] タブに表示されます。[ビッグデータ クラスタ設定(Big Data Cluster Configuration)] ページでこれらの設定違反を手動で修正するか、ワークフローをトリガーできます。ワークフローをトリガーして違反を修正するには、違反で指定されたコードと同じ名前のワークフローを作成します。
ワークフローによる設定違反を修正するには、次の手順を実行します。
ステップ 1
メニュー バーで、 を選択します。
ステップ 2
[障害(Faults)] タブをクリックします。
ステップ 3
修正する設定違反を選択し、[ワークフローのトリガー(Trigger Workflow)] をクリックします。
違反で指定されたコードと同じ名前のワークフローが存在する場合、ワークフローがトリガーされます。
ステップ 4
ワークフローに必要な情報を入力し、[送信(Submit)] をクリックします。 入力を送信するとサービス リクエスト ID が生成されます。[サービス リクエスト(Service Requests)] ページでサービス リクエストのステータスを確認できます。