管理ノードをインストール
NetApp Element ソフトウェアを実行しているクラスタの管理ノードは、構成に応じたイメージを使用して手動でインストールできます。
この手動プロセスは、管理ノードのインストールに NetApp Deployment Engine を使用していない SolidFire オールフラッシュストレージ管理者を対象としています。
-
クラスタバージョンで NetApp Element ソフトウェア 11.3 以降が実行されています。
-
インストール環境では IPv4 を使用します。管理ノード 11.3 では IPv6 がサポートされません。
IPv6 のサポートが必要な場合は、管理ノード 11.1 を使用してください。 -
NetApp Support Siteからソフトウェアをダウンロードする権限が必要です。
-
使用するプラットフォームに適した管理ノードイメージのタイプを特定しておきます。
プラットフォーム インストールイメージのタイプ Microsoft Hyper-V
.iso
KVM
.iso
VMware vSphere
.iso 、 .ova のいずれかです
Citrix XenServer
.iso
OpenStack
.iso
-
(管理ノード 12.0 以降にプロキシサーバを使用) NetApp Hybrid Cloud Control を管理サービスバージョン 2.16 に更新してから、プロキシサーバを設定しておきます。
Element 12.2管理ノードはオプションのアップグレードです。既存の環境では必要ありません。
この手順を実行する前に、これらの手順を理解し、使用するかどうかを判断しておく必要があります"永続ボリューム"。永続ボリュームはオプションですが、仮想マシン( VM )が失われた場合の管理ノードの設定データのリカバリには推奨されます。
ISO または OVA をダウンロードし、 VM を導入します
-
NetAppサポートサイトのページから、インストールに対応したOVAまたはISOをダウンロードし"Element ソフトウェア"ます。
-
Download Latest Release * を選択し、 EULA に同意します。
-
ダウンロードする管理ノードのイメージを選択します。
-
-
OVA をダウンロードした場合は、次の手順を実行します。
-
OVA を導入します。
-
ストレージクラスタが管理ノード( eth0 )とは別のサブネット上にある環境で永続ボリュームを使用する場合は、ストレージサブネット( eth1 など)上の VM に 2 つ目のネットワークインターフェイスコントローラ( NIC )を追加するか、管理ネットワークからストレージネットワークへルーティング可能なことを確認します。
-
-
ISO をダウンロードした場合は、次の手順を実行します。
-
次の構成でハイパーバイザーから新しい 64 ビットの VM を作成します。
-
仮想 CPU × 6
-
24GBのRAM
-
ストレージアダプタのタイプが LSI Logic Parallel に設定されています
管理ノードのデフォルトは LSI Logic SAS になる場合があります。[ * 新しい仮想マシン * ] ウィンドウで、 [ * ハードウェアのカスタマイズ * > * 仮想ハードウェア * ] を選択して、ストレージ・アダプターの構成を確認します。必要に応じて、 LSI Logic SAS を * LSI Logic Parallel * に変更します。 -
400GB の仮想ディスク、シンプロビジョニング
-
インターネットアクセスとストレージ MVIP へのアクセスが可能な仮想ネットワークインターフェイス × 1
-
(オプション)ストレージクラスタへの管理ネットワークアクセスが可能な仮想ネットワークインターフェイス × 1ストレージクラスタが管理ノード( eth0 )とは別のサブネット上にある環境で永続ボリュームを使用する場合は、ストレージサブネット( eth1 )上の VM に 2 つ目のネットワークインターフェイスコントローラ( NIC )を追加するか、管理ネットワークからストレージネットワークへルーティング可能なことを確認します。
この手順 の以降の手順で指示があるまでは、 VM の電源をオンにしないでください。
-
-
ISO を VM に接続し、 .iso インストールイメージでブートします。
イメージを使用して管理ノードをインストールすると、スプラッシュ画面が表示されるまでに 30 秒程度かかることがあります。
-
-
インストールが完了したら、管理ノードの VM の電源をオンにします。
管理ノード管理者を作成し、ネットワークを設定
-
ターミナルユーザインターフェイス( TUI )を使用して、管理ノードの管理ユーザを作成します。
メニューオプションを移動するには、上矢印キーまたは下矢印キーを押します。ボタン間を移動するには、 Tab キーを押します。ボタンからフィールドに移動するには、 Tab キーを押します。フィールド間を移動するには、上矢印キーまたは下矢印キーを押します。 -
ネットワーク上に、最大伝送ユニット( MTU )が 1500 バイト未満の IP を割り当てる Dynamic Host Configuration Protocol ( DHCP ;動的ホスト構成プロトコル)サーバがある場合は、次の手順を実行する必要があります。
-
iSCSI などの DHCP を使用しないで、一時的に管理ノードを vSphere ネットワークに配置します。
-
VM をリブートするか、 VM ネットワークを再起動します。
-
TUI を使用して、管理ネットワークの正しい IP を 1500 バイト以上の MTU で設定します。
-
VM に正しい VM ネットワークを再割り当てします。
MTU が 1 、 500 バイト未満の DHCP を割り当てると、管理ノードネットワークの設定や管理ノード UI の使用ができなくなる可能性があります。 -
-
管理ノードネットワーク( eth0 )を設定します。
ストレージトラフィックを分離するために追加のNICが必要な場合は、別のNICの設定手順を参照してください。"ストレージネットワークインターフェイスコントローラ( NIC )の設定"
時刻同期を設定します
-
NTP を使用して管理ノードとストレージクラスタの間で時刻が同期されていることを確認します。
Element 12..1 以降では、手順( a ) ~ ( e )が自動的に実行されます。管理ノード12.3.1の場合は、に進み、サブステップ (f)時間の同期の設定を完了します。 |
-
SSH またはハイパーバイザーが提供するコンソールを使用して、管理ノードにログインします。
-
NTPDを停止します。
sudo service ntpd stop
-
NTP構成ファイルを編集し `/etc/ntp.conf`ます。
-
各サーバの前に(
server 0.gentoo.pool.ntp.org`を追加して、デフォルトサーバをコメントアウトします `#
。 -
追加するデフォルトのタイムサーバごとに新しい行を追加します。デフォルトのタイムサーバは、で使用するストレージクラスタで使用されているNTPサーバと同じである必要があります"後の手順"。
vi /etc/ntp.conf #server 0.gentoo.pool.ntp.org #server 1.gentoo.pool.ntp.org #server 2.gentoo.pool.ntp.org #server 3.gentoo.pool.ntp.org server <insert the hostname or IP address of the default time server>
-
完了したら構成ファイルを保存します。
-
-
新しく追加したサーバと NTP 同期を強制します。
sudo ntpd -gq
-
NTPD を再起動します。
sudo service ntpd start
-
[[ ハイパーバイザーを介したホストとの時間同期を無効にします( VMware の例を次に示します)。
OpenStack 環境の .iso イメージなどで、 VMware 以外のハイパーバイザー環境に mNode を導入する場合は、同等のコマンドについてハイパーバイザーのドキュメントを参照してください。 -
定期的な時刻同期を無効にします。
vmware-toolbox-cmd timesync disable
-
サービスの現在のステータスを表示して確認します。
vmware-toolbox-cmd timesync status
-
vSphereで、VMオプションのチェックボックスがオフになっていることを確認し `Synchronize guest time with host`ます。
今後 VM を変更する場合は、このオプションを有効にしないでください。
-
時刻の同期設定が完了したらNTPを編集しないでください。管理ノードでを実行するとNTPに影響するためです。"Setup コマンド" |
管理ノードをセットアップ
-
管理ノードのセットアップコマンドを設定して実行します。
セキュアプロンプトにパスワードを入力するように求められます。クラスタがプロキシサーバの背後にある場合、パブリックネットワークに接続できるようにプロキシを設定する必要があります。 sudo /sf/packages/mnode/setup-mnode --mnode_admin_user [username] --storage_mvip [mvip] --storage_username [username] --telemetry_active [true]
-
次の各必須パラメータについて、 [] ブラケット(ブラケットを含む)の値を置き換えます。
内はコマンドの省略名で、正式な名前の代わりに使用できます。 -
* --mnode_admin_user ( -mu ) [username] * :管理ノードの管理者アカウントのユーザ名。一般には、管理ノードへのログインに使用したユーザアカウントのユーザ名です。
-
* --storage_mvip ( -SM ) [MVIP アドレス ] * : Element ソフトウェアを実行しているストレージクラスタの管理仮想 IP アドレス( MVIP )。で使用したストレージクラスタを使用して管理ノードを設定し"NTP サーバの設定"ます。
-
--storage_username(-su)[username]:パラメータで指定したクラスタのストレージクラスタ管理者のユーザ名
--storage_mvip
。 -
* --metal_active ( -t ) [true]* : Active IQ による分析のためのデータ収集を有効にする値を true のままにします。
-
-
(オプション): Active IQ エンドポイントのパラメータをコマンドに追加します。
-
* --remote_host ( -RH ) [AIQ _endpoint]* : Active IQ のテレメトリデータの処理が行われるエンドポイント。このパラメータを指定しない場合は、デフォルトのエンドポイントが使用されます。
-
-
(推奨):永続ボリュームに関する以下のパラメータを追加します。永続ボリューム機能用に作成されたアカウントとボリュームを変更または削除しないでください。変更または削除すると、管理機能が失われます。
-
* --use_persistent_volumes ( -pv ) [true/false 、デフォルト: false]* :永続ボリュームを有効または無効にします。永続ボリューム機能を有効にするには、 true を入力します。
-
--persistent_volumes_account(-pva)[account_name]:がtrueに設定されている場合 `--use_persistent_volumes`は、このパラメータを使用して、永続ボリュームに使用するストレージアカウント名を入力します。
永続ボリュームには、クラスタ上の既存のアカウント名とは異なる一意のアカウント名を使用してください。永続ボリュームのアカウントを他の環境から切り離すことが非常に重要です。 -
* - persistent_volumes _mvip ( -pvm ) [mvip ] * :永続ボリュームで使用する Element ソフトウェアを実行しているストレージクラスタの管理仮想 IP アドレス( MVIP )を入力します。このパラメータは、管理ノードで複数のストレージクラスタが管理されている場合にのみ必要です。複数のクラスタを管理していない場合は、デフォルトのクラスタ MVIP が使用されます。
-
-
プロキシサーバを設定します。
-
* --use_proxy ( -up ) [true/false 、 default : false]* :プロキシの使用を有効または無効にします。このパラメータは、プロキシサーバを設定する場合に必要です。
-
* --proxy_hostname_or_IP ( -pi ) [-host] * :プロキシのホスト名または IP 。プロキシを使用する場合は必須です。これを指定すると、入力を求めるプロンプトが表示され `--proxy_port`ます。
-
--proxy_username ( -pu ) [username]: プロキシユーザ名。このパラメータはオプションです。
-
--proxy_password (-pp)[password]: プロキシパスワード。このパラメータはオプションです。
-
* --proxy_port ( -pq ) [port 、 default : 0]*: プロキシポート。これを指定すると、プロキシホスト名またはIPを入力するように求められ(`--proxy_hostname_or_ip`ます)。
-
* --proxy_ssh_port ( -ps ) [port 、 default : 443] * : SSH プロキシポート。デフォルト値はポート 443 です。
-
-
(オプション)各パラメータに関する追加情報が必要な場合は、 help パラメータを使用します。
-
--help(-h): 各パラメータに関する情報を返します。パラメータは、初期導入時に必須またはオプションとして定義します。アップグレードと再導入ではパラメータの要件が異なる場合があります。
-
-
コマンドを実行します
setup-mnode
。
-
コントローラアセットを設定する
-
インストール ID を確認します。
-
ブラウザから、管理ノードの REST API UI にログインします。
-
ストレージのMVIPに移動してログインします。この操作を実行すると、次の手順で証明書が承認されます。
-
管理ノードでインベントリサービス REST API UI を開きます。
https://<ManagementNodeIP>/inventory/1/
-
「 * Authorize * 」(認証)を選択して、次の手順を実行
-
クラスタのユーザ名とパスワードを入力します。
-
クライアントIDにと入力し `mnode-client`ます。
-
セッションを開始するには、 * Authorize * を選択します。
-
-
REST API UI で、 * 一部のユーザに一時的な処理を開始 / インストール * を選択します。
-
[* 試してみてください * ] を選択します。
-
[* Execute] を選択します。
-
コード200応答本文からをコピーして保存し、 `id`後の手順で使用できるようにします。
インストール環境には、インストールまたはアップグレード時に作成されたベースアセットの構成が含まれています。
-
-
NetApp Hybrid Cloud Control の vCenter コントローラアセットを管理ノードの既知のアセットに追加します。
-
管理ノードのIPアドレスに続けて次のように入力し、管理ノードのmnodeサービスAPI UIにアクセスし `/mnode`ます。
https://<ManagementNodeIP>/mnode
-
「 * Authorize * (認証)」または任意のロックアイコンを選択し、次の手順を実行します。
-
クラスタのユーザ名とパスワードを入力します。
-
クライアントIDにと入力し `mnode-client`ます。
-
セッションを開始するには、 * Authorize * を選択します。
-
ウィンドウを閉じます。
-
-
コントローラサブアセットを追加する場合は、「 * POST /assets/{ asset_id } /controllers * 」を選択します。
コントローラサブアセットを追加する場合は、vCenterで新しいNetApp HCCロールを作成する必要があります。この新しい NetApp HCC ロールにより、管理ノードのサービス表示がネットアップ専用のアセットに制限されます。を参照して "vCenter で NetApp HCC ロールを作成します" -
[* 試してみてください * ] を選択します。
-
クリップボードにコピーした親ベースアセットの ID を * asset_id * フィールドに入力します。
-
必要なペイロード値をタイプとvCenterクレデンシャルとともに入力し `vCenter`ます。
-
[* Execute] を選択します。
-