Skip to main content
NetApp Solutions SAP
日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

ストレージコントローラのセットアップ

共同作成者

ここでは、ネットアップストレージシステムの構成について説明します。プライマリのインストールとセットアップは、対応する ONTAP のセットアップガイドおよび設定ガイドに従って実行する必要があります。

ストレージ効率

SSD 構成の SAP HANA では、インライン重複排除、ボリューム間インライン重複排除、インライン圧縮、インラインコンパクションがサポートされています。

HDD 構成で Storage Efficiency 機能を有効にすることはできません。

NetApp FlexGroupボリューム

NetApp FlexGroup Volumeの使用はSAP HANAではサポートされていません。SAP HANAのアーキテクチャ上、FlexGroup Volumeを使用してもメリットはなく、パフォーマンスの問題が発生する可能性があります。

NetAppボリュームとアグリゲートの暗号化

SAP HANAでは、NetApp Volume Encryption(NVE)とNetApp Aggregate Encryption(NAE)の使用がサポートされています。

サービス品質

QoS を使用して、特定の SAP HANA システムのストレージスループットを制限できます。1 つのユースケースとして、開発システムとテストシステムのスループットを制限し、混在環境で本番システムに影響を与えないようにすることが挙げられます。

サイジングプロセスでは、非本番システムのパフォーマンス要件を決定する必要があります。開発 / テスト用システムは、通常は本番用システムの 20~50% の範囲で、低いパフォーマンス値でサイジングすることができます。

ONTAP 9 以降では、ストレージボリュームレベルで QoS が設定され、スループット( MBps )と I/O 数( IOPS )には最大値が使用されます。

ストレージシステムのパフォーマンスに最大の影響があるのは、大きい書き込み I/O です。そのため、 QoS スループットの制限値として、データボリュームとログボリュームの対応する書き込み SAP HANA ストレージパフォーマンス KPI 値の割合を設定する必要があります。

NetApp FabricPool

SAP HANA システムのアクティブなプライマリファイルシステムには、 NetApp FabricPool テクノロジを使用しないでください。これには ' データとログ領域のファイル・システムと '/hana/shared-file システムが含まれますそのため、特に SAP HANA システムの起動時に、予測不可能なパフォーマンスが発生します。

「 snapshot-only 」階層化ポリシーを使用することも、一般的に SnapVault または SnapMirror デスティネーションなどのバックアップターゲットで FabricPool を使用することもできます。

メモ FabricPool を使用してプライマリストレージで Snapshot コピーを階層化するか、バックアップターゲットで FabricPool を使用すると、データベースまたはシステムクローンの作成や修復などのその他のタスクのリストアとリカバリに必要な時間が変わります。この点を考慮して、全体的なライフサイクル管理戦略を計画し、この機能を使用している間も SLA が満たされていることを確認してください。

FabricPool は、ログバックアップを別のストレージ階層に移動する場合に適しています。バックアップの移動は、 SAP HANA データベースのリカバリに要する時間に影響します。したがって、「 tiering-minimum-cooling-days 」オプションには、リカバリに必要なログバックアップをローカルの高速ストレージ階層に定期的に配置する値を設定する必要があります。

ストレージを設定する

以下に、必要なストレージ構成手順の概要を示します。各手順の詳細については、以降のセクションで説明します。これらの手順を開始する前に、ストレージハードウェアのセットアップ、 ONTAP ソフトウェアのインストール、およびストレージ FCP ポートと SAN ファブリックの接続を完了してください。

  1. の説明に従って、正しいディスク・シェルフ構成を確認しますディスクシェルフの接続

  2. の説明に従って、必要なアグリゲートを作成して設定しますアグリゲートの構成

  3. の説明に従って、Storage Virtual Machine(SVM)を作成しますStorage Virtual Machine の設定

  4. の説明に従って、論理インターフェイス(LIF)を作成します論理インターフェイスの構成

  5. HANAサーバのWorld Wide Name(WWN;ワールドワイド名)を含むイニシエータグループ(igroup)を作成します。詳細については、「link:SAPHana_JP_fc_storage_controller_setup.html# FAS initiator-groups」を参照してくださいイニシエータグループ

  6. セクションとの説明に従って、アグリゲート内にボリュームとLUNを作成します。SAP HANA シングルホストシステムのボリュームと LUN の構成SAP HANA マルチホストシステムのボリュームと LUN の構成

  7. の説明に従って、アグリゲート内にイニシエータグループ、ボリューム、LUNを作成しますLUN 、ボリュームを作成し、 LUN をイニシエータグループにマッピングします

ディスクシェルフの接続

HDD を使用すると、次の図に示すように、 1 つの SAS スタックに最大 2 台の DS2246 ディスクシェルフまたは 4 台の DS224C ディスクシェルフを接続することで、 SAP HANA ホストに必要なパフォーマンスを実現できます。各シェルフ内のディスクは、 HA ペアの両方のコントローラに均等に分散する必要があります。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

SSD を使用する場合は、次の図に示すように、 1 つの SAS スタックに最大 1 台のディスクシェルフを接続して、 SAP HANA ホストに必要なパフォーマンスを実現できます。各シェルフ内のディスクは、 HA ペアの両方のコントローラに均等に分散する必要があります。ディスクシェルフ DS224C では、クワッドパスの SAS ケーブルも使用できますが、必須ではありません。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

NVMe ( 100GbE )ディスクシェルフ

次の図に示すように、NS224 NVMeディスクシェルフは、コントローラごとに2つの100GbEポートで接続されます。各シェルフ内のディスクは、HAペアの両方のコントローラに均等に分散する必要があります。

MVMeディスクシェルフの接続

アグリゲートの構成

一般に、使用するディスクシェルフやディスクテクノロジ( SSD または HDD )に関係なく、コントローラごとに 2 つのアグリゲートを設定する必要があります。この手順は、使用可能なすべてのコントローラリソースを使用できるようにするために必要です。FAS 2000 シリーズシステムの場合、 1 つのデータアグリゲートで十分です。

HDD を使用したアグリゲート構成

次の図は、 8 台の SAP HANA ホストの構成を示しています。4 台の SAP HANA ホストが各ストレージコントローラに接続されています。各ストレージコントローラに 1 つずつ、合計 2 つのアグリゲートが構成されています。各アグリゲートには、 4 × 10 = 40 のデータディスク( HDD )が構成されます。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

SDD 専用システムで構成を集約する

一般に、使用するディスクシェルフやディスクテクノロジ( SSD または HDD )とは別に、各コントローラに 2 つのアグリゲートを構成する必要があります。

次の図は、 ADPv2 を使用した、 12Gb の SAS シェルフで稼働する、 12 台の SAP HANA ホストの構成を示しています。6 台の SAP HANA ホストが各ストレージコントローラに接続されています。各ストレージコントローラに 2 つずつ、合計 4 つのアグリゲートが構成されています。各アグリゲートには、 9 つのデータパーティションと 2 つのパリティディスクパーティションを含む 11 本のディスクが構成されます。各コントローラで、 2 つのスペアパーティションを使用できます。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

Storage Virtual Machine の設定

SAP HANA データベースを使用する複数ホストの SAP 環境では、単一の SVM を使用できます。SVM は、社内の複数のチームによって管理される場合に備え、必要に応じて各 SAP ランドスケープに割り当てることもできます。このドキュメントのスクリーンショットとコマンド出力には、「 HANA 」という名前の SVM が使用されています。

論理インターフェイスの構成

ストレージクラスタ構成内に、 1 つのネットワークインターフェイス( LIF )を作成して専用の FCP ポートに割り当てる必要があります。たとえば、パフォーマンス上の理由から 4 つの FCP ポートが必要な場合は、 4 つの LIF を作成する必要があります。次の図は、SVMに設定された8つのLIFのスクリーンショットを示しています。

論理インターフェイスの概要

ONTAP 9 の System Manager で SVM を作成する際には、必要なすべての物理 FCP ポートを選択し、物理ポートごとに 1 つの LIF を自動的に作成できます。

次の図は、ONTAP System Managerを使用したSVMとLIFの作成を示しています。

SVMの作成

イニシエータグループ

igroup は、サーバごとに、または LUN へのアクセスを必要とするサーバのグループに対して設定できます。igroup の構成には、サーバの World Wide Port Name ( WWPN )が必要です。

「 anlun 」ツールを使用して次のコマンドを実行し、各 SAP HANA ホストの WWPN を取得します。

stlrx300s8-6:~ # sanlun fcp show adapter
/sbin/udevadm
/sbin/udevadm

host0 ...... WWPN:2100000e1e163700
host1 ...... WWPN:2100000e1e163701
メモ 「 anlun 」ツールは NetApp Host Utilities の一部であり、各 SAP HANA ホストにインストールする必要があります。詳細については、セクションを参照してください "ホストのセットアップ:"

igroupは、ONTAPクラスタのCLIを使用して作成できます。

lun igroup create -igroup <igroup name> -protocol fcp -ostype linux -initiator <list of initiators> -vserver <SVM name>

SAP HANA シングルホストシステムのボリュームと LUN の構成

次の図は、 4 つのシングルホスト SAP HANA システムのボリューム構成を示しています。各SAP HANAシステムのデータボリュームとログボリュームは、異なるストレージコントローラに分散されます。たとえば、ボリュームは `SID1_data_mnt00001`コントローラAで構成され、ボリュームはコントローラBで構成され `SID1_log_mnt00001`ます。各ボリューム内には単一のLUNが構成されます。

メモ ハイアベイラビリティ( HA )ペアのうち、 1 台のストレージコントローラのみを SAP HANA システムに使用する場合は、データボリュームとログボリュームを同じストレージコントローラに保存することもできます。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

各 SAP HANA ホストには、データボリューム、ログボリューム、「 /hana/shared 」のボリュームが構成されています。次の表は、 4 台の SAP HANA シングルホストシステムを使用した構成例を示しています。

目的 コントローラ A のアグリゲート 1 コントローラ A のアグリゲート 2 コントローラ B のアグリゲート 1 コントローラ B のアグリゲート 2

システム SID1 のデータ、ログ、および共有ボリューム

データボリューム: SID1_data_mnt00001

共有ボリューム: SID1_shared

ログボリューム: SID1_log_mnt00001

システム SID2 のデータボリューム、ログボリューム、および共有ボリューム

ログボリューム: SID2_log_mnt00001

データボリューム: SID2_data_mnt00001

共有ボリューム: SID2_shared

システム SID3 のデータ、ログ、および共有ボリューム

共有ボリューム: SID3_shared

データボリューム: SID3_data_mnt00001

ログボリューム: SID3_log_mnt00001

システム SID4 のデータボリューム、ログボリューム、および共有ボリューム

ログボリューム: SID4_log_mnt00001

共有ボリューム: SID4_shared

データボリューム: SID4_data_mnt00001

次の表に、シングルホストシステムのマウントポイント構成の例を示します。

LUN HANA ホストのマウントポイント

SID1_data_mnt00001

/hana/data SID1/mnt00001 のように指定します

/etc/fstab エントリを使用してマウントされます

SID1_log_mnt00001

/hana/log/s1/mnt00001

/etc/fstab エントリを使用してマウントされます

SID1_shared

/hana/shareed/SID1

/etc/fstab エントリを使用してマウントされます

メモ ここで説明する構成では ' ユーザ SID1adm のデフォルトのホーム・ディレクトリが格納されている /usr/sap/SID1 ディレクトリがローカル・ディスク上にありますディスク・ベースのレプリケーションを使用した災害復旧セットアップでは、すべてのファイル・システムが中央ストレージ上にあるように、 /usr/sap/SID1 ディレクトリの「 ID1_shared 」ボリューム内に追加の LUN を作成することを推奨します。

Linux LVM を使用した SAP HANA シングルホストシステムのボリュームと LUN の構成

Linux LVM を使用すると、パフォーマンスを向上させ、 LUN サイズの制限に対処できます。LVM ボリュームグループの各 LUN は、別のアグリゲートおよび別のコントローラに格納する必要があります。次の表に、ボリュームグループごとに 2 つの LUN を使用する例を示します。

メモ SAP HANA KPI を実現するために、複数の LUN で LVM を使用する必要はありません。1 つの LUN セットアップで必要な KPI を達成します。
目的 コントローラ A のアグリゲート 1 コントローラ A のアグリゲート 2 コントローラ B のアグリゲート 1 コントローラ B のアグリゲート 2

LVM ベースのシステムのデータ、ログ、および共有ボリューム

データボリューム: SID1_data_mnt00001

共有ボリューム: SID1_shared log2 ボリューム: SID1_log2_mnt00001

data2 ボリューム: SID1_data2_mnt00001

ログボリューム: SID1_log_mnt00001

SAP HANA ホストで、ボリュームグループと論理ボリュームを作成してマウントする必要があります。次の表に、 LVM を使用するシングルホストシステムのマウントポイントを示します。

論理ボリューム / LUN SAP HANA ホストのマウントポイント

LV : SID1_data_mnt0000_vol

/hana/data SID1/mnt00001 のように指定します

/etc/fstab エントリを使用してマウントされます

LV : SID1_log_mnt00001-vol

/hana/log/s1/mnt00001

/etc/fstab エントリを使用してマウントされます

LUN : SID1_shared

/hana/shareed/SID1

/etc/fstab エントリを使用してマウントされます

メモ ここで説明する構成では ' ユーザ SID1adm のデフォルトのホーム・ディレクトリが格納されている /usr/sap/SID1 ディレクトリがローカル・ディスク上にありますディスク・ベースのレプリケーションを使用した災害復旧セットアップでは、すべてのファイル・システムが中央ストレージ上にあるように、 /usr/sap/SID1 ディレクトリの「 ID1_shared 」ボリューム内に追加の LUN を作成することを推奨します。

SAP HANA マルチホストシステムのボリュームと LUN の構成

次の図は、 4+1 のマルチホスト SAP HANA システムのボリューム構成を示しています。各 SAP HANA ホストのデータボリュームとログボリュームは、異なるストレージコントローラに分散されます。たとえば、ボリューム「 `S ID_data_mnt00001 」はコントローラ A に設定され、ボリューム「 S ID_LOG_mnt00001 」はコントローラ B に設定されています各ボリュームに 1 つの LUN を設定します。

「 /hana/shared 」ボリュームは、すべての HANA ホストからアクセスできる必要があり、 NFS を使用してエクスポートされます。「 /hana/shared 」ファイルシステムには特定のパフォーマンス KPI がありませんが、 10Gb のイーサネット接続を使用することを推奨します。

メモ HA ペアのうち、 1 台のストレージコントローラのみを SAP HANA システムに使用する場合は、データボリュームとログボリュームを同じストレージコントローラに保存することもできます。

入力/出力ダイアログを示す図、または書き込まれた内容を表す図

各 SAP HANA ホストには、 1 個のデータボリュームと 1 個のログボリュームが作成されます。「 /hana/shared 」ボリュームは、 SAP HANA システムのすべてのホストで使用されます。次の図は、 4+1 のマルチホスト SAP HANA システムの構成例を示しています。

目的 コントローラ A のアグリゲート 1 コントローラ A のアグリゲート 2 コントローラ B のアグリゲート 1 コントローラ B のアグリゲート 2

ノード 1 のデータボリュームとログボリューム

データボリューム: SID_data_mnt00001

ログボリューム: SID_log_mnt00001

ノード 2 のデータボリュームとログボリューム

ログボリューム: SID_log_mnt00002

データボリューム: SID_data_mnt00002

ノード 3 のデータボリュームとログボリューム

データボリューム: SID_data_mnt00003

ログボリューム: SID_log_mnt00003

ノード 4 のデータボリュームとログボリューム

ログボリューム: SID_log_mnt00004

データボリューム: SID_data_mnt00004

すべてのホストの共有ボリューム

共有ボリューム: SID_shared

次の表に、アクティブな SAP HANA ホストが 4 台あるマルチホストシステムの構成とマウントポイントを示します。

LUN またはボリューム SAP HANA ホストのマウントポイント

LUN : SID_data_mnt00001

/hana/data/SID/mnt00001

ストレージコネクタを使用してマウント

LUN : SID_log_mnt00001

/hana/log/sid/mnt00001

ストレージコネクタを使用してマウント

LUN : SID_data_mnt00002

/hana/data/sid/mnt00002

ストレージコネクタを使用してマウント

LUN : SID_log_mnt00002

/hana/log/sid/mnt00002

ストレージコネクタを使用してマウント

LUN : SID_data_mnt00003

/hana/data/sid/mnt00003

ストレージコネクタを使用してマウント

LUN : SID_log_mnt00003

/hana/log/sid/mnt00003

ストレージコネクタを使用してマウント

LUN : SID_data_mnt00004

/hana/data/sid/mnt00004

ストレージコネクタを使用してマウント

LUN : SID_log_mnt00004

/hana/log/sid/mnt00004

ストレージコネクタを使用してマウント

ボリューム: SID_shared

/hana/shared-SID を指定します

NFS と /etc/fstab のエントリを使用して、すべてのホストにマウントされます

メモ 上記の構成では、 `/usr/sap/SID`ユーザSIDadmのデフォルトのホームディレクトリが格納されているディレクトリが、各HANAホストのローカルディスクに配置されます。ディスクベースのレプリケーションを使用するディザスタリカバリの設定では、NetAppでは、各データベースホストのすべてのファイルシステムが中央ストレージに配置されるように、ファイルシステム用のボリュームに `/usr/sap/SID`さらに4つのサブディレクトリを作成することを推奨してい `SID_shared`ます。

Linux LVM を使用した SAP HANA マルチホストシステムのボリュームと LUN の構成

Linux LVM を使用すると、パフォーマンスを向上させ、 LUN サイズの制限に対処できます。LVM ボリュームグループの各 LUN は、別のアグリゲートおよび別のコントローラに格納する必要があります。次の表に、 2+1 の SAP HANA マルチホストシステムのボリュームグループあたり 2 つの LUN の例を示します。

メモ SAP HANA KPI を実現するために LVM を使用して複数の LUN を組み合わせる必要はありません。1 つの LUN セットアップで必要な KPI を達成します。
目的 コントローラ A のアグリゲート 1 コントローラ A のアグリゲート 2 コントローラ B のアグリゲート 1 コントローラ B のアグリゲート 2

ノード 1 のデータボリュームとログボリューム

データボリューム: SID_data_mnt00001

ログ 2 ボリューム: SID_log2_mnt00001

ログボリューム: SID_log_mnt00001

data2 ボリューム: SID_data2_mnt00001

ノード 2 のデータボリュームとログボリューム

ログ 2 ボリューム: SID_log2_mnt00002

データボリューム: SID_data_mnt00002

data2 ボリューム: SID_data2_mnt00002

ログボリューム: SID_log_mnt00002

すべてのホストの共有ボリューム

共有ボリューム: SID_shared

SAP HANA ホストで、ボリュームグループと論理ボリュームを作成してマウントする必要があります。

論理ボリューム( LV )またはボリューム SAP HANA ホストのマウントポイント

lv : SID_data_mnt00001-vol

/hana/data/SID/mnt00001

ストレージコネクタを使用してマウント

lv : SID_log_mnt00001-vol

/hana/log/sid/mnt00001

ストレージコネクタを使用してマウント

LV : SID_data_mnt00002 -vol

/hana/data/sid/mnt00002

ストレージコネクタを使用してマウント

lv : SID_log_mnt00002 -vol

/hana/log/sid/mnt00002

ストレージコネクタを使用してマウント

ボリューム: SID_shared

/hana/shared にアクセスします

NFS と /etc/fstab のエントリを使用して、すべてのホストにマウントされます

メモ 上記の構成では、ユーザ SIDadm のデフォルトのホームディレクトリが格納されている /usr/sap/SID のディレクトリは、各 HANA ホストのローカルディスクにあります。ディスク・ベースのレプリケーションを使用した災害復旧の設定では、各データベース・ホストが中央ストレージ上のすべてのファイル・システムを持つように、 /usr/sap/SID ファイル・システムの「 S ID_shared 」ボリュームに 4 つのサブディレクトリを追加作成することを推奨します。

ボリュームのオプション

次の表に示すボリュームオプションは、すべての SVM で検証および設定する必要があります。

アクション ONTAP 9

Snapshot コピーの自動作成を無効にする

vol modify – vserver <vserver-name> -volume <volname> -snapshot-policy none と指定します

Snapshot ディレクトリの可視化を無効にします

vol modify -vserver <vserver-name> -volume <volname> -snapdir-access false

LUN 、ボリュームを作成し、 LUN をイニシエータグループにマッピングします

NetApp ONTAP System Managerを使用してストレージボリュームとLUNを作成し、それらをサーバとONTAP CLIのigroupにマッピングすることができます。このマニュアルでは、CLIの使用方法について説明します。

CLI を使用して LUN 、ボリュームを作成し、 igroup に LUN をマッピングします

このセクションでは、コマンドラインを使用した構成例を示します。 ONTAP 9 は、 LVM を使用した 2+1 の SAP HANA マルチホストシステムで、 LVM ボリュームグループごとに 2 つの LUN を使用した SID FC5 です。

  1. 必要なボリュームをすべて作成します。

    vol create -volume FC5_data_mnt00001 -aggregate aggr1_1 -size 1200g  -snapshot-policy none -foreground true -encrypt false  -space-guarantee none
    vol create -volume FC5_log_mnt00002  -aggregate aggr2_1 -size 280g  -snapshot-policy none -foreground true -encrypt false  -space-guarantee none
    vol create -volume FC5_log_mnt00001  -aggregate aggr1_2 -size 280g -snapshot-policy none -foreground true -encrypt false -space-guarantee none
    vol create -volume FC5_data_mnt00002  -aggregate aggr2_2 -size 1200g -snapshot-policy none -foreground true -encrypt false -space-guarantee none
    vol create -volume FC5_data2_mnt00001 -aggregate aggr1_2 -size 1200g -snapshot-policy none -foreground true -encrypt false -space-guarantee none
    vol create -volume FC5_log2_mnt00002  -aggregate aggr2_2 -size 280g -snapshot-policy none -foreground true -encrypt false -space-guarantee none
    vol create -volume FC5_log2_mnt00001  -aggregate aggr1_1 -size 280g -snapshot-policy none -foreground true -encrypt false  -space-guarantee none
    vol create -volume FC5_data2_mnt00002  -aggregate aggr2_1 -size 1200g -snapshot-policy none -foreground true -encrypt false -space-guarantee none
    vol create -volume FC5_shared -aggregate aggr1_1 -size 512g -state online -policy default -snapshot-policy none -junction-path /FC5_shared -encrypt false  -space-guarantee none
  2. すべての LUN を作成します。

    lun create -path  /vol/FC5_data_mnt00001/FC5_data_mnt00001   -size 1t -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_data2_mnt00001/FC5_data2_mnt00001 -size 1t -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_data_mnt00002/FC5_data_mnt00002 -size 1t -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_data2_mnt00002/FC5_data2_mnt00002 -size 1t -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_log_mnt00001/FC5_log_mnt00001 -size 260g -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_log2_mnt00001/FC5_log2_mnt00001 -size 260g -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_log_mnt00002/FC5_log_mnt00002 -size 260g -ostype linux -space-reserve disabled -space-allocation disabled -class regular
    lun create -path /vol/FC5_log2_mnt00002/FC5_log2_mnt00002 -size 260g -ostype linux -space-reserve disabled -space-allocation disabled -class regular
  3. システム FC5 に属するすべてのサーバの igroup を作成します。

    lun igroup create -igroup HANA-FC5 -protocol fcp -ostype linux -initiator 10000090fadcc5fa,10000090fadcc5fb, 10000090fadcc5c1,10000090fadcc5c2,  10000090fadcc5c3,10000090fadcc5c4 -vserver hana
  4. 作成した igroup にすべての LUN をマッピングします。

    lun map -path  /vol/FC5_data_mnt00001/FC5_data_mnt00001    -igroup HANA-FC5
    lun map -path /vol/FC5_data2_mnt00001/FC5_data2_mnt00001  -igroup HANA-FC5
    lun map -path /vol/FC5_data_mnt00002/FC5_data_mnt00002  -igroup HANA-FC5
    lun map -path /vol/FC5_data2_mnt00002/FC5_data2_mnt00002  -igroup HANA-FC5
    lun map -path /vol/FC5_log_mnt00001/FC5_log_mnt00001  -igroup HANA-FC5
    lun map -path /vol/FC5_log2_mnt00001/FC5_log2_mnt00001  -igroup HANA-FC5
    lun map -path /vol/FC5_log_mnt00002/FC5_log_mnt00002  -igroup HANA-FC5
    lun map -path /vol/FC5_log2_mnt00002/FC5_log2_mnt00002  -igroup HANA-FC5