Migrieren Sie mit NVIDIA SN2100-Cluster-Switches zu einem Cluster mit zwei Nodes
Wenn Sie eine bestehende Cluster-Umgebung mit zwei Nodes ohne Switches nutzen, können Sie mit NVIDIA SN2100 Switches zu einer Switch-basierten Cluster-Umgebung mit zwei Nodes migrieren. So können Sie eine Skalierung über zwei Nodes im Cluster hinaus vornehmen.
Die von Ihnen verwendete Vorgehensweise hängt davon ab, ob Sie an jedem Controller zwei dedizierte Cluster-Netzwerk-Ports oder einen einzelnen Cluster-Port haben. Der dokumentierte Prozess funktioniert bei allen Knoten über optische oder Twinax-Ports, wird bei diesem Switch jedoch nicht unterstützt, wenn Knoten integrierte 10GBASE-T RJ45-Ports für die Cluster-Netzwerk-Ports verwenden.
Prüfen Sie die Anforderungen
Bei der Konfiguration mit zwei Nodes ohne Switches stellen Sie Folgendes sicher:
-
Die Konfiguration mit zwei Nodes ohne Switches ist ordnungsgemäß eingerichtet und funktionsfähig.
-
Auf den Knoten wird ONTAP 9.10.1P3 und höher ausgeführt.
-
Alle Cluster-Ports befinden sich im Status „up“.
-
Alle logischen Cluster-Schnittstellen (LIFs) befinden sich im up-Zustand und an ihren Home-Ports.
Stellen Sie bei der Konfiguration des NVIDIA SN2100-Cluster-Switches Folgendes sicher:
-
Beide Switches verfügen über Management-Netzwerk-Konnektivität.
-
Auf die Cluster-Switches kann über eine Konsole zugegriffen werden.
-
Bei NVIDIA SN2100, Node-to-Node-Switch und Switch-to-Switch-Verbindungen werden Twinax- oder Glasfaserkabel verwendet.
Siehe "Überlegungen zur Verkabelung und Konfiguration" Bei Einschränkungen und weiteren Details. Der "Hardware Universe – Switches" Enthält weitere Informationen zur Verkabelung.
-
Inter-Switch Link (ISL)-Kabel werden an die Anschlüsse swp15 und swp16 an beiden NVIDIA SN2100-Switches angeschlossen.
-
Die Erstanpassung der beiden SN2100-Switches erfolgt so:
-
SN2100-Switches führen die neueste Version von Cumulus Linux aus
-
Auf die Switches wurden Referenzkonfigurationsdateien (RCFs) angewendet
-
Auf den neuen Switches werden alle Site-Anpassungen wie SMTP, SNMP und SSH konfiguriert.
-
Migrieren Sie die Switches
In den Beispielen dieses Verfahrens wird die folgende Terminologie für Cluster-Switch und Node verwendet:
-
Die Namen der SN2100-Schalter lauten sw1 und sw2.
-
Die Namen der Cluster SVMs sind node1 und node2.
-
Die Namen der LIFs sind_node1_clus1_ und node1_clus2 auf Knoten 1, und node2_clus1 und node2_clus2 auf Knoten 2.
-
Der
cluster1::*>
Eine Eingabeaufforderung gibt den Namen des Clusters an. -
Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.
-
Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.
Der "Hardware Universe" Enthält die neuesten Informationen über die tatsächlichen Cluster-Ports für Ihre Plattformen.
Schritt: Bereiten Sie sich auf die Migration vor
-
Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:
system node autosupport invoke -node * -type all -message MAINT=xh
Wobei x die Dauer des Wartungsfensters in Stunden ist.
-
Ändern Sie die Berechtigungsebene in erweitert, indem Sie eingeben
y
Wenn Sie dazu aufgefordert werden, fortzufahren:set -privilege advanced
Die erweiterte Eingabeaufforderung (`*>`Erscheint.
Schritt: Kabel und Ports konfigurieren
-
Deaktivieren Sie alle Node-Ports (keine ISL-Ports) auf den neuen Cluster-Switches sw1 und sw2.
Sie dürfen die ISL-Ports nicht deaktivieren.
Beispiel anzeigen
Mit den folgenden Befehlen werden die Knotenanschlüsse an den Switches sw1 und sw2 deaktiviert:
cumulus@sw1:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down cumulus@sw1:~$ net pending cumulus@sw1:~$ net commit cumulus@sw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down cumulus@sw2:~$ net pending cumulus@sw2:~$ net commit
-
Stellen Sie sicher, dass sich die ISL und die physischen Ports auf der ISL zwischen den beiden SN2100-Switches sw1 und sw2 auf den Ports swp15 und swp16 befinden:
net show interface
Beispiel anzeigen
Das folgende Beispiel zeigt, dass die ISL-Ports auf Switch sw1 aufstehen:
cumulus@sw1:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- --------- ---- ----- ---------- ----------- ----------------------- ... ... UP swp15 100G 9216 BondMember sw2 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw2 (swp16) Master: cluster_isl(UP)
+ das folgende Beispiel zeigt, dass die ISL-Ports auf Switch sw2 aktiviert sind:
+
cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- --------- ---- ----- ---------- ----------- ----------------------- ... ... UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:
network port show
Jeder Port sollte für angezeigt werden
Link
Und gesund fürHealth Status
.Beispiel anzeigen
cluster1::*> network port show Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Vergewissern Sie sich, dass alle Cluster-LIFs betriebsbereit sind und betriebsbereit sind:
network interface show
Jede LIF im Cluster sollte für „true“ anzeigen
Is Home
Und ich habe einStatus Admin/Oper
Von up/UpBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ----- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:
network interface modify -vserver Cluster -lif * -auto-revert false
Beispiel anzeigen
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false Logical Vserver Interface Auto-revert --------- ------------- ------------ Cluster node1_clus1 false node1_clus2 false node2_clus1 false node2_clus2 false
-
Trennen Sie das Kabel vom Cluster-Port e3a auf node1, und verbinden sie dann e3a mit Port 3 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.
Der "Hardware Universe – Switches" Enthält weitere Informationen zur Verkabelung.
-
Trennen Sie das Kabel vom Cluster-Port e3a auf node2, und verbinden sie dann e3a mit Port 4 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.
-
Aktivieren Sie bei Switch sw1 alle Anschlüsse, die nach Knoten ausgerichtet sind.
Beispiel anzeigen
Mit dem folgenden Befehl werden alle Knotenpunkte auf Switch sw1 aktiviert:
cumulus@sw1:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down cumulus@sw1:~$ net pending cumulus@sw1:~$ net commit
-
Stellen Sie am Switch sw1 sicher, dass alle Anschlüsse aktiv sind:
net show interface all
Beispiel anzeigen
cumulus@sw1:~$ net show interface all State Name Spd MTU Mode LLDP Summary ----- --------- ---- ----- ---------- --------------- -------- ... DN swp1s0 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s1 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s2 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s3 10G 9216 Trunk/L2 Master: br_default(UP) DN swp2s0 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s1 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s2 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s3 25G 9216 Trunk/L2 Master: br_default(UP) UP swp3 100G 9216 Trunk/L2 node1 (e3a) Master: br_default(UP) UP swp4 100G 9216 Trunk/L2 node2 (e3a) Master: br_default(UP) ... ... UP swp15 100G 9216 BondMember swp15 Master: cluster_isl(UP) UP swp16 100G 9216 BondMember swp16 Master: cluster_isl(UP) ...
-
Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:
network port show -ipspace Cluster
Beispiel anzeigen
Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Informationen zum Status der Nodes im Cluster anzeigen:
cluster show
Beispiel anzeigen
Im folgenden Beispiel werden Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster angezeigt:
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------------ node1 true true false node2 true true false
-
Trennen Sie das Kabel vom Cluster-Port e3b auf node1, und verbinden sie e3b mit Port 3 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.
-
Trennen Sie das Kabel vom Cluster-Port e3b auf node2, und verbinden sie e3b mit Port 4 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.
-
Aktivieren Sie am Switch sw2 alle Anschlüsse für Knoten.
Beispiel anzeigen
Mit den folgenden Befehlen werden die Node-Ports am Switch sw2 aktiviert:
cumulus@sw2:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down cumulus@sw2:~$ net pending cumulus@sw2:~$ net commit
-
Stellen Sie beim Switch sw2 sicher, dass alle Ports aktiviert sind:
net show interface all
Beispiel anzeigen
cumulus@sw2:~$ net show interface all State Name Spd MTU Mode LLDP Summary ----- --------- ---- ----- ---------- --------------- -------- ... DN swp1s0 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s1 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s2 10G 9216 Trunk/L2 Master: br_default(UP) DN swp1s3 10G 9216 Trunk/L2 Master: br_default(UP) DN swp2s0 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s1 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s2 25G 9216 Trunk/L2 Master: br_default(UP) DN swp2s3 25G 9216 Trunk/L2 Master: br_default(UP) UP swp3 100G 9216 Trunk/L2 node1 (e3b) Master: br_default(UP) UP swp4 100G 9216 Trunk/L2 node2 (e3b) Master: br_default(UP) ... ... UP swp15 100G 9216 BondMember swp15 Master: cluster_isl(UP) UP swp16 100G 9216 BondMember swp16 Master: cluster_isl(UP) ...
-
Vergewissern Sie sich bei beiden Schaltern sw1 und sw2, dass beide Knoten jeweils eine Verbindung zu jedem Switch haben:
net show lldp
Beispiel anzeigen
Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter sw1 und sw2:
cumulus@sw1:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ----------------- ----------- swp3 100G Trunk/L2 node1 e3a swp4 100G Trunk/L2 node2 e3a swp15 100G BondMember sw2 swp15 swp16 100G BondMember sw2 swp16 cumulus@sw2:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ----------------- ----------- swp3 100G Trunk/L2 node1 e3b swp4 100G Trunk/L2 node2 e3b swp15 100G BondMember sw1 swp15 swp16 100G BondMember sw1 swp16
Schritt 3: Führen Sie den Vorgang durch
-
Zeigen Sie Informationen zu den erkannten Netzwerkgeräten im Cluster an:
net device-discovery show -protocol lldp
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ------------ ---------------- node1 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp3 - e3b sw2 (b8:ce:f6:19:1b:96) swp3 - node2 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp4 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 -
-
Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:
network port show -ipspace Cluster
Beispiel anzeigen
Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e3a Cluster Cluster up 9000 auto/10000 healthy false e3b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e3a Cluster Cluster up 9000 auto/10000 healthy false e3b Cluster Cluster up 9000 auto/10000 healthy false
-
Aktivieren Sie das automatische Zurücksetzen auf allen Cluster-LIFs:
net interface modify -vserver Cluster -lif * -auto-revert true
Beispiel anzeigen
cluster1::*> net interface modify -vserver Cluster -lif * -auto-revert true Logical Vserver Interface Auto-revert --------- ------------- ------------ Cluster node1_clus1 true node1_clus2 true node2_clus1 true node2_clus2 true
-
Vergewissern Sie sich, dass alle Schnittstellen für „true“ anzeigen
Is Home
:net interface show -vserver Cluster
Dies kann eine Minute dauern. Beispiel anzeigen
Das folgende Beispiel zeigt, dass alle LIFs auf node1 und node2 liegen und dass
Is Home
Die Ergebnisse sind wahr:cluster1::*> net interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home --------- ------------ ---------- ------------------ ---------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
Vergewissern Sie sich, dass die Einstellungen deaktiviert sind:
network options switchless-cluster show
Beispiel anzeigen
Die falsche Ausgabe im folgenden Beispiel zeigt an, dass die Konfigurationseinstellungen deaktiviert sind:
cluster1::*> network options switchless-cluster show Enable Switchless Cluster: false
-
Überprüfen Sie den Status der Node-Mitglieder im Cluster:
cluster show
Beispiel anzeigen
Das folgende Beispiel zeigt Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster:
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ -------- node1 true true false node2 true true false
-
Stellen Sie sicher, dass das Clusternetzwerk über vollständige Konnektivität verfügt:
cluster ping-cluster -node node-name
Beispiel anzeigen
cluster1::*> cluster ping-cluster -node node1 Host is node1 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) Detected 9000 byte MTU on 4 path(s): Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
Aktivieren Sie die Protokollerfassungsfunktion für die Ethernet Switch-Systemzustandsüberwachung mithilfe der Befehle, um Switch-bezogene Protokolldateien zu erfassen:
system switch ethernet log setup-password
Undsystem switch ethernet log enable-collection
Geben Sie Ein:
system switch ethernet log setup-password
Beispiel anzeigen
cluster1::*> system switch ethernet log setup-password Enter the switch name: <return> The switch name entered is not recognized. Choose from the following list: sw1 sw2 cluster1::*> system switch ethernet log setup-password Enter the switch name: sw1 RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc Do you want to continue? {y|n}::[n] y Enter the password: <enter switch password> Enter the password again: <enter switch password> cluster1::*> system switch ethernet log setup-password Enter the switch name: sw2 RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1 Do you want to continue? {y|n}:: [n] y Enter the password: <enter switch password> Enter the password again: <enter switch password>
Gefolgt von:
system switch ethernet log enable-collection
Beispiel anzeigen
cluster1::*> system switch ethernet log enable-collection Do you want to enable cluster log collection for all nodes in the cluster? {y|n}: [n] y Enabling cluster switch log collection. cluster1::*>
Wenn einer dieser Befehle einen Fehler sendet, wenden Sie sich an den NetApp Support. -
Initiieren der Switch-Protokollerfassung:
system switch ethernet log collect -device *
Warten Sie 10 Minuten, und überprüfen Sie dann, ob die Protokollsammlung erfolgreich war mit dem folgenden Befehl:
system switch ethernet log show
Beispiel anzeigen
cluster1::*> system switch ethernet log show Log Collection Enabled: true Index Switch Log Timestamp Status ------ ---------------------------- ------------------- --------- 1 sw1 (b8:ce:f6:19:1b:42) 4/29/2022 03:05:25 complete 2 sw2 (b8:ce:f6:19:1b:96) 4/29/2022 03:07:42 complete
-
Ändern Sie die Berechtigungsebene zurück in den Administrator:
set -privilege admin
-
Wenn Sie die automatische Erstellung eines Cases unterdrückten, können Sie sie erneut aktivieren, indem Sie eine AutoSupport Meldung aufrufen:
system node autosupport invoke -node * -type all -message MAINT=END