Migration von CN1610-Cluster-Switches zu NVIDIA SN2100-Cluster-Switches
Sie können NetApp CN1610 Cluster-Switches für einen ONTAP Cluster auf NVIDIA SN2100 Cluster-Switches migrieren. Dies ist ein unterbrechungsfreies Verfahren.
Überprüfungsanforderungen
Beim Austausch von NetApp CN1610 Cluster-Switches durch NVIDIA SN2100 Cluster-Switches müssen Sie bestimmte Konfigurationsinformationen, Portverbindungen und Verkabelungsanforderungen beachten. Sehen"Übersicht über Installation und Konfiguration von NVIDIA SN2100-Switches" .
Folgende Cluster-Switches werden unterstützt:
-
NetApp CN1610
-
NVIDIA SN2100
Einzelheiten zu den unterstützten Ports und deren Konfigurationen finden Sie unter "Hardware Universe" Die
Bitte prüfen Sie, ob Ihre Konfiguration die folgenden Anforderungen erfüllt:
-
Der bestehende Cluster ist korrekt eingerichtet und funktioniert.
-
Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.
-
Die NVIDIA SN2100 Cluster-Switches sind konfiguriert und arbeiten unter der korrekten Version von Cumulus Linux, auf der die Referenzkonfigurationsdatei (RCF) angewendet wurde.
-
Die bestehende Cluster-Netzwerkkonfiguration weist folgende Merkmale auf:
-
Ein redundanter und voll funktionsfähiger NetApp Cluster mit CN1610-Switches.
-
Management-Konnektivität und Konsolenzugriff sowohl auf die CN1610-Switches als auch auf die neuen Switches.
-
Alle Cluster-LIFs befinden sich im aktiven Zustand und sind an ihren Heimatports angeschlossen.
-
ISL-Ports wurden zwischen den CN1610-Switches und zwischen den neuen Switches aktiviert und verkabelt.
-
-
Einige der Ports sind auf NVIDIA SN2100 Switches für den Betrieb mit 40GbE oder 100GbE konfiguriert.
-
Sie haben die 40GbE- und 100GbE-Konnektivität von den Knoten zu den NVIDIA SN2100 Cluster-Switches geplant, migriert und dokumentiert.
Migrieren Sie die Schalter
Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:
-
Die vorhandenen CN1610 Cluster-Switches sind c1 und c2.
-
Die neuen NVIDIA SN2100 Cluster-Switches sind sw1 und sw2.
-
Die Knoten heißen node1 und node2.
-
Die Cluster-LIFs sind node1_clus1 und node1_clus2 auf Knoten 1 bzw. node2_clus1 und node2_clus2 auf Knoten 2.
-
Der
cluster1::*>Die Eingabeaufforderung zeigt den Namen des Clusters an. -
Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.
-
Breakout-Ports haben folgendes Format: swp[Port]s[Breakout-Port 0-3]. Beispielsweise gibt es vier Breakout-Ports auf swp1: swp1s0, swp1s1, swp1s2 und swp1s3.
Dieses Verfahren umfasst folgendes Szenario:
-
Der Schalter c2 wird zuerst durch den Schalter sw2 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.
-
-
Der Schalter c1 wird durch den Schalter sw1 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.
-
|
|
Während dieses Vorgangs ist kein betriebsbereiter Inter-Switch-Link (ISL) erforderlich. Dies ist beabsichtigt, da RCF-Versionsänderungen die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, migriert das folgende Verfahren alle Cluster-LIFs zum operativen Partner-Switch, während die Schritte auf dem Ziel-Switch ausgeführt werden. |
Schritt 1: Vorbereitung auf die Migration
-
Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:
system node autosupport invoke -node * -type all -message MAINT=xhwobei x die Dauer des Wartungsfensters in Stunden ist.
-
Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:
set -privilege advancedDie erweiterte Eingabeaufforderung (*>) wird angezeigt.
-
Automatische Wiederherstellung der Cluster-LIFs deaktivieren:
network interface modify -vserver Cluster -lif * -auto-revert false
Schritt 2: Anschlüsse und Verkabelung konfigurieren
-
Ermitteln Sie den administrativen oder operativen Status jeder Clusterschnittstelle.
Jeder Port sollte angezeigt werden für
LinkUndhealthyfürHealth StatusDie-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Informationen zu den LIFs und ihren jeweiligen Heimatknoten anzeigen:
network interface show -vserver ClusterJedes LIF sollte anzeigen
up/upfürStatus Admin/OperUndtruefürIs HomeDie
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------- ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true -
-
Die Cluster-Ports auf jedem Knoten werden (aus Sicht der Knoten) folgendermaßen mit vorhandenen Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /cdp e3a c1 (6a:ad:4f:98:3b:3f) 0/1 - e3b c2 (6a:ad:4f:98:4c:a4) 0/1 - node2 /cdp e3a c1 (6a:ad:4f:98:3b:3f) 0/2 - e3b c2 (6a:ad:4f:98:4c:a4) 0/2 - -
Die Cluster-Ports und Switches werden (aus Sicht der Switches) mit folgendem Befehl verbunden:
show cdp neighborsBeispiel anzeigen
c1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 0/1 124 H AFF-A400 e3a node2 0/2 124 H AFF-A400 e3a c2 0/13 179 S I s CN1610 0/13 c2 0/14 175 S I s CN1610 0/14 c2 0/15 179 S I s CN1610 0/15 c2 0/16 175 S I s CN1610 0/16 c2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 0/1 124 H AFF-A400 e3b node2 0/2 124 H AFF-A400 e3b c1 0/13 175 S I s CN1610 0/13 c1 0/14 175 S I s CN1610 0/14 c1 0/15 175 S I s CN1610 0/15 c1 0/16 175 S I s CN1610 0/16 -
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e3a
Cluster node1_clus2 169.254.49.125 node1 e3b
Cluster node2_clus1 169.254.47.194 node2 e3a
Cluster node2_clus2 169.254.19.183 node2 e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
-
Schalten Sie auf Switch c2 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
(c2)# configure (c2)(Config)# interface 0/1-0/12 (c2)(Interface 0/1-0/12)# shutdown (c2)(Interface 0/1-0/12)# exit (c2)(Config)# exit (c2)#
-
Verschieben Sie die Knotencluster-Ports vom alten Switch c2 auf den neuen Switch sw2 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.
-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) 0/1 - e3b sw2 (b8:ce:f6:19:1a:7e) swp3 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) 0/2 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 - -
Überprüfen Sie an Switch sw2, ob alle Ports des Knotenclusters aktiv sind:
net show interfaceBeispiel anzeigen
cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Schalten Sie auf Switch c1 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
(c1)# configure (c1)(Config)# interface 0/1-0/12 (c1)(Interface 0/1-0/12)# shutdown (c1)(Interface 0/1-0/12)# exit (c1)(Config)# exit (c1)#
-
Verschieben Sie die Knotencluster-Ports vom alten Switch c1 auf den neuen Switch sw1 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.
-
Überprüfen Sie die endgültige Konfiguration des Clusters:
network port show -ipspace ClusterJeder Port sollte Folgendes anzeigen
upfürLinkUndhealthyfürHealth StatusDieBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- ---------------- node1 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp3 - e3b sw2 (b8:ce:f6:19:1b:96) swp3 - node2 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp4 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 - -
Überprüfen Sie an den Switches sw1 und sw2, ob alle Ports des Knotenclusters aktiv sind:
net show interfaceBeispiel anzeigen
cumulus@sw1:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp15 100G 9216 BondMember sw2 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw2 (swp16) Master: cluster_isl(UP) cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ----------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:
net show lldpBeispiel anzeigen
Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:
cumulus@sw1:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3a swp4 100G Trunk/L2 node2 e3a swp15 100G BondMember sw2 swp15 swp16 100G BondMember sw2 swp16 cumulus@sw2:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3b swp4 100G Trunk/L2 node2 e3b swp15 100G BondMember sw1 swp15 swp16 100G BondMember sw1 swp16
Schritt 3: Konfiguration überprüfen
-
Automatische Wiederherstellung der Cluster-LIFs aktivieren:
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true -
Auf Switch sw2 müssen alle Cluster-Ports heruntergefahren und neu gestartet werden, um eine automatische Rücksetzung aller Cluster-LIFs auszulösen, die sich nicht an ihren Home-Ports befinden.
cumulus@sw2:mgmt:~$ net add interface swp1-14 link down cumulus@sw2:mgmt:~$ net pending cumulus@sw2:mgmt:~$ net commit (Wait for 5-10 seconds before re-enabling the ports) cumulus@sw2:mgmt:~$ net add interface swp1-14 link up cumulus@sw2:mgmt:~$ net pending cumulus@sw2:mgmt:~$ net commit (After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state down cumulus@sw2:mgmt:~$ nv config apply cumulus@sw2:mgmt:~$ nv show interface (Wait for 5-10 seconds before re-enabling the ports) cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state up cumulus@sw2:mgmt:~$ nv config apply cumulus@sw2:mgmt:~$ nv show interface (After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
-
Überprüfen Sie, ob die Cluster-LIFs wieder auf ihre ursprünglichen Ports zurückgekehrt sind (dies kann eine Minute dauern):
network interface show -vserver ClusterFalls eine der Cluster-LIFs nicht auf ihren Heimatport zurückgesetzt wurde, setzen Sie sie manuell zurück. Sie müssen eine Verbindung zur jeweiligen Node-Management-LIF- oder SP/ BMC -Systemkonsole des lokalen Knotens herstellen, dem die LIF gehört:
network interface revert -vserver Cluster -lif * -
Ändern Sie die Berechtigungsstufe wieder auf Administrator:
set -privilege admin -
Wenn Sie die automatische Fallerstellung unterdrückt haben, können Sie sie durch Aufruf einer AutoSupport Nachricht wieder aktivieren:
system node autosupport invoke -node * -type all -message MAINT=END
Nach der Migration Ihrer Switches können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die