Migration von einem Cisco Cluster-Switch zu einem NVIDIA SN2100 Cluster-Switch
Sie können Cisco -Cluster-Switches für einen ONTAP Cluster auf NVIDIA SN2100-Cluster-Switches migrieren. Dies ist ein unterbrechungsfreies Verfahren.
Überprüfungsanforderungen
Beim Austausch älterer Cisco-Cluster-Switches durch NVIDIA SN2100-Cluster-Switches müssen Sie bestimmte Konfigurationsinformationen, Portverbindungen und Verkabelungsanforderungen beachten. Siehe "Übersicht über Installation und Konfiguration von NVIDIA SN2100-Switches".
Folgende Cisco Cluster-Switches werden unterstützt:
-
Nexus 9336C-FX2
-
Nexus 92300YC
-
Nexus 5596UP
-
Nexus 3232C
-
Nexus 3132Q-V
Einzelheiten zu den unterstützten Ports und deren Konfigurationen finden Sie in der "Hardware Universe".
Stellen Sie sicher, dass:
-
Der bestehende Cluster ist ordnungsgemäß eingerichtet und funktioniert.
-
Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.
-
Die NVIDIA SN2100 Cluster-Switches sind konfiguriert und arbeiten unter der richtigen Version von Cumulus Linux, auf der die Referenzkonfigurationsdatei (RCF) angewendet wurde.
-
Die bestehende Cluster-Netzwerkkonfiguration weist folgende Merkmale auf:
-
Ein redundanter und voll funktionsfähiger NetApp Cluster, der beide ältere Cisco Switches nutzt.
-
Management-Konnektivität und Konsolenzugriff sowohl auf die älteren Cisco Switches als auch auf die neuen Switches.
-
Alle Cluster-LIFs befinden sich im aktiven Zustand und sind an ihren Heimatports angeschlossen.
-
ISL-Ports wurden aktiviert und zwischen den älteren Cisco Switches sowie zwischen den neuen Switches verkabelt.
-
-
Einige der Ports sind auf NVIDIA SN2100 Switches für den Betrieb mit 40 GbE oder 100 GbE konfiguriert.
-
Sie haben die 40-GbE- und 100-GbE-Konnektivität von den Knoten zu den NVIDIA SN2100 Cluster-Switches geplant, migriert und dokumentiert.
|
|
Wenn Sie die Portgeschwindigkeit der Cluster-Ports e0a und e1a auf AFF A800 oder AFF C800 Systemen ändern, kann es nach der Geschwindigkeitsumstellung zu fehlerhaften Paketen kommen. Siehe "Bug 1570339" und den Knowledge Base Artikel "CRC-Fehler an T6-Ports nach der Umstellung von 40GbE auf 100GbE" für Anleitungen. |
Migrieren Sie die Schalter
In diesem Verfahren werden Cisco Nexus 3232C Cluster-Switches als Beispiel für Befehle und Ausgaben verwendet.
Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:
-
Die vorhandenen Cisco Nexus 3232C Cluster-Switches sind c1 und c2.
-
Die neuen NVIDIA SN2100 Cluster-Switches sind sw1 und sw2.
-
Die Knoten heißen node1 und node2.
-
Die Cluster-LIFs sind node1_clus1 und node1_clus2 auf Knoten 1 bzw. node2_clus1 und node2_clus2 auf Knoten 2.
-
Der
cluster1::*>Die Eingabeaufforderung zeigt den Namen des Clusters an. -
Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.
-
Breakout-Ports haben folgendes Format: swp[Port]s[Breakout-Port 0-3]. Beispielsweise gibt es vier Breakout-Ports auf swp1: swp1s0, swp1s1, swp1s2 und swp1s3.
Dieses Verfahren umfasst folgendes Szenario:
-
Der Schalter c2 wird zuerst durch den Schalter sw2 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.
-
-
Der Schalter c1 wird durch den Schalter sw1 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.
-
Schritt 1: Vorbereitung auf die Migration
-
Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:
system node autosupport invoke -node * -type all -message MAINT=xhwobei x die Dauer des Wartungsfensters in Stunden ist.
-
Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:
set -privilege advancedDie erweiterte Eingabeaufforderung (*>) wird angezeigt.
-
Automatische Wiederherstellung der Cluster-LIFs deaktivieren:
network interface modify -vserver Cluster -lif * -auto-revert false
Schritt 2: Anschlüsse und Verkabelung konfigurieren
-
Ermitteln Sie den administrativen oder operativen Status jeder Clusterschnittstelle.
Jeder Port sollte angezeigt werden für
Linkund gesund fürHealth StatusDie-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Informationen über die logischen Schnittstellen und ihre jeweiligen Heimatknoten anzeigen:
network interface show -vserver ClusterJedes LIF sollte anzeigen
up/upfürStatus Admin/Operund wahr fürIs HomeDie
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------- ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true -
-
Die Cluster-Ports an jedem Knoten sind folgendermaßen mit den vorhandenen Cluster-Switches verbunden (aus Sicht der Knoten):
network device-discovery show -protocol lldpBeispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/1 - e3b c2 (6a:ad:4f:98:4c:a4) Eth1/1 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/2 - e3b c2 (6a:ad:4f:98:4c:a4) Eth1/2 - -
Die Cluster-Ports und Switches sind folgendermaßen verbunden (aus Sicht der Switches):
show cdp neighborsBeispiel anzeigen
c1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3a node2 Eth1/2 124 H AFF-A400 e3a c2 Eth1/31 179 S I s N3K-C3232C Eth1/31 c2 Eth1/32 175 S I s N3K-C3232C Eth1/32 c2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3b node2 Eth1/2 124 H AFF-A400 e3b c1 Eth1/31 175 S I s N3K-C3232C Eth1/31 c1 Eth1/32 175 S I s N3K-C3232C Eth1/32 -
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e3a
Cluster node1_clus2 169.254.49.125 node1 e3b
Cluster node2_clus1 169.254.47.194 node2 e3a
Cluster node2_clus2 169.254.19.183 node2 e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
-
Schalten Sie auf Switch c2 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
(c2)# configure Enter configuration commands, one per line. End with CNTL/Z. (c2)(Config)# interface (c2)(config-if-range)# shutdown <interface_list> (c2)(config-if-range)# exit (c2)(Config)# exit (c2)#
-
Verschieben Sie die Knotencluster-Ports vom alten Switch c2 auf den neuen Switch sw2 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.
-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/1 - e3b sw2 (b8:ce:f6:19:1a:7e) swp3 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) Eth1/2 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 - -
Überprüfen Sie an Switch sw2, ob alle Ports des Knotenclusters aktiv sind:
net show interfaceBeispiel anzeigen
cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Schalten Sie auf Switch c1 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
(c1)# configure Enter configuration commands, one per line. End with CNTL/Z. (c1)(Config)# interface (c1)(config-if-range)# shutdown <interface_list> (c1)(config-if-range)# exit (c1)(Config)# exit (c1)#
-
Verschieben Sie die Knotencluster-Ports vom alten Switch c1 auf den neuen Switch sw1 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.
-
Überprüfen Sie die endgültige Konfiguration des Clusters:
network port show -ipspace ClusterJeder Port sollte Folgendes anzeigen
upfürLinkund gesund fürHealth StatusDieBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- ---------------- node1 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp3 - e3b sw2 (b8:ce:f6:19:1b:96) swp3 - node2 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp4 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 - -
Überprüfen Sie an den Switches sw1 und sw2, ob alle Ports des Knotenclusters aktiv sind:
net show interfaceBeispiel anzeigen
cumulus@sw1:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp15 100G 9216 BondMember sw2 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw2 (swp16) Master: cluster_isl(UP) cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ----------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:
net show lldpBeispiel anzeigen
Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:
cumulus@sw1:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3a swp4 100G Trunk/L2 node2 e3a swp15 100G BondMember sw2 swp15 swp16 100G BondMember sw2 swp16 cumulus@sw2:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3b swp4 100G Trunk/L2 node2 e3b swp15 100G BondMember sw1 swp15 swp16 100G BondMember sw1 swp16
Schritt 3: Konfiguration überprüfen
-
Automatische Wiederherstellung der Cluster-LIFs aktivieren:
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true -
Auf Switch sw2 müssen alle Cluster-Ports heruntergefahren und neu gestartet werden, um eine automatische Rücksetzung aller Cluster-LIFs auszulösen, die sich nicht an ihren Home-Ports befinden.
cumulus@sw2:mgmt:~$ net add interface swp1-14 link down cumulus@sw2:mgmt:~$ net pending cumulus@sw2:mgmt:~$ net commit (Wait for 5-10 seconds before re-enabling the ports) cumulus@sw2:mgmt:~$ net add interface swp1-14 link up cumulus@sw2:mgmt:~$ net pending cumulus@sw2:mgmt:~$ net commit (After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state down cumulus@sw2:mgmt:~$ nv config apply cumulus@sw2:mgmt:~$ nv show interface (Wait for 5-10 seconds before re-enabling the ports) cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state up cumulus@sw2:mgmt:~$ nv config apply cumulus@sw2:mgmt:~$ nv show interface (After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
-
Überprüfen Sie, ob die Cluster-LIFs wieder auf ihre ursprünglichen Ports zurückgekehrt sind (dies kann eine Minute dauern):
network interface show -vserver ClusterFalls eine der Cluster-LIFs nicht auf ihren Heimatport zurückgesetzt wurde, setzen Sie sie manuell zurück. Sie müssen eine Verbindung zur jeweiligen Node-Management-LIF- oder SP/ BMC -Systemkonsole des lokalen Knotens herstellen, dem die LIF gehört:
network interface revert -vserver Cluster -lif * -
Ändern Sie die Berechtigungsstufe wieder auf Administrator:
set -privilege admin -
Wenn Sie die automatische Fallerstellung unterdrückt haben, können Sie sie durch Aufruf einer AutoSupport Nachricht wieder aktivieren:
system node autosupport invoke -node * -type all -message MAINT=END
Nach der Migration Ihrer Switches können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die