Migrieren Sie CN1610-Cluster-Switches zu NVIDIA SN2100-Cluster-Switches
Sie können NetApp CN1610 Cluster Switches für ein ONTAP Cluster zu NVIDIA SN2100 Cluster Switches migrieren. Hierbei handelt es sich um ein unterbrechungsfreies Verfahren.
Prüfen Sie die Anforderungen
Wenn Sie NetApp CN1610-Cluster-Switches durch NVIDIA SN2100-Cluster-Switches ersetzen, müssen Sie sich über bestimmte Konfigurationsdaten, Port-Verbindungen und Verkabelungsanforderungen im Klaren sein. Siehe "Überblick über Installation und Konfiguration von NVIDIA SN2100-Switches".
Folgende Cluster-Switches werden unterstützt:
-
NetApp CN1610
-
NVIDIA SN2100
Weitere Informationen zu unterstützten Ports und deren Konfigurationen finden Sie im "Hardware Universe".
Stellen Sie sicher, dass Sie die folgenden Anforderungen für die Konfiguration erfüllen:
-
Der vorhandene Cluster ist ordnungsgemäß eingerichtet und funktioniert.
-
Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.
-
Die NVIDIA SN2100-Cluster-Switches werden unter der richtigen Version von Cumulus Linux konfiguriert und betrieben, die mit der angewendeten Referenzkonfigurationsdatei (RCF) installiert ist.
-
Die vorhandene Cluster-Netzwerkkonfiguration verfügt über folgende Merkmale:
-
Ein redundantes und voll funktionsfähiges NetApp Cluster mit CN1610-Switches.
-
Managementkonnektivität und Konsolenzugriff auf die CN1610-Switches und die neuen Switches.
-
Alle Cluster-LIFs befinden sich im Zustand „up“, wobei die Cluster-LIFs an ihren Home-Ports vorhanden sind.
-
ISL-Ports aktiviert und zwischen den CN1610-Switches und zwischen den neuen Switches verkabelt.
-
-
Einige Ports sind auf NVIDIA SN2100-Switches konfiguriert, um mit 40 GbE oder 100 GbE zu laufen.
-
Die 40-GbE- und 100-GbE-Konnektivität von Nodes zu NVIDIA SN2100-Cluster-Switches wurde geplant, migriert und dokumentiert.
Migrieren Sie die Switches
Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:
-
Die vorhandenen CN1610 Cluster Switches sind c1 und c2.
-
Die neuen NVIDIA SN2100-Cluster-Switches sind sw1 und sw2.
-
Die Knoten sind node1 und node2.
-
Die Cluster-LIFs sind auf Node 1_clus1_ und node1_clus2 und node2_clus1 bzw. node2_clus2 auf Knoten 2.
-
Der
cluster1::*>
Eine Eingabeaufforderung gibt den Namen des Clusters an. -
Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.
-
Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.
Dieses Verfahren umfasst das folgende Szenario:
-
Schalter c2 wird zuerst durch Schalter sw2 ersetzt.
-
Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.
-
Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.
-
-
Schalter c1 wird durch Schalter sw1 ersetzt.
-
Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.
-
Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.
-
Bei diesem Verfahren ist keine betriebsbereite ISL (Inter Switch Link) erforderlich. Dies ist von Grund auf so, dass Änderungen der RCF-Version die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, werden mit dem folgenden Verfahren alle Cluster-LIFs auf den betriebsbereiten Partner-Switch migriert, während die Schritte auf dem Ziel-Switch ausgeführt werden. |
Schritt: Bereiten Sie sich auf die Migration vor
-
Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:
system node autosupport invoke -node * -type all -message MAINT=xh
Wobei x die Dauer des Wartungsfensters in Stunden ist.
-
Ändern Sie die Berechtigungsebene in Erweitert, und geben Sie y ein, wenn Sie dazu aufgefordert werden, fortzufahren:
set -privilege advanced
Die erweiterte Eingabeaufforderung (*>) wird angezeigt.
-
Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:
network interface modify -vserver Cluster -lif * -auto-revert false
Schritt: Ports und Verkabelung konfigurieren
-
Legen Sie den Administrations- oder Betriebsstatus der einzelnen Cluster-Schnittstellen fest.
Jeder Port sollte für angezeigt werden
Link
Undhealthy
FürHealth Status
.-
Zeigen Sie die Attribute des Netzwerkports an:
network port show -ipspace Cluster
Beispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Zeigt Informationen zu den LIFs und ihren zugewiesenen Home-Nodes an:
network interface show -vserver Cluster
Jede LIF sollte angezeigt werden
up/up
FürStatus Admin/Oper
Undtrue
FürIs Home
.
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------- ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
-
Die Cluster-Ports auf jedem Node sind mit vorhandenen Cluster-Switches auf die folgende Weise (aus Sicht der Nodes) verbunden. Verwenden Sie dazu den Befehl:
network device-discovery show -protocol
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /cdp e3a c1 (6a:ad:4f:98:3b:3f) 0/1 - e3b c2 (6a:ad:4f:98:4c:a4) 0/1 - node2 /cdp e3a c1 (6a:ad:4f:98:3b:3f) 0/2 - e3b c2 (6a:ad:4f:98:4c:a4) 0/2 -
-
Die Cluster-Ports und -Switches sind (aus Sicht der Switches) folgendermaßen verbunden:
show cdp neighbors
Beispiel anzeigen
c1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 0/1 124 H AFF-A400 e3a node2 0/2 124 H AFF-A400 e3a c2 0/13 179 S I s CN1610 0/13 c2 0/14 175 S I s CN1610 0/14 c2 0/15 179 S I s CN1610 0/15 c2 0/16 175 S I s CN1610 0/16 c2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 0/1 124 H AFF-A400 e3b node2 0/2 124 H AFF-A400 e3b c1 0/13 175 S I s CN1610 0/13 c1 0/14 175 S I s CN1610 0/14 c1 0/15 175 S I s CN1610 0/15 c1 0/16 175 S I s CN1610 0/16
-
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können das verwenden network interface check cluster-connectivity
Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:
network interface check cluster-connectivity start
Und network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show
, um die Details anzuzeigen.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- ---------------- ---------------- ----------- node1 3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none 3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none node2 3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none 3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name>
Befehl zum Überprüfen der Konnektivität:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is node2 Getting addresses from network interface table... Cluster node1_clus1 169.254.209.69 node1 e3a Cluster node1_clus2 169.254.49.125 node1 e3b Cluster node2_clus1 169.254.47.194 node2 e3a Cluster node2_clus2 169.254.19.183 node2 e3b Local = 169.254.47.194 169.254.19.183 Remote = 169.254.209.69 169.254.49.125 Cluster Vserver Id = 4294967293 Ping status: .... Basic connectivity succeeds on 4 path(s) Basic connectivity fails on 0 path(s) ................ Detected 9000 byte MTU on 4 path(s): Local 169.254.19.183 to Remote 169.254.209.69 Local 169.254.19.183 to Remote 169.254.49.125 Local 169.254.47.194 to Remote 169.254.209.69 Local 169.254.47.194 to Remote 169.254.49.125 Larger than PMTU communication succeeds on 4 path(s) RPC status: 2 paths up, 0 paths down (tcp check) 2 paths up, 0 paths down (udp check)
-
bei Switch c2 fahren Sie die mit den Cluster-Ports der Knoten verbundenen Ports herunter, um ein Failover der Cluster-LIFs durchzuführen.
(c2)# configure (c2)(Config)# interface 0/1-0/12 (c2)(Interface 0/1-0/12)# shutdown (c2)(Interface 0/1-0/12)# exit (c2)(Config)# exit (c2)#
-
Verschieben Sie die Node-Cluster-Ports vom alten Switch c2 auf den neuen Switch sw2, indem Sie die entsprechende Verkabelung verwenden, die von NVIDIA SN2100 unterstützt wird.
-
Zeigen Sie die Attribute des Netzwerkports an:
network port show -ipspace Cluster
Beispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:
network device-discovery show -protocol
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /lldp e3a c1 (6a:ad:4f:98:3b:3f) 0/1 - e3b sw2 (b8:ce:f6:19:1a:7e) swp3 - node2 /lldp e3a c1 (6a:ad:4f:98:3b:3f) 0/2 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 -
-
Vergewissern Sie sich beim Switch sw2, dass alle Knoten-Cluster-Ports aktiv sind:
net show interface
Beispiel anzeigen
cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Fahren Sie auf Switch c1 die Ports herunter, die mit den Cluster-Ports der Nodes verbunden sind, um ein Failover der Cluster LIFs zu ermöglichen.
(c1)# configure (c1)(Config)# interface 0/1-0/12 (c1)(Interface 0/1-0/12)# shutdown (c1)(Interface 0/1-0/12)# exit (c1)(Config)# exit (c1)#
-
Verschieben Sie die Knoten-Cluster-Ports vom alten Switch c1 auf den neuen Switch sw1, mit der entsprechenden Verkabelung unterstützt von NVIDIA SN2100.
-
Überprüfen der endgültigen Konfiguration des Clusters:
network port show -ipspace Cluster
Jeder Port sollte angezeigt werden
up
FürLink
Undhealthy
FürHealth Status
.Beispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false
-
Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:
network device-discovery show -protocol
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol lldp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- ---------------- node1 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp3 - e3b sw2 (b8:ce:f6:19:1b:96) swp3 - node2 /lldp e3a sw1 (b8:ce:f6:19:1a:7e) swp4 - e3b sw2 (b8:ce:f6:19:1b:96) swp4 -
-
Vergewissern Sie sich bei den Switches sw1 und sw2, dass alle Knoten-Cluster-Ports aktiv sind:
net show interface
Beispiel anzeigen
cumulus@sw1:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ---------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3a Master: bridge(UP) UP swp15 100G 9216 BondMember sw2 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw2 (swp16) Master: cluster_isl(UP) cumulus@sw2:~$ net show interface State Name Spd MTU Mode LLDP Summary ----- ----------- ---- ----- ---------- ----------------- ----------------------- ... ... UP swp3 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp4 100G 9216 Trunk/L2 e3b Master: bridge(UP) UP swp15 100G 9216 BondMember sw1 (swp15) Master: cluster_isl(UP) UP swp16 100G 9216 BondMember sw1 (swp16) Master: cluster_isl(UP)
-
Vergewissern Sie sich, dass beide Knoten jeweils eine Verbindung zu jedem Switch haben:
net show lldp
Beispiel anzeigen
Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Switches:
cumulus@sw1:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3a swp4 100G Trunk/L2 node2 e3a swp15 100G BondMember sw2 swp15 swp16 100G BondMember sw2 swp16 cumulus@sw2:~$ net show lldp LocalPort Speed Mode RemoteHost RemotePort --------- ----- ---------- ------------------ ----------- swp3 100G Trunk/L2 node1 e3b swp4 100G Trunk/L2 node2 e3b swp15 100G BondMember sw1 swp15 swp16 100G BondMember sw1 swp16
Schritt 3: Überprüfen Sie die Konfiguration
-
Aktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true
-
Vergewissern Sie sich, dass alle Cluster-Netzwerk-LIFs wieder an ihren Home-Ports sind:
network interface show
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ---------- ---------- ------------------ ------------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true
-
Ändern Sie die Berechtigungsebene zurück in den Administrator:
set -privilege admin
-
Wenn Sie die automatische Case-Erstellung unterdrückt haben, aktivieren Sie es erneut, indem Sie eine AutoSupport Meldung aufrufen:
system node autosupport invoke -node * -type all -message MAINT=END
"Konfigurieren Sie die Überwachung des Switch-Systemzustands".