Migrieren Sie von NetApp CN1610-Cluster-Switches zu Cisco 9336C-FX2- und 9336C-FX2-T-Cluster-Switches
Sie können NetApp CN1610-Cluster-Switches für einen ONTAP Cluster auf Cisco 9336C-FX2- und 9336C-FX2-T-Cluster-Switches migrieren. Dies ist ein unterbrechungsfreies Verfahren.
Überprüfungsanforderungen
Sie müssen bestimmte Konfigurationsinformationen, Portverbindungen und Verkabelungsanforderungen beachten, wenn Sie NetApp CN1610-Cluster-Switches durch Cisco 9336C-FX2- und 9336C-FX2-T-Cluster-Switches ersetzen. Sie müssen auch die Seriennummer des Switches überprüfen, um sicherzustellen, dass der richtige Switch migriert wird.
Folgende Cluster-Switches werden unterstützt:
-
NetApp CN1610
-
Cisco 9336C-FX2
-
Cisco 9336C-FX2-T
Einzelheiten zu den unterstützten Ports und deren Konfigurationen finden Sie unter "Hardware Universe" Die Sehen "Welche zusätzlichen Informationen benötige ich für die Installation meiner Geräte, die nicht in HWU enthalten sind?" Weitere Informationen zu den Installationsanforderungen des Schalters finden Sie hier.
Vergewissern Sie sich, dass Ihre Konfiguration die folgenden Anforderungen erfüllt:
-
Der bestehende Cluster ist korrekt eingerichtet und funktioniert.
-
Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.
-
Die Cluster-Switches Cisco 9336C-FX2 und 9336C-FX2-T sind konfiguriert und werden unter der richtigen Version von NX-OS mit angewendeter Referenzkonfigurationsdatei (RCF) betrieben.
-
Die bestehende Cluster-Netzwerkkonfiguration weist folgende Merkmale auf:
-
Ein redundanter und voll funktionsfähiger NetApp Cluster mit NetApp CN1610-Switches.
-
Management-Konnektivität und Konsolenzugriff sowohl auf die NetApp CN1610 Switches als auch auf die neuen Switches.
-
Alle Cluster-LIFs befinden sich im aktiven Zustand und sind an ihren Heimatports angeschlossen.
-
-
Einige der Ports sind auf den Cisco 9336C-FX2- und 9336C-FX2-T-Switches für den Betrieb mit 40 GbE oder 100 GbE konfiguriert.
-
Sie haben 40GbE- und 100GbE-Konnektivität von Knoten zu Cisco 9336C-FX2- und 9336C-FX2-T-Cluster-Switches geplant, migriert und dokumentiert.
Migrieren Sie die Schalter
Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:
-
Die vorhandenen CN1610 Cluster-Switches sind C1 und C2.
-
Die neuen Cluster-Switches vom Typ 9336C-FX2 sind cs1 und cs2.
-
Die Knoten heißen node1 und node2.
-
Die Cluster-LIFs sind node1_clus1 und node1_clus2 auf Knoten 1 bzw. node2_clus1 und node2_clus2 auf Knoten 2.
-
Der
cluster1::*>Die Eingabeaufforderung zeigt den Namen des Clusters an. -
Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.
Dieses Verfahren umfasst folgendes Szenario:
-
Der Schalter C2 wird zuerst durch den Schalter CS2 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Alle Cluster-LIFs wechseln zum neuen Switch cs2.
-
-
Die Verkabelung zwischen den Knoten und C2 wird dann von C2 getrennt und wieder mit cs2 verbunden.
-
-
Der Schalter C1 wird durch den Schalter CS1 ersetzt.
-
Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.
-
Alle Cluster-LIFs werden auf den neuen Switch cs1 umgeschaltet.
-
-
Die Verkabelung zwischen den Knoten und C1 wird dann von C1 getrennt und wieder mit cs1 verbunden.
-
|
|
Während dieses Vorgangs ist kein betriebsbereiter Inter-Switch-Link (ISL) erforderlich. Dies ist beabsichtigt, da RCF-Versionsänderungen die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, wird während der Ausführung der Schritte auf dem Ziel-Switch ein Failover aller Cluster-LIFs auf den operativen Partner-Switch durchgeführt. |
Schritt 1: Vorbereitung auf die Migration
-
Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:
system node autosupport invoke -node * -type all -message MAINT=xhwobei x die Dauer des Wartungsfensters in Stunden ist.
-
Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:
set -privilege advancedDie erweiterte Eingabeaufforderung (*>) wird angezeigt.
-
Automatische Wiederherstellung der Cluster-LIFs deaktivieren.
Durch Deaktivierung der automatischen Rückstellung für diesen Vorgang werden die Cluster-LIFs nicht automatisch zu ihrem Heimatport zurückbewegt. Sie bleiben im derzeitigen Hafen, solange dieser in Betrieb ist.
network interface modify -vserver Cluster -lif * -auto-revert false
Schritt 2: Anschlüsse und Verkabelung konfigurieren
-
Ermitteln Sie den administrativen oder operativen Status jeder Clusterschnittstelle.
Jeder Port sollte angezeigt werden für
LinkUndhealthyfürHealth StatusDie-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Informationen zu den LIFs und ihren jeweiligen Heimatknoten anzeigen:
network interface show -vserver ClusterJedes LIF sollte anzeigen
up/upfürStatus Admin/OperUndtruefürIs HomeDie
Beispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------- ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.209.69/16 node1 e3a true node1_clus2 up/up 169.254.49.125/16 node1 e3b true node2_clus1 up/up 169.254.47.194/16 node2 e3a true node2_clus2 up/up 169.254.19.183/16 node2 e3b true -
-
Die Cluster-Ports auf jedem Knoten werden (aus Sicht der Knoten) folgendermaßen mit vorhandenen Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /cdp e3a C1 (6a:ad:4f:98:3b:3f) 0/1 - e3b C2 (6a:ad:4f:98:4c:a4) 0/1 - node2 /cdp e3a C1 (6a:ad:4f:98:3b:3f) 0/2 - e3b C2 (6a:ad:4f:98:4c:a4) 0/2 - -
Die Cluster-Ports und Switches werden (aus Sicht der Switches) mit folgendem Befehl verbunden:
show cdp neighborsBeispiel anzeigen
C1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3a node2 Eth1/2 124 H AFF-A400 e3a C2 0/13 179 S I s CN1610 0/13 C2 0/14 175 S I s CN1610 0/14 C2 0/15 179 S I s CN1610 0/15 C2 0/16 175 S I s CN1610 0/16 C2# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 124 H AFF-A400 e3b node2 Eth1/2 124 H AFF-A400 e3b C1 0/13 175 S I s CN1610 0/13 C1 0/14 175 S I s CN1610 0/14 C1 0/15 175 S I s CN1610 0/15 C1 0/16 175 S I s CN1610 0/16 -
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ---------------- ---------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2-clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e3a
Cluster node1_clus2 169.254.49.125 node1 e3b
Cluster node2_clus1 169.254.47.194 node2 e3a
Cluster node2_clus2 169.254.19.183 node2 e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
-
Schalten Sie auf Switch C2 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
Versuchen Sie nicht, die Cluster-LIFs manuell zu migrieren. (C2)# configure (C2)(Config)# interface 0/1-0/12 (C2)(Interface 0/1-0/12)# shutdown (C2)(Interface 0/1-0/12)# exit (C2)(Config)# exit
-
Verschieben Sie die Knotencluster-Ports vom alten Switch C2 zum neuen Switch cs2. Verwenden Sie dazu die entsprechende Verkabelung, die von Cisco 9336C-FX2 und 9336C-FX2-T unterstützt wird.
-
Netzwerkportattribute anzeigen:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ---------------- node1 /cdp e3a C1 (6a:ad:4f:98:3b:3f) 0/1 CN1610 e3b cs2 (b8:ce:f6:19:1a:7e) Ethernet1/1/1 N9K-C9336C-FX2 node2 /cdp e3a C1 (6a:ad:4f:98:3b:3f) 0/2 CN1610 e3b cs2 (b8:ce:f6:19:1b:96) Ethernet1/1/2 N9K-C9336C-FX2 -
Überprüfen Sie auf Switch cs2, ob alle Ports des Knotenclusters aktiv sind:
network interface show -vserver ClusterBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interfac Admin/Oper Address/Mask Node Port Home ----------- ------------ ---------- ------------------ ----------- ------- ---- Cluster node1_clus1 up/up 169.254.3.4/16 node1 e0b false node1_clus2 up/up 169.254.3.5/16 node1 e0b true node2_clus1 up/up 169.254.3.8/16 node2 e0b false node2_clus2 up/up 169.254.3.9/16 node2 e0b true -
Schalten Sie auf Switch C1 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.
(C1)# configure (C1)(Config)# interface 0/1-0/12 (C1)(Interface 0/1-0/12)# shutdown (C1)(Interface 0/1-0/12)# exit (C1)(Config)# exit
-
Verschieben Sie die Knotencluster-Ports vom alten Switch C1 zum neuen Switch cs1. Verwenden Sie dazu die entsprechende Verkabelung, die von Cisco 9336C-FX2 und 9336C-FX2-T unterstützt wird.
-
Überprüfen Sie die endgültige Konfiguration des Clusters:
network port show -ipspace ClusterJeder Port sollte Folgendes anzeigen
upfürLinkUndhealthyfürHealth StatusDieBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ---------- ---------------- ---- ----- ------------ -------- ------ e3a Cluster Cluster up 9000 auto/100000 healthy false e3b Cluster Cluster up 9000 auto/100000 healthy false -
Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:
network device-discovery show -protocolBeispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- ---------------- node1 /cdp e3a cs1 (b8:ce:f6:19:1a:7e) Ethernet1/1/1 N9K-C9336C-FX2 e3b cs2 (b8:ce:f6:19:1b:96) Ethernet1/1/2 N9K-C9336C-FX2 node2 /cdp e3a cs1 (b8:ce:f6:19:1a:7e) Ethernet1/1/1 N9K-C9336C-FX2 e3b cs2 (b8:ce:f6:19:1b:96) Ethernet1/1/2 N9K-C9336C-FX2 -
Überprüfen Sie an den Switches cs1 und cs2, ob alle Knotencluster-Ports aktiv sind:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: node1 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: node2 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false -
Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:
network device-discovery show -protocolBeispiel anzeigen
Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- -------------- -------------- node1 /cdp e0a cs1 (b8:ce:f6:19:1b:42) Ethernet1/1/1 N9K-C9336C-FX2 e0b cs2 (b8:ce:f6:19:1b:96) Ethernet1/1/2 N9K-C9336C-FX2 node2 /cdp e0a cs1 (b8:ce:f6:19:1b:42) Ethernet1/1/1 N9K-C9336C-FX2 e0b cs2 (b8:ce:f6:19:1b:96) Ethernet1/1/2 N9K-C9336C-FX2
Schritt 3: Konfiguration überprüfen
-
Automatische Wiederherstellung der Cluster-LIFs aktivieren:
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true -
Auf Switch cs2 müssen alle Cluster-Ports heruntergefahren und neu gestartet werden, um eine automatische Rücksetzung aller Cluster-LIFs auszulösen, die sich nicht an ihren Home-Ports befinden.
cs2> enable cs2# configure cs2(config)# interface eth1/1-1/2 cs2(config-if-range)# shutdown (Wait for 5-10 seconds before re-enabling the ports) cs2(config-if-range)# no shutdown (After executing the no shutdown command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports) cs2(config-if-range)# exit cs2(config)# exit cs2#
-
Überprüfen Sie, ob die Cluster-LIFs wieder auf ihre ursprünglichen Ports zurückgesetzt wurden (dies kann eine Minute dauern):
network interface show -vserver ClusterFalls eine der Cluster-LIFs nicht auf ihren Heimatport zurückgesetzt wurde, setzen Sie sie manuell zurück. Sie müssen eine Verbindung zur jeweiligen Node-Management-LIF- oder SP/ BMC -Systemkonsole des lokalen Knotens herstellen, dem die LIF gehört:
network interface revert -vserver Cluster -lif * -
Überprüfen Sie, ob der Cluster fehlerfrei funktioniert:
cluster show -
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
|
|
Warten Sie einige Sekunden, bevor Sie den Befehl ausführen. show Befehl zum Anzeigen der Details.
|
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- --------------- ----------------- -----------
node1
3/5/2022 19:21:18 -06:00 node1_clus2 node2_clus1 none
3/5/2022 19:21:20 -06:00 node1_clus2 node2_clus2 none
node2
3/5/2022 19:21:18 -06:00 node2_clus2 node1_clus1 none
3/5/2022 19:21:20 -06:00 node2_clus2 node1_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node node2
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e0a
Cluster node1_clus2 169.254.49.125 node1 e0b
Cluster node2_clus1 169.254.47.194 node2 e0a
Cluster node2_clus2 169.254.19.183 node2 e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
Nach der Migration Ihrer Switches können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die