Aktualisieren Sie Ihre Referenzkonfigurationsdatei (RCF)
Sie aktualisieren Ihre RCF-Version, wenn auf Ihren Betriebsschaltern eine vorhandene Version der RCF-Datei installiert ist.
Stellen Sie sicher, dass Sie Folgendes haben:
-
Ein aktuelles Backup der Switch-Konfiguration.
-
Ein voll funktionsfähiges Cluster (keine Fehler in den Protokollen oder ähnlichen Problemen).
-
Der aktuelle RZB.
-
Wenn Sie Ihre RCF-Version aktualisieren, benötigen Sie eine Startkonfiguration im RCF, die die gewünschten Startabbilder widerspiegelt.
Wenn Sie die Startkonfiguration ändern müssen, um die aktuellen Startabbilder zu berücksichtigen, müssen Sie dies vor dem erneuten Anwenden des RCF tun, damit die korrekte Version bei zukünftigen Neustarts instanziiert wird.
Bei diesem Verfahren ist keine betriebsbereite ISL (Inter Switch Link) erforderlich. Dies ist von Grund auf so, dass Änderungen der RCF-Version die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, werden mit dem folgenden Verfahren alle Cluster-LIFs auf den betriebsbereiten Partner-Switch migriert, während die Schritte auf dem Ziel-Switch ausgeführt werden. |
Bevor Sie eine neue Switch-Softwareversion und RCFs installieren, müssen Sie die Switch-Einstellungen löschen und die Grundkonfiguration durchführen. Sie müssen über die serielle Konsole mit dem Switch verbunden sein oder grundlegende Konfigurationsinformationen beibehalten haben, bevor Sie die Switch-Einstellungen löschen. |
Schritt 1: Bereiten Sie sich auf das Upgrade vor
-
Anzeigen der Cluster-Ports an jedem Node, der mit den Cluster-Switches verbunden ist:
network device-discovery show
Beispiel anzeigen
cluster1::*> network device-discovery show Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N9K-C9336C e0d cs2 Ethernet1/7 N9K-C9336C cluster1-02/cdp e0a cs1 Ethernet1/8 N9K-C9336C e0d cs2 Ethernet1/8 N9K-C9336C cluster1-03/cdp e0a cs1 Ethernet1/1/1 N9K-C9336C e0b cs2 Ethernet1/1/1 N9K-C9336C cluster1-04/cdp e0a cs1 Ethernet1/1/2 N9K-C9336C e0b cs2 Ethernet1/1/2 N9K-C9336C cluster1::*>
-
Überprüfen Sie den Administrations- und Betriebsstatus der einzelnen Cluster-Ports.
-
Vergewissern Sie sich, dass alle Cluster-Ports up mit einem gesunden Status sind:
network port show –role cluster
Beispiel anzeigen
cluster1::*> network port show -role cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed. Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false cluster1::*>
-
Vergewissern Sie sich, dass sich alle Cluster-Schnittstellen (LIFs) im Home-Port befinden:
network interface show -role cluster
Beispiel anzeigen
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ----------------- ------------ ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true 8 entries were displayed. cluster1::*>
-
Vergewissern Sie sich, dass auf dem Cluster Informationen für beide Cluster-Switches angezeigt werden:
system cluster-switch show -is-monitoring-enabled-operational true
Beispiel anzeigen
cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- ----- cs1 cluster-network 10.233.205.90 N9K-C9336C Serial Number: FOCXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(5) Version Source: CDP cs2 cluster-network 10.233.205.91 N9K-C9336C Serial Number: FOCXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(5) Version Source: CDP cluster1::*>
-
-
Deaktivieren Sie die automatische Zurücksetzen auf den Cluster-LIFs.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
Schritt 2: Ports konfigurieren
-
Fahren Sie beim Cluster-Switch cs1 die mit den Cluster-Ports der Nodes verbundenen Ports herunter.
cs1(config)# interface eth1/1/1-2,eth1/7-8
cs1(config-if-range)# shutdown
Stellen Sie sicher, dass Sie alle verbundenen Cluster-Ports herunterfahren, um Probleme mit der Netzwerkverbindung zu vermeiden. "Kein Quorum mehr aus dem Node bei der Migration von LIF auf Cluster während des Upgrades des Switch-Betriebssystems"Weitere Informationen finden Sie im Knowledge Base-Artikel. -
Vergewissern Sie sich, dass für die Cluster-LIFs ein Failover zu den auf Cluster-Switch cs1 gehosteten Ports durchgeführt wurde. Dies kann einige Sekunden dauern.
network interface show -role cluster
Beispiel anzeigen
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------------- ---------- ------------------ ------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0a false cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0a false cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0a false cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0a false 8 entries were displayed. cluster1::*>
-
Vergewissern Sie sich, dass das Cluster sich in einem ordnungsgemäßen Zustand befindet:
cluster show
Beispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Wenn Sie dies noch nicht getan haben, speichern Sie eine Kopie der aktuellen Switch-Konfiguration, indem Sie die Ausgabe des folgenden Befehls in eine Textdatei kopieren:
show running-config
-
Notieren Sie alle benutzerdefinierten Ergänzungen zwischen der aktuellen Running-config und der verwendeten RCF-Datei (z. B. eine SNMP-Konfiguration für Ihr Unternehmen).
-
Verwenden Sie für NX-OS 10.2 und neuer die
show diff running-config
Befehl zum Vergleich mit der gespeicherten RCF-Datei im Bootflash. Verwenden Sie andernfalls ein Werkzeug zum Vergleichen/Vergleichen des dritten Teils.
-
-
Speichern Sie die grundlegenden Konfigurationsdetails in der Datei write_erase.cfg auf dem Bootflash.
switch# show run | i "username admin password" > bootflash:write_erase.cfg
switch# show run | section "vrf context management" >> bootflash:write_erase.cfg
switch# show run | section "interface mgmt0" >> bootflash:write_erase.cfg
switch# show run | section "switchname" >> bootflash:write_erase.cfg
-
Führen Sie den Befehl zum Löschen des Schreibvorgangs aus, um die aktuell gespeicherte Konfiguration zu löschen:
switch# write erase
Warning: This command will erase the startup-configuration.
Do you wish to proceed anyway? (y/n) [n] y
-
Kopieren Sie die zuvor gespeicherte Grundkonfiguration in die Startkonfiguration.
switch# copy write_erase.cfg startup-config
-
Führen Sie einen Neustart des Switches aus:
switch# reload
This command will reboot the system. (y/n)? [n] y
-
Nachdem die Management-IP-Adresse wieder erreichbar ist, melden Sie sich über SSH beim Switch an.
Möglicherweise müssen Sie die Einträge der Host-Datei im Zusammenhang mit den SSH-Schlüsseln aktualisieren.
-
Kopieren Sie den RCF mit einem der folgenden Übertragungsprotokolle auf den Bootflash von Switch cs1: FTP, TFTP, SFTP oder SCP.
Weitere Informationen zu Cisco-Befehlen finden Sie im entsprechenden Handbuch im "Cisco Nexus 9000-Serie NX-OS Command Reference" Leitfäden.
Beispiel anzeigen
Dieses Beispiel zeigt TFTP, mit dem eine RCF in den Bootflash auf Switch cs1 kopiert wird:
cs1# copy tftp: bootflash: vrf management Enter source filename: Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt Enter hostname for the tftp server: 172.22.201.50 Trying to connect to tftp server......Connection to Server Established. TFTP get operation was successful Copy complete, now saving to disk (please wait)...
-
Wenden Sie die RCF an, die zuvor auf den Bootflash heruntergeladen wurde.
Weitere Informationen zu Cisco-Befehlen finden Sie im entsprechenden Handbuch im "Cisco Nexus 9000-Serie NX-OS Command Reference" Leitfäden.
Beispiel anzeigen
Dieses Beispiel zeigt die RCF-Datei
Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt
Installation auf Switch cs1:cs1# copy Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
-
Untersuchen Sie die Bannerausgabe aus dem
show banner motd
Befehl. Sie müssen diese Anweisungen lesen und befolgen, um sicherzustellen, dass der Schalter ordnungsgemäß konfiguriert und betrieben wird.Beispiel anzeigen
cs1# show banner motd ****************************************************************************** * NetApp Reference Configuration File (RCF) * * Switch : Nexus N9K-C9336C-FX2 * Filename : Nexus_9336C_RCF_v1.6-Cluster-HA-Breakout.txt * Date : 10-23-2020 * Version : v1.6 * * Port Usage: * Ports 1- 3: Breakout mode (4x10G) Intra-Cluster Ports, int e1/1/1-4, e1/2/1-4 , e1/3/1-4 * Ports 4- 6: Breakout mode (4x25G) Intra-Cluster/HA Ports, int e1/4/1-4, e1/5/ 1-4, e1/6/1-4 * Ports 7-34: 40/100GbE Intra-Cluster/HA Ports, int e1/7-34 * Ports 35-36: Intra-Cluster ISL Ports, int e1/35-36 * * Dynamic breakout commands: * 10G: interface breakout module 1 port <range> map 10g-4x * 25G: interface breakout module 1 port <range> map 25g-4x * * Undo breakout commands and return interfaces to 40/100G configuration in confi g mode: * no interface breakout module 1 port <range> map 10g-4x * no interface breakout module 1 port <range> map 25g-4x * interface Ethernet <interfaces taken out of breakout mode> * inherit port-profile 40-100G * priority-flow-control mode auto * service-policy input HA * exit * ******************************************************************************
-
Vergewissern Sie sich, dass die RCF-Datei die richtige neuere Version ist:
show running-config
Wenn Sie die Ausgabe überprüfen, um zu überprüfen, ob Sie die richtige RCF haben, stellen Sie sicher, dass die folgenden Informationen richtig sind:
-
Das RCF-Banner
-
Die Node- und Port-Einstellungen
-
Anpassungen
Die Ausgabe variiert je nach Konfiguration Ihres Standorts. Prüfen Sie die Porteinstellungen, und lesen Sie in den Versionshinweisen alle Änderungen, die für die RCF gelten, die Sie installiert haben.
-
-
Wenden Sie alle vorherigen Anpassungen erneut auf die Switch-Konfiguration an. "Prüfen Sie die Verkabelung und Konfigurationsüberlegungen"Weitere Informationen zu erforderlichen Änderungen finden Sie unter.
-
Nachdem Sie überprüft haben, ob die RCF-Versionen, die benutzerdefinierten Ergänzungen und die Switch-Einstellungen korrekt sind, kopieren Sie die Running-config-Datei in die Startup-config-Datei.
Weitere Informationen zu Cisco-Befehlen finden Sie im entsprechenden Handbuch im "Cisco Nexus 9000-Serie NX-OS Command Reference" Leitfäden.
cs1# copy running-config startup-config
[] 100% Copy complete
-
Starten Sie den Switch cs1 neu. Sie können die Warnmeldungen „
Cluster-Switch-Systemzustandsüberwachung
“ und die Ereignisse „Cluster-Ports ausgefallen
“, die von den Nodes gemeldet werden, ignorieren, während der Switch neu gebootet wird.cs1# reload
This command will reboot the system. (y/n)? [n] y
-
Überprüfen Sie den Systemzustand der Cluster-Ports auf dem Cluster.
-
Vergewissern Sie sich, dass Cluster-Ports über alle Nodes im Cluster hinweg ordnungsgemäß hochaktiv sind:
network port show -role cluster
Beispiel anzeigen
cluster1::*> network port show -role cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed.
-
Überprüfen Sie den Switch-Zustand vom Cluster.
network device-discovery show -protocol cdp
Beispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ----------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N9K-C9336C e0d cs2 Ethernet1/7 N9K-C9336C cluster01-2/cdp e0a cs1 Ethernet1/8 N9K-C9336C e0d cs2 Ethernet1/8 N9K-C9336C cluster01-3/cdp e0a cs1 Ethernet1/1/1 N9K-C9336C e0b cs2 Ethernet1/1/1 N9K-C9336C cluster1-04/cdp e0a cs1 Ethernet1/1/2 N9K-C9336C e0b cs2 Ethernet1/1/2 N9K-C9336C cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- ----- cs1 cluster-network 10.233.205.90 NX9-C9336C Serial Number: FOCXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(5) Version Source: CDP cs2 cluster-network 10.233.205.91 NX9-C9336C Serial Number: FOCXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(5) Version Source: CDP 2 entries were displayed.
Je nach der zuvor auf dem Switch geladenen RCF-Version können Sie die folgende Ausgabe auf der cs1-Switch-Konsole beobachten:
2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.
-
-
Vergewissern Sie sich, dass das Cluster sich in einem ordnungsgemäßen Zustand befindet:
cluster show
Beispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- -------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Wiederholen Sie die Schritte 1 bis 18 am Schalter cs2.
-
Aktivieren Sie die Funktion zum automatischen Zurücksetzen auf den Cluster-LIFs.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
Schritt 3: Überprüfen Sie die Cluster-Netzwerkkonfiguration und den Zustand des Clusters
-
Stellen Sie sicher, dass die mit den Cluster-Ports verbundenen Switch-Ports up sind.
show interface brief
Beispiel anzeigen
cs1# show interface brief | grep up . . Eth1/1/1 1 eth access up none 10G(D) -- Eth1/1/2 1 eth access up none 10G(D) -- Eth1/7 1 eth trunk up none 100G(D) -- Eth1/8 1 eth trunk up none 100G(D) -- . .
-
Überprüfen Sie, ob die erwarteten Nodes weiterhin verbunden sind:
show cdp neighbors
Beispiel anzeigen
cs1# show cdp neighbors Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge S - Switch, H - Host, I - IGMP, r - Repeater, V - VoIP-Phone, D - Remotely-Managed-Device, s - Supports-STP-Dispute Device-ID Local Intrfce Hldtme Capability Platform Port ID node1 Eth1/1 133 H FAS2980 e0a node2 Eth1/2 133 H FAS2980 e0a cs1 Eth1/35 175 R S I s N9K-C9336C Eth1/35 cs1 Eth1/36 175 R S I s N9K-C9336C Eth1/36 Total entries displayed: 4
-
Überprüfen Sie mit den folgenden Befehlen, ob sich die Cluster-Nodes in den richtigen Cluster-VLANs befinden:
show vlan brief
show interface trunk
Beispiel anzeigen
cs1# show vlan brief VLAN Name Status Ports ---- -------------------------------- --------- ------------------------------- 1 default active Po1, Eth1/1, Eth1/2, Eth1/3 Eth1/4, Eth1/5, Eth1/6, Eth1/7 Eth1/8, Eth1/35, Eth1/36 Eth1/9/1, Eth1/9/2, Eth1/9/3 Eth1/9/4, Eth1/10/1, Eth1/10/2 Eth1/10/3, Eth1/10/4 17 VLAN0017 active Eth1/1, Eth1/2, Eth1/3, Eth1/4 Eth1/5, Eth1/6, Eth1/7, Eth1/8 Eth1/9/1, Eth1/9/2, Eth1/9/3 Eth1/9/4, Eth1/10/1, Eth1/10/2 Eth1/10/3, Eth1/10/4 18 VLAN0018 active Eth1/1, Eth1/2, Eth1/3, Eth1/4 Eth1/5, Eth1/6, Eth1/7, Eth1/8 Eth1/9/1, Eth1/9/2, Eth1/9/3 Eth1/9/4, Eth1/10/1, Eth1/10/2 Eth1/10/3, Eth1/10/4 31 VLAN0031 active Eth1/11, Eth1/12, Eth1/13 Eth1/14, Eth1/15, Eth1/16 Eth1/17, Eth1/18, Eth1/19 Eth1/20, Eth1/21, Eth1/22 32 VLAN0032 active Eth1/23, Eth1/24, Eth1/25 Eth1/26, Eth1/27, Eth1/28 Eth1/29, Eth1/30, Eth1/31 Eth1/32, Eth1/33, Eth1/34 33 VLAN0033 active Eth1/11, Eth1/12, Eth1/13 Eth1/14, Eth1/15, Eth1/16 Eth1/17, Eth1/18, Eth1/19 Eth1/20, Eth1/21, Eth1/22 34 VLAN0034 active Eth1/23, Eth1/24, Eth1/25 Eth1/26, Eth1/27, Eth1/28 Eth1/29, Eth1/30, Eth1/31 Eth1/32, Eth1/33, Eth1/34 cs1# show interface trunk ----------------------------------------------------- Port Native Status Port Vlan Channel ----------------------------------------------------- Eth1/1 1 trunking -- Eth1/2 1 trunking -- Eth1/3 1 trunking -- Eth1/4 1 trunking -- Eth1/5 1 trunking -- Eth1/6 1 trunking -- Eth1/7 1 trunking -- Eth1/8 1 trunking -- Eth1/9/1 1 trunking -- Eth1/9/2 1 trunking -- Eth1/9/3 1 trunking -- Eth1/9/4 1 trunking -- Eth1/10/1 1 trunking -- Eth1/10/2 1 trunking -- Eth1/10/3 1 trunking -- Eth1/10/4 1 trunking -- Eth1/11 33 trunking -- Eth1/12 33 trunking -- Eth1/13 33 trunking -- Eth1/14 33 trunking -- Eth1/15 33 trunking -- Eth1/16 33 trunking -- Eth1/17 33 trunking -- Eth1/18 33 trunking -- Eth1/19 33 trunking -- Eth1/20 33 trunking -- Eth1/21 33 trunking -- Eth1/22 33 trunking -- Eth1/23 34 trunking -- Eth1/24 34 trunking -- Eth1/25 34 trunking -- Eth1/26 34 trunking -- Eth1/27 34 trunking -- Eth1/28 34 trunking -- Eth1/29 34 trunking -- Eth1/30 34 trunking -- Eth1/31 34 trunking -- Eth1/32 34 trunking -- Eth1/33 34 trunking -- Eth1/34 34 trunking -- Eth1/35 1 trnk-bndl Po1 Eth1/36 1 trnk-bndl Po1 Po1 1 trunking -- ------------------------------------------------------ Port Vlans Allowed on Trunk ------------------------------------------------------ Eth1/1 1,17-18 Eth1/2 1,17-18 Eth1/3 1,17-18 Eth1/4 1,17-18 Eth1/5 1,17-18 Eth1/6 1,17-18 Eth1/7 1,17-18 Eth1/8 1,17-18 Eth1/9/1 1,17-18 Eth1/9/2 1,17-18 Eth1/9/3 1,17-18 Eth1/9/4 1,17-18 Eth1/10/1 1,17-18 Eth1/10/2 1,17-18 Eth1/10/3 1,17-18 Eth1/10/4 1,17-18 Eth1/11 31,33 Eth1/12 31,33 Eth1/13 31,33 Eth1/14 31,33 Eth1/15 31,33 Eth1/16 31,33 Eth1/17 31,33 Eth1/18 31,33 Eth1/19 31,33 Eth1/20 31,33 Eth1/21 31,33 Eth1/22 31,33 Eth1/23 32,34 Eth1/24 32,34 Eth1/25 32,34 Eth1/26 32,34 Eth1/27 32,34 Eth1/28 32,34 Eth1/29 32,34 Eth1/30 32,34 Eth1/31 32,34 Eth1/32 32,34 Eth1/33 32,34 Eth1/34 32,34 Eth1/35 1 Eth1/36 1 Po1 1 .. .. .. .. ..
Einzelheiten zur Port- und VLAN-Nutzung finden Sie im Abschnitt Banner und wichtige Hinweise in Ihrem RCF. -
Stellen Sie sicher, dass die ISL zwischen cs1 und cs2 funktionsfähig ist:
show port-channel summary
Beispiel anzeigen
cs1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/35(P) Eth1/36(P) cs1#
-
Vergewissern Sie sich, dass die Cluster-LIFs auf ihren Home-Port zurückgesetzt wurden:
network interface show -role cluster
Beispiel anzeigen
cluster1::*> network interface show -role cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true 8 entries were displayed. cluster1::*>
Wenn Cluster-LIFs nicht an die Home Ports zurückgegeben haben, setzen Sie sie manuell vom lokalen Node zurück:
network interface revert -vserver vserver_name -lif lif_name
-
Vergewissern Sie sich, dass das Cluster sich in einem ordnungsgemäßen Zustand befindet:
cluster show
Beispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können das verwenden network interface check cluster-connectivity
Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:
network interface check cluster-connectivity start
Und network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show
, um die Details anzuzeigen.
cluster1::*> network interface check cluster-connectivity show Source Destination Packet Node Date LIF LIF Loss ------ -------------------------- -------------------- ------------------- ----------- node1 3/5/2022 19:21:18 -06:00 cluster1-01_clus2 cluster1-02-clus1 none 3/5/2022 19:21:20 -06:00 cluster1-01_clus2 cluster1-02_clus2 none node2 3/5/2022 19:21:18 -06:00 cluster1-02_clus2 cluster1-01_clus1 none 3/5/2022 19:21:20 -06:00 cluster1-02_clus2 cluster1-01_clus2 none
Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name>
Befehl zum Überprüfen der Konnektivität:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local Host is cluster1-03 Getting addresses from network interface table... Cluster cluster1-03_clus1 169.254.1.3 cluster1-03 e0a Cluster cluster1-03_clus2 169.254.1.1 cluster1-03 e0b Cluster cluster1-04_clus1 169.254.1.6 cluster1-04 e0a Cluster cluster1-04_clus2 169.254.1.7 cluster1-04 e0b Cluster cluster1-01_clus1 169.254.3.4 cluster1-01 e0a Cluster cluster1-01_clus2 169.254.3.5 cluster1-01 e0d Cluster cluster1-02_clus1 169.254.3.8 cluster1-02 e0a Cluster cluster1-02_clus2 169.254.3.9 cluster1-02 e0d Local = 169.254.1.3 169.254.1.1 Remote = 169.254.1.6 169.254.1.7 169.254.3.4 169.254.3.5 169.254.3.8 169.254.3.9 Cluster Vserver Id = 4294967293 Ping status: ............ Basic connectivity succeeds on 12 path(s) Basic connectivity fails on 0 path(s) ................................................ Detected 9000 byte MTU on 12 path(s): Local 169.254.1.3 to Remote 169.254.1.6 Local 169.254.1.3 to Remote 169.254.1.7 Local 169.254.1.3 to Remote 169.254.3.4 Local 169.254.1.3 to Remote 169.254.3.5 Local 169.254.1.3 to Remote 169.254.3.8 Local 169.254.1.3 to Remote 169.254.3.9 Local 169.254.1.1 to Remote 169.254.1.6 Local 169.254.1.1 to Remote 169.254.1.7 Local 169.254.1.1 to Remote 169.254.3.4 Local 169.254.1.1 to Remote 169.254.3.5 Local 169.254.1.1 to Remote 169.254.3.8 Local 169.254.1.1 to Remote 169.254.3.9 Larger than PMTU communication succeeds on 12 path(s) RPC status: 6 paths up, 0 paths down (tcp check) 6 paths up, 0 paths down (udp check)