Installieren oder aktualisieren Sie die Referenzkonfigurationsdatei (RCF).
Gehen Sie wie folgt vor, um die RCF nach der erstmaligen Einrichtung des Nexus 3132Q-V-Switches zu installieren. Sie können dieses Verfahren auch verwenden, um Ihre RCF-Version zu aktualisieren.
Überprüfungsanforderungen
-
Eine aktuelle Sicherungskopie der Switch-Konfiguration.
-
Ein voll funktionsfähiger Cluster (keine Fehler in den Protokollen oder ähnliche Probleme).
-
Die aktuelle Referenzkonfigurationsdatei (RCF).
-
Für die Installation des RCF ist eine Konsolenverbindung zum Switch erforderlich. Diese Anforderung ist optional, wenn Sie den Wissensdatenbank-Artikel verwendet haben. "Wie man die Konfiguration eines Cisco Interconnect-Switches löscht und gleichzeitig die Remote-Konnektivität beibehält" Um die Konfiguration vorher zu löschen.
-
"Cisco Ethernet-Switch". In der Switch-Kompatibilitätstabelle finden Sie die unterstützten ONTAP und RCF-Versionen. Beachten Sie, dass zwischen der Befehlssyntax in der RCF und der in Versionen von NX-OS gefundenen Befehlssyntax Abhängigkeiten bestehen können.
-
"Cisco Nexus 3000 Series Switches". Die vollständige Dokumentation zu den Upgrade- und Downgrade-Verfahren für Cisco -Switches finden Sie in den entsprechenden Software- und Upgrade-Anleitungen auf der Cisco -Website.
Installieren Sie die Datei
Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:
-
Die Namen der beiden Cisco Switches lauten:
cs1Undcs2Die -
Die Knotennamen lauten
cluster1-01,cluster1-02,cluster1-03, Undcluster1-04Die -
Die Cluster-LIF-Namen sind
cluster1-01_clus1,cluster1-01_clus2,cluster1-02_clus1,cluster1-02_clus2,cluster1-03_clus1,cluster1-03_clus2,cluster1-04_clus1, Undcluster1-04_clus2Die -
Der
cluster1::*>Die Eingabeaufforderung zeigt den Namen des Clusters an.
Für dieses Verfahren werden sowohl ONTAP -Befehle als auch Cisco Nexus 3000 Series Switches-Befehle benötigt; es werden ONTAP -Befehle verwendet, sofern nicht anders angegeben.
Während dieses Vorgangs ist kein betriebsbereiter Inter-Switch-Link (ISL) erforderlich. Dies ist beabsichtigt, da RCF-Versionsänderungen die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, migriert das folgende Verfahren alle Cluster-LIFs zum operativen Partner-Switch, während die Schritte auf dem Ziel-Switch ausgeführt werden.
Stellen Sie sicher, dass Sie den Vorgang abschließen in"Bereiten Sie die Installation der NX-OS-Software und der Referenzkonfigurationsdatei vor." Befolgen Sie anschließend die folgenden Schritte.
Schritt 1: Portstatus prüfen
-
Zeigen Sie die Cluster-Ports auf jedem Knoten an, die mit den Cluster-Switches verbunden sind:
network device-discovery showBeispiel anzeigen
cluster1::*> network device-discovery show Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ---------------- ------------ cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3132Q-V e0d cs2 Ethernet1/7 N3K-C3132Q-V cluster1-02/cdp e0a cs1 Ethernet1/8 N3K-C3132Q-V e0d cs2 Ethernet1/8 N3K-C3132Q-V cluster1-03/cdp e0a cs1 Ethernet1/1/1 N3K-C3132Q-V e0b cs2 Ethernet1/1/1 N3K-C3132Q-V cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3132Q-V e0b cs2 Ethernet1/1/2 N3K-C3132Q-V cluster1::*> -
Überprüfen Sie den administrativen und operativen Status jedes Cluster-Ports.
-
Überprüfen Sie, ob alle Cluster-Ports aktiv und fehlerfrei sind:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false 8 entries were displayed. Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false cluster1::*> -
Überprüfen Sie, ob alle Cluster-Schnittstellen (LIFs) am Home-Port angeschlossen sind:
network interface show -vserver ClusterBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ----------------- ------------ ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Überprüfen Sie, ob der Cluster Informationen für beide Cluster-Switches anzeigt:
system cluster-switch show -is-monitoring-enabled-operational trueBeispiel anzeigen
cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- --------------- cs1 cluster-network 10.0.0.1 NX3132QV Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.0.0.2 NX3132QV Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.
Für ONTAP 9.8 und höher verwenden Sie den Befehl system switch ethernet show -is-monitoring-enabled-operational trueDie -
-
Automatische Wiederherstellung der Cluster-LIFs deaktivieren.
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
Stellen Sie sicher, dass die automatische Wiederherstellung nach Ausführung dieses Befehls deaktiviert ist.
-
Schalten Sie auf dem Cluster-Switch cs2 die Ports ab, die mit den Cluster-Ports der Knoten verbunden sind.
cs2> enable cs2# configure cs2(config)# interface eth1/1/1-2,eth1/7-8 cs2(config-if-range)# shutdown cs2(config-if-range)# exit cs2# exit
Die Anzahl der angezeigten Ports variiert je nach Anzahl der Knoten im Cluster. -
Überprüfen Sie, ob die Cluster-Ports auf die Ports migriert wurden, die auf dem Cluster-Switch cs1 gehostet werden. Dies kann einige Sekunden dauern.
network interface show -vserver ClusterBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ----------------- ---------- ------------------ ------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0a true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0a false cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0a true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0a false cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0a true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0a false cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0a true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0a false cluster1::*> -
Überprüfen Sie, ob der Cluster fehlerfrei funktioniert:
cluster showBeispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------ ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false cluster1::*>
Schritt 2: Konfigurieren und Überprüfen der Einrichtung
-
Falls Sie dies noch nicht getan haben, speichern Sie eine Kopie der aktuellen Switch-Konfiguration, indem Sie die Ausgabe des folgenden Befehls in eine Textdatei kopieren:
show running-config -
Notieren Sie alle benutzerdefinierten Ergänzungen zwischen der aktuellen laufenden Konfiguration und der verwendeten RCF-Datei.
-
Speichern Sie die grundlegenden Konfigurationsdetails in der
write_erase.cfgDatei auf dem Bootflash.Beim Upgrade oder Anwenden eines neuen RCF müssen Sie die Switch-Einstellungen löschen und eine Grundkonfiguration durchführen. Sie müssen mit dem seriellen Konsolenport des Switches verbunden sein, um den Switch erneut einzurichten. cs2# show run | section "switchname" > bootflash:write_erase.cfgcs2# show run | section "hostname" >> bootflash:write_erase.cfgcs2# show run | i "username admin password" >> bootflash:write_erase.cfgcs2# show run | section "vrf context management" >> bootflash:write_erase.cfgcs2# show run | section "interface mgmt0" >> bootflash:write_erase.cfg -
Für RCF Version 1.12 und höher führen Sie die folgenden Befehle aus:
cs2# echo "hardware access-list tcam region vpc-convergence 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region racl 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region e-racl 256" >> bootflash:write_erase.cfgcs2# echo "hardware access-list tcam region qos 256" >> bootflash:write_erase.cfgSiehe den Artikel in der Wissensdatenbank."Wie man die Konfiguration eines Cisco Interconnect-Switches löscht und gleichzeitig die Remote-Konnektivität beibehält" für weitere Einzelheiten.
-
Überprüfen Sie, ob die
write_erase.cfgDie Datei ist wie erwartet gefüllt:show file bootflash:write_erase.cfg -
Stellen Sie die
write eraseBefehl zum Löschen der aktuell gespeicherten Konfiguration:cs2# write eraseWarning: This command will erase the startup-configuration.Do you wish to proceed anyway? (y/n) [n] y -
Kopieren Sie die zuvor gespeicherte Basiskonfiguration in die Startkonfiguration.
cs2# copy bootflash:write_erase.cfg startup-config -
Führen Sie einen Neustart des Switches durch:
cs2# reloadThis command will reboot the system. (y/n)? [n] y -
Kopieren Sie die RCF mit einem der folgenden Übertragungsprotokolle in den Bootflash des Switches cs2: FTP, TFTP, SFTP oder SCP. Weitere Informationen zu Cisco -Befehlen finden Sie im entsprechenden Leitfaden in der"Cisco Nexus 3000 Serie NX-OS Befehlsreferenz" Leitfäden.
Beispiel anzeigen
cs2# copy tftp: bootflash: vrf management Enter source filename: Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt Enter hostname for the tftp server: 172.22.201.50 Trying to connect to tftp server......Connection to Server Established. TFTP get operation was successful Copy complete, now saving to disk (please wait)...
-
Wenden Sie die zuvor heruntergeladene RCF-Datei auf den Bootflash an.
Weitere Informationen zu Cisco -Befehlen finden Sie im entsprechenden Leitfaden in der"Cisco Nexus 3000 Serie NX-OS Befehlsreferenz" Leitfäden.
Beispiel anzeigen
cs2# copy Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands
-
Untersuchen Sie die Bannerausgabe von
show banner motdBefehl. Um die korrekte Konfiguration und den ordnungsgemäßen Betrieb des Schalters zu gewährleisten, müssen Sie die Anweisungen unter Wichtige Hinweise lesen und befolgen.Beispiel anzeigen
cs2# show banner motd ****************************************************************************** * NetApp Reference Configuration File (RCF) * * Switch : Cisco Nexus 3132Q-V * Filename : Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt * Date : Nov-02-2020 * Version : v1.6 * * Port Usage : Breakout configuration * Ports 1- 6: Breakout mode (4x10GbE) Intra-Cluster Ports, int e1/1/1-4, * e1/2/1-4, e1/3/1-4,int e1/4/1-4, e1/5/1-4, e1/6/1-4 * Ports 7-30: 40GbE Intra-Cluster/HA Ports, int e1/7-30 * Ports 31-32: Intra-Cluster ISL Ports, int e1/31-32 * * IMPORTANT NOTES * - Load Nexus_3132QV_RCF_v1.6-Cluster-HA.txt for non breakout config * * - This RCF utilizes QoS and requires specific TCAM configuration, requiring * cluster switch to be rebooted before the cluster becomes operational. * * - Perform the following steps to ensure proper RCF installation: * * (1) Apply RCF, expect following messages: * - Please save config and reload the system... * - Edge port type (portfast) should only be enabled on ports... * - TCAM region is not configured for feature QoS class IPv4... * * (2) Save running-configuration and reboot Cluster Switch * * (3) After reboot, apply same RCF second time and expect following messages: * - % Invalid command at '^' marker * * (4) Save running-configuration again * * - If running NX-OS versions 9.3(5) 9.3(6), 9.3(7), or 9.3(8) * - Downgrade the NX-OS firmware to version 9.3(5) or earlier if * NX-OS using a version later than 9.3(5). * - Do not upgrade NX-OS prior to applying v1.9 RCF file. * - After the RCF is applied and switch rebooted, then proceed to upgrade * NX-OS to version 9.3(5) or later. * * - If running 9.3(9) 10.2(2) or later the RCF can be applied to the switch * after the upgrade. * * - Port 1 multiplexed H/W configuration options: * hardware profile front portmode qsfp (40G H/W port 1/1 is active - default) * hardware profile front portmode sfp-plus (10G H/W ports 1/1/1 - 1/1/4 are active) * hardware profile front portmode qsfp (To reset to QSFP) * ******************************************************************************
-
Überprüfen Sie, ob es sich bei der RCF-Datei um die korrekte, neuere Version handelt:
show running-configWenn Sie die Ausgabe überprüfen, um sicherzustellen, dass Sie die richtige RCF-Datei haben, achten Sie darauf, dass die folgenden Informationen korrekt sind:
-
Das RCF-Banner
-
Die Knoten- und Porteinstellungen
-
Anpassungen
Das Ergebnis variiert je nach Ihrer Website-Konfiguration. Prüfen Sie die Port-Einstellungen und beachten Sie die Versionshinweise, um sich über etwaige Änderungen zu informieren, die speziell für die von Ihnen installierte RCF-Version gelten.
Eine Anleitung zum Aktivieren Ihrer 10GbE-Ports nach einem RCF-Upgrade finden Sie im Knowledge-Base-Artikel. "Die 10GbE-Ports eines Cisco 3132Q Cluster-Switches werden nicht online geschaltet." Die -
-
Nachdem Sie überprüft haben, ob die RCF-Versionen und die Schaltereinstellungen korrekt sind, kopieren Sie die Running-Config-Datei in die Startup-Config-Datei.
Weitere Informationen zu Cisco -Befehlen finden Sie im entsprechenden Handbuch im "Cisco Nexus 3000 Serie NX-OS Befehlsreferenz" Führer.
Beispiel anzeigen
cs2# copy running-config startup-config [########################################] 100% Copy complete
-
Neustart des Switches CS2. Sie können sowohl die auf den Knoten gemeldeten Ereignisse „Cluster-Ports ausgefallen“ während des Neustarts des Switches als auch den Fehler ignorieren.
% Invalid command at '^' markerAusgabe.Beispiel anzeigen
cs2# reload This command will reboot the system. (y/n)? [n] y
-
Wenden Sie denselben RCF ein zweites Mal an und speichern Sie die laufende Konfiguration. Dies ist notwendig, da der RCF QoS nutzt und eine TCAM-Neukonfiguration erfordert, die das zweimalige Laden des RCF mit dazwischenliegendem Neustart des Switches beinhaltet.
Beispiel anzeigen
cs2# copy Nexus_3132QV_RCF_v1.6-Cluster-HA-Breakout.txt running-config echo-commands cs2# copy running-config startup-config [########################################] 100% Copy complete
-
Wenden Sie alle zuvor vorgenommenen Anpassungen erneut auf die Switch-Konfiguration an. Siehe"Überprüfung der Verkabelung und Konfigurationsüberlegungen" Einzelheiten zu etwaigen weiteren erforderlichen Änderungen.
-
Überprüfen Sie den Zustand der Cluster-Ports im Cluster.
-
Überprüfen Sie, ob die Cluster-Ports auf allen Knoten im Cluster aktiv und fehlerfrei sind:
network port show -ipspace ClusterBeispiel anzeigen
cluster1::*> network port show -ipspace Cluster Node: cluster1-01 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-02 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/10000 healthy false e0b Cluster Cluster up 9000 auto/10000 healthy false Node: cluster1-03 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false Node: cluster1-04 Ignore Speed(Mbps) Health Health Port IPspace Broadcast Domain Link MTU Admin/Oper Status Status --------- ------------ ---------------- ---- ---- ----------- -------- ------ e0a Cluster Cluster up 9000 auto/100000 healthy false e0d Cluster Cluster up 9000 auto/100000 healthy false -
Überprüfen Sie den Zustand der Switches im Cluster.
network device-discovery show -protocol cdpBeispiel anzeigen
cluster1::*> network device-discovery show -protocol cdp Node/ Local Discovered Protocol Port Device (LLDP: ChassisID) Interface Platform ----------- ------ ------------------------- ----------------- -------- cluster1-01/cdp e0a cs1 Ethernet1/7 N3K-C3132Q-V e0d cs2 Ethernet1/7 N3K-C3132Q-V cluster01-2/cdp e0a cs1 Ethernet1/8 N3K-C3132Q-V e0d cs2 Ethernet1/8 N3K-C3132Q-V cluster01-3/cdp e0a cs1 Ethernet1/1/1 N3K-C3132Q-V e0b cs2 Ethernet1/1/1 N3K-C3132Q-V cluster1-04/cdp e0a cs1 Ethernet1/1/2 N3K-C3132Q-V e0b cs2 Ethernet1/1/2 N3K-C3132Q-V cluster1::*> system cluster-switch show -is-monitoring-enabled-operational true Switch Type Address Model --------------------------- ------------------ ---------------- ----- cs1 cluster-network 10.233.205.90 N3K-C3132Q-V Serial Number: FOXXXXXXXGD Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP cs2 cluster-network 10.233.205.91 N3K-C3132Q-V Serial Number: FOXXXXXXXGS Is Monitored: true Reason: None Software Version: Cisco Nexus Operating System (NX-OS) Software, Version 9.3(4) Version Source: CDP 2 entries were displayed.Für ONTAP 9.8 und höher verwenden Sie den Befehl system switch ethernet show -is-monitoring-enabled-operational trueDie
Je nach der zuvor auf dem Switch geladenen RCF-Version kann die folgende Ausgabe auf der cs1-Switch-Konsole angezeigt werden:
2020 Nov 17 16:07:18 cs1 %$ VDC-1 %$ %STP-2-UNBLOCK_CONSIST_PORT: Unblocking port port-channel1 on VLAN0092. Port consistency restored. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_PEER: Blocking port-channel1 on VLAN0001. Inconsistent peer vlan. 2020 Nov 17 16:07:23 cs1 %$ VDC-1 %$ %STP-2-BLOCK_PVID_LOCAL: Blocking port-channel1 on VLAN0092. Inconsistent local vlan.+
Es kann bis zu 5 Minuten dauern, bis die Clusterknoten als fehlerfrei gemeldet werden. -
-
Schalten Sie auf dem Cluster-Switch cs1 die Ports ab, die mit den Cluster-Ports der Knoten verbunden sind.
Beispiel anzeigen
cs1> enable cs1# configure cs1(config)# interface eth1/1/1-2,eth1/7-8 cs1(config-if-range)# shutdown cs1(config-if-range)# exit cs1# exit
Die Anzahl der angezeigten Ports variiert je nach Anzahl der Knoten im Cluster. -
Überprüfen Sie, ob die Cluster-LIFs auf die Ports migriert wurden, die auf Switch cs2 gehostet werden. Dies kann einige Sekunden dauern.
network interface show -vserver ClusterBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d false cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d false cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b false cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b false cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Überprüfen Sie, ob der Cluster fehlerfrei funktioniert:
cluster showBeispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- -------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false 4 entries were displayed. cluster1::*>
-
Wiederholen Sie die Schritte 1 bis 17 auf Switch cs1.
-
Automatische Wiederherstellung der Cluster-LIFs aktivieren.
Beispiel anzeigen
cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert True
-
Neustart des Switches cs1. Dadurch werden die Cluster-LIFs veranlasst, zu ihren ursprünglichen Ports zurückzukehren. Sie können die auf den Knoten gemeldeten Ereignisse vom Typ „Cluster-Ports ausgefallen“ ignorieren, während der Switch neu startet.
cs1# reload This command will reboot the system. (y/n)? [n] y
Schritt 3: Konfiguration überprüfen
-
Überprüfen Sie, ob die mit den Cluster-Ports verbundenen Switch-Ports aktiv sind.
show interface brief | grep upBeispiel anzeigen
cs1# show interface brief | grep up . . Eth1/1/1 1 eth access up none 10G(D) -- Eth1/1/2 1 eth access up none 10G(D) -- Eth1/7 1 eth trunk up none 100G(D) -- Eth1/8 1 eth trunk up none 100G(D) -- . .
-
Überprüfen Sie, ob die ISL-Verbindung zwischen cs1 und cs2 funktionsfähig ist:
show port-channel summaryBeispiel anzeigen
cs1# show port-channel summary Flags: D - Down P - Up in port-channel (members) I - Individual H - Hot-standby (LACP only) s - Suspended r - Module-removed b - BFD Session Wait S - Switched R - Routed U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met -------------------------------------------------------------------------------- Group Port- Type Protocol Member Ports Channel -------------------------------------------------------------------------------- 1 Po1(SU) Eth LACP Eth1/31(P) Eth1/32(P) cs1# -
Überprüfen Sie, ob die Cluster-LIFs wieder auf ihren Heimatport zurückgekehrt sind:
network interface show -vserver ClusterBeispiel anzeigen
cluster1::*> network interface show -vserver Cluster Logical Status Network Current Current Is Vserver Interface Admin/Oper Address/Mask Node Port Home ----------- ------------------ ---------- ------------------ ------------------- ------- ---- Cluster cluster1-01_clus1 up/up 169.254.3.4/23 cluster1-01 e0d true cluster1-01_clus2 up/up 169.254.3.5/23 cluster1-01 e0d true cluster1-02_clus1 up/up 169.254.3.8/23 cluster1-02 e0d true cluster1-02_clus2 up/up 169.254.3.9/23 cluster1-02 e0d true cluster1-03_clus1 up/up 169.254.1.3/23 cluster1-03 e0b true cluster1-03_clus2 up/up 169.254.1.1/23 cluster1-03 e0b true cluster1-04_clus1 up/up 169.254.1.6/23 cluster1-04 e0b true cluster1-04_clus2 up/up 169.254.1.7/23 cluster1-04 e0b true cluster1::*> -
Überprüfen Sie, ob der Cluster fehlerfrei funktioniert:
cluster showBeispiel anzeigen
cluster1::*> cluster show Node Health Eligibility Epsilon -------------------- ------- ------------- ------- cluster1-01 true true false cluster1-02 true true false cluster1-03 true true true cluster1-04 true true false cluster1::*>
-
Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:
Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:
network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show
cluster1::*> network interface check cluster-connectivity start
HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl „show“ ausführen, um die Details anzuzeigen.
cluster1::*> network interface check cluster-connectivity show
Source Destination Packet
Node Date LIF LIF Loss
------ -------------------------- ------------------- ------------------- -----------
cluster1-01
3/5/2022 19:21:18 -06:00 cluster1-01_clus2 cluster1-02_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-01_clus2 cluster1-02_clus2 none
cluster1-02
3/5/2022 19:21:18 -06:00 cluster1-02_clus2 cluster1-01_clus1 none
3/5/2022 19:21:20 -06:00 cluster1-02_clus2 cluster1-01_clus2 none
Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:
cluster ping-cluster -node <name>
cluster1::*> cluster ping-cluster -node local
Host is cluster1-02
Getting addresses from network interface table...
Cluster cluster1-01_clus1 169.254.209.69 cluster1-01 e0a
Cluster cluster1-01_clus2 169.254.49.125 cluster1-01 e0b
Cluster cluster1-02_clus1 169.254.47.194 cluster1-02 e0a
Cluster cluster1-02_clus2 169.254.19.183 cluster1-02 e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)