Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Ersetzen Sie einen Cisco Nexus 92300YC-Switch

Beitragende netapp-yvonneo netapp-jolieg

Der Austausch eines defekten Nexus 92300YC-Switches in einem Clusternetzwerk ist ein nicht-unterbrechendes Verfahren (NDU).

Überprüfungsanforderungen

Bevor Sie beginnen

Vor dem Austausch des Schalters stellen Sie bitte Folgendes sicher:

  • In der bestehenden Cluster- und Netzwerkinfrastruktur:

    • Der bestehende Cluster wurde als voll funktionsfähig verifiziert, wobei mindestens ein Cluster-Switch vollständig angeschlossen ist.

    • Alle Cluster-Ports sind aktiv.

    • Alle logischen Schnittstellen (LIFs) des Clusters sind aktiv und an ihren jeweiligen Ports angeschlossen.

    • Der Befehl ONTAP cluster ping-cluster -node node1 muss anzeigen, dass die grundlegende Konnektivität und die Kommunikation größer als PMTU auf allen Pfaden erfolgreich sind.

  • Für den Ersatzschalter Nexus 92300YC:

    • Die Management-Netzwerkanbindung des Ersatz-Switches ist funktionsfähig.

    • Der Konsolenzugriff auf den Ersatzschalter ist eingerichtet.

    • Die Knotenverbindungen sind die Ports 1/1 bis 1/64.

    • Alle Inter-Switch Link (ISL)-Ports sind an den Ports 1/65 und 1/66 deaktiviert.

    • Die gewünschte Referenzkonfigurationsdatei (RCF) und das NX-OS-Betriebssystem-Image werden auf den Switch geladen.

    • Die erste Anpassung des Schalters ist abgeschlossen, wie in der folgenden Beschreibung detailliert aufgeführt:"Konfigurieren Sie den Cisco Nexus 92300YC-Switch" Die

      Alle zuvor vorgenommenen Anpassungen am Standort, wie z. B. STP, SNMP und SSH, werden auf den neuen Switch kopiert.

Konsolenprotokollierung aktivieren

NetApp empfiehlt dringend, die Konsolenprotokollierung auf den verwendeten Geräten zu aktivieren und beim Austausch Ihres Switches die folgenden Maßnahmen zu ergreifen:

Tauschen Sie den Schalter aus.

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:

  • Die Namen der vorhandenen Nexus 92300YC Switches lauten cs1 und cs2.

  • Der neue Switch Nexus 92300YC trägt den Namen newcs2.

  • Die Knotennamen lauten Knoten1 und Knoten2.

  • Die Cluster-Ports auf jedem Knoten tragen die Namen e0a und e0b.

  • Die Cluster-LIF-Namen lauten node1_clus1 und node1_clus2 für Knoten 1 sowie node2_clus1 und node2_clus2 für Knoten 2.

  • Die Aufforderung zum Ändern aller Clusterknoten lautet cluster1::*>

Informationen zu diesem Vorgang

Sie müssen den Befehl zur Migration eines Cluster-LIF von dem Knoten ausführen, auf dem der Cluster-LIF gehostet wird.

Das folgende Verfahren basiert auf der folgenden Cluster-Netzwerktopologie:

Topologie anzeigen
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                       Ignore
                                                  Speed(Mbps) Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
--------- ------------ ---------------- ---- ---- ----------- -------- ------
e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false

Node: node2
                                                                       Ignore
                                                  Speed(Mbps) Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
--------- ------------ ---------------- ---- ---- ----------- -------- ------
e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
4 entries were displayed.



cluster1::*> network interface show -vserver Cluster
            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e0a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e0b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e0a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e0b     true
4 entries were displayed.



cluster1::*> network device-discovery show -protocol cdp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
----------- ------ ------------------------- ----------------  ----------------
node2      /cdp
            e0a    cs1                       Eth1/2            N9K-C92300YC
            e0b    cs2                       Eth1/2            N9K-C92300YC
node1      /cdp
            e0a    cs1                       Eth1/1            N9K-C92300YC
            e0b    cs2                       Eth1/1            N9K-C92300YC
4 entries were displayed.



cs1# show cdp neighbors

Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute

Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         144    H           FAS2980       e0a
node2              Eth1/2         145    H           FAS2980       e0a
cs2(FDO220329V5)   Eth1/65        176    R S I s     N9K-C92300YC  Eth1/65
cs2(FDO220329V5)   Eth1/66        176    R S I s     N9K-C92300YC  Eth1/66

Total entries displayed: 4



cs2# show cdp neighbors

Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                  S - Switch, H - Host, I - IGMP, r - Repeater,
                  V - VoIP-Phone, D - Remotely-Managed-Device,
                  s - Supports-STP-Dispute

Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
node1              Eth1/1         139    H           FAS2980       e0b
node2              Eth1/2         124    H           FAS2980       e0b
cs1(FDO220329KU)   Eth1/65        178    R S I s     N9K-C92300YC  Eth1/65
cs1(FDO220329KU)   Eth1/66        178    R S I s     N9K-C92300YC  Eth1/66

Total entries displayed: 4

Schritt 1: Vorbereitung auf den Austausch

  1. Installieren Sie die entsprechende RCF-Datei und das Image auf dem Switch newcs2 und treffen Sie alle notwendigen Vorbereitungen vor Ort.

    Prüfen, laden und installieren Sie gegebenenfalls die entsprechenden Versionen der RCF- und NX-OS-Software für den neuen Switch. Wenn Sie überprüft haben, dass der neue Switch korrekt eingerichtet ist und keine Aktualisierungen der RCF- und NX-OS-Software erforderlich sind, fahren Sie mit Schritt 2 fort.

    1. Gehen Sie auf der NetApp Support-Website zur Seite „NetApp Cluster and Management Network Switches Reference Configuration File Description Page“.

    2. Klicken Sie auf den Link zur Kompatibilitätsmatrix für Cluster- und Managementnetzwerke und notieren Sie sich anschließend die erforderliche Switch-Softwareversion.

    3. Klicken Sie auf den Zurück-Pfeil Ihres Browsers, um zur Beschreibungsseite zurückzukehren, klicken Sie auf WEITER, akzeptieren Sie die Lizenzvereinbarung und gehen Sie dann zur Download-Seite.

    4. Folgen Sie den Anweisungen auf der Downloadseite, um die korrekten RCF- und NX-OS-Dateien für die Version der ONTAP -Software herunterzuladen, die Sie installieren.

  2. Melden Sie sich auf dem neuen Switch als Administrator an und fahren Sie alle Ports herunter, die mit den Knotenclusterschnittstellen verbunden werden (Ports 1/1 bis 1/64).

    Wenn der zu ersetzende Schalter nicht funktionsfähig und ausgeschaltet ist, fahren Sie mit Schritt 4 fort. Die LIFs auf den Clusterknoten sollten bereits für jeden Knoten auf den anderen Clusterport umgeschaltet haben.

    Beispiel anzeigen
    newcs2# config
    Enter configuration commands, one per line. End with CNTL/Z.
    newcs2(config)# interface e1/1-64
    newcs2(config-if-range)# shutdown
  3. Überprüfen Sie, ob für alle Cluster-LIFs die automatische Rücksetzung aktiviert ist:

    network interface show -vserver Cluster -fields auto-revert

    Beispiel anzeigen
    cluster1::> network interface show -vserver Cluster -fields auto-revert
    
                 Logical
    Vserver      Interface     Auto-revert
    ------------ ------------- -------------
    Cluster      node1_clus1   true
    Cluster      node1_clus2   true
    Cluster      node2_clus1   true
    Cluster      node2_clus2   true
    
    4 entries were displayed.
  4. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:

network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e0a
Cluster node1_clus2 169.254.49.125 node1 e0b
Cluster node2_clus1 169.254.47.194 node2 e0a
Cluster node2_clus2 169.254.19.183 node2 e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)

Schritt 2: Kabel und Anschlüsse konfigurieren

  1. Schalten Sie die ISL-Ports 1/65 und 1/66 am Switch Nexus 92300YC cs1 ab:

    Beispiel anzeigen
    cs1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    cs1(config)# interface e1/65-66
    cs1(config-if-range)# shutdown
    cs1(config-if-range)#
  2. Entfernen Sie alle Kabel vom Nexus 92300YC cs2-Switch und schließen Sie sie dann an dieselben Ports am Nexus 92300YC newcs2-Switch an.

  3. Aktivieren Sie die ISL-Ports 1/65 und 1/66 zwischen den Switches cs1 und newcs2 und überprüfen Sie dann den Betriebsstatus des Portkanals.

    Port-Channel sollte Po1(SU) und Member Ports sollten Eth1/65(P) und Eth1/66(P) anzeigen.

    Beispiel anzeigen

    Dieses Beispiel aktiviert die ISL-Ports 1/65 und 1/66 und zeigt die Port-Kanal-Zusammenfassung auf Switch cs1 an:

    cs1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    cs1(config)# int e1/65-66
    cs1(config-if-range)# no shutdown
    
    cs1(config-if-range)# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/65(P)   Eth1/66(P)
    
    cs1(config-if-range)#
  4. Überprüfen Sie, ob Port e0b auf allen Knoten aktiv ist:

    network port show ipspace Cluster

    Beispiel anzeigen

    Die Ausgabe sollte in etwa wie folgt aussehen:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                            Ignore
                                                       Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ----- ----------- -------- -------
    e0a       Cluster      Cluster          up   9000  auto/10000  healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000  healthy  false
    
    Node: node2
                                                                            Ignore
                                                       Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ----- ----------- -------- -------
    e0a       Cluster      Cluster          up   9000  auto/10000  healthy  false
    e0b       Cluster      Cluster          up   9000  auto/auto   -        false
    
    4 entries were displayed.
  5. Auf demselben Knoten, den Sie im vorherigen Schritt verwendet haben, stellen Sie die Cluster-LIF, die dem Port im vorherigen Schritt zugeordnet ist, mit dem Befehl network interface revert wieder her.

    Beispiel anzeigen

    In diesem Beispiel wird LIF node1_clus2 auf node1 erfolgreich zurückgesetzt, wenn der Wert Home true ist und der Port e0b lautet.

    Die folgenden Befehle geben LIF zurück. node1_clus2 An node1 zum Heimathafen e0a und zeigt Informationen über die LIFs auf beiden Knoten an. Das Hochfahren des ersten Knotens ist erfolgreich, wenn die Spalte „Is Home“ für beide Cluster-Schnittstellen den Wert „true“ aufweist und die korrekten Portzuweisungen angezeigt werden. e0a Und e0b auf Knoten1.

    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current    Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node       Port    Home
    ----------- ------------ ---------- ------------------ ---------- ------- -----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1      e0a     true
                node1_clus2  up/up      169.254.49.125/16  node1      e0b     true
                node2_clus1  up/up      169.254.47.194/16  node2      e0a     true
                node2_clus2  up/up      169.254.19.183/16  node2      e0a     false
    
    4 entries were displayed.
  6. Informationen über die Knoten in einem Cluster anzeigen:

    cluster show

    Beispiel anzeigen

    Dieses Beispiel zeigt, dass der Knotenstatus für Knoten 1 und Knoten 2 in diesem Cluster „true“ ist:

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         false   true
    node2         true    true
  7. Überprüfen Sie, ob alle physischen Cluster-Ports aktiv sind:

    network port show ipspace Cluster

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
    																																									 					 																					 	  Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e0a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e0b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e0a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e0b       Cluster      Cluster          up    9000  auto/10000  healthy  false
    
    4 entries were displayed.

Schritt 3: Schließen Sie den Vorgang ab.

  1. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:

network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1 e0a
Cluster node1_clus2 169.254.49.125 node1 e0b
Cluster node2_clus1 169.254.47.194 node2 e0a
Cluster node2_clus2 169.254.19.183 node2 e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
Local 169.254.47.194 to Remote 169.254.209.69
Local 169.254.47.194 to Remote 169.254.49.125
Local 169.254.19.183 to Remote 169.254.209.69
Local 169.254.19.183 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. Bestätigen Sie die folgende Cluster-Netzwerkkonfiguration:

    network port show

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    Node: node1
    																																																																			 	  Ignore
                                           Speed(Mbps)            Health   Health
    Port      IPspace     Broadcast Domain Link MTU   Admin/Oper  Status   Status
    --------- ----------- ---------------- ---- ----- ----------- -------- ------
    e0a       Cluster     Cluster          up   9000  auto/10000  healthy  false
    e0b       Cluster     Cluster          up   9000  auto/10000  healthy  false
    
    Node: node2
                                                                           Ignore
                                            Speed(Mbps)           Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000 auto/10000  healthy  false
    e0b       Cluster      Cluster          up   9000 auto/10000  healthy  false
    
    4 entries were displayed.
    
    
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e0a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e0b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e0a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e0b     true
    
    4 entries were displayed.
    
    cluster1::> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       0/2               N9K-C92300YC
                e0b    newcs2                    0/2               N9K-C92300YC
    node1      /cdp
                e0a    cs1                       0/1               N9K-C92300YC
                e0b    newcs2                    0/1               N9K-C92300YC
    
    4 entries were displayed.
    
    
    cs1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID            Local Intrfce  Hldtme Capability  Platform      Port ID
    node1                Eth1/1         144    H           FAS2980       e0a
    node2                Eth1/2         145    H           FAS2980       e0a
    newcs2(FDO296348FU)  Eth1/65        176    R S I s     N9K-C92300YC  Eth1/65
    newcs2(FDO296348FU)  Eth1/66        176    R S I s     N9K-C92300YC  Eth1/66
    
    
    Total entries displayed: 4
    
    
    cs2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1              Eth1/1         139    H           FAS2980       e0b
    node2              Eth1/2         124    H           FAS2980       e0b
    cs1(FDO220329KU)   Eth1/65        178    R S I s     N9K-C92300YC  Eth1/65
    cs1(FDO220329KU)   Eth1/66        178    R S I s     N9K-C92300YC  Eth1/66
    
    Total entries displayed: 4
Wie geht es weiter?

Nachdem Sie Ihre SSH-Konfiguration überprüft haben, können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die