Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Ersetzen Sie einen NVIDIA SN2100 Cluster-Switch

Beitragende netapp-yvonneo netapp-jolieg

Gehen Sie wie folgt vor, um einen defekten NVIDIA SN2100-Switch in einem Clusternetzwerk auszutauschen. Dies ist ein unterbrechungsfreies Verfahren (NDU).

Überprüfungsanforderungen

Vorhandene Cluster- und Netzwerkinfrastruktur

Stellen Sie sicher, dass:

  • Es wurde überprüft, dass die vorhandenen Cluster voll funktionsfähig sind und mindestens ein Cluster-Switch vollständig angeschlossen ist.

  • Alle Cluster-Ports sind aktiv.

  • Alle logischen Schnittstellen (LIFs) des Clusters sind aktiv und an ihren jeweiligen Ports angeschlossen.

  • Das ONTAP cluster ping-cluster -node node1 Der Befehl zeigt an, dass die grundlegende Konnektivität und die Kommunikation über PMTU hinaus auf allen Pfaden erfolgreich sind.

NVIDIA SN2100 Ersatzschalter

Stellen Sie sicher, dass:

  • Die Management-Netzwerkanbindung des Ersatz-Switches ist funktionsfähig.

  • Der Konsolenzugriff auf den Ersatzschalter ist eingerichtet.

  • Die Knotenverbindungen sind die Ports swp1 bis swp14.

  • Alle Inter-Switch Link (ISL)-Ports sind an den Ports swp15 und swp16 deaktiviert.

  • Die gewünschte Referenzkonfigurationsdatei (RCF) und das Cumulus-Betriebssystem-Image werden auf den Switch geladen.

  • Die erste Konfiguration des Schalters ist abgeschlossen.

Achten Sie außerdem darauf, dass alle zuvor vorgenommenen Anpassungen am Standort, wie z. B. STP, SNMP und SSH, auf den neuen Switch kopiert werden.

Hinweis Sie müssen den Befehl zur Migration eines Cluster-LIF von dem Knoten ausführen, auf dem der Cluster-LIF gehostet wird.

Konsolenprotokollierung aktivieren

NetApp empfiehlt dringend, die Konsolenprotokollierung auf den verwendeten Geräten zu aktivieren und beim Austausch Ihres Switches die folgenden Maßnahmen zu ergreifen:

Tauschen Sie den Schalter aus.

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:

  • Die Namen der vorhandenen NVIDIA SN2100-Switches lauten sw1 und sw2.

  • Der Name des neuen NVIDIA SN2100 Switches lautet nsw2.

  • Die Knotennamen lauten node1 und node2.

  • Die Cluster-Ports auf jedem Knoten tragen die Namen e3a und e3b.

  • Die Cluster-LIF-Namen lauten node1_clus1 und node1_clus2 für Knoten 1 sowie node2_clus1 und node2_clus2 für Knoten 2.

  • Die Aufforderung zur Änderung aller Clusterknoten lautet: cluster1::*>

  • Breakout-Ports haben folgendes Format: swp[Port]s[Breakout-Port 0-3]. Beispielsweise gibt es vier Breakout-Ports auf swp1: swp1s0, swp1s1, swp1s2 und swp1s3.

Über die Cluster-Netzwerktopologie

Dieses Verfahren basiert auf folgender Cluster-Netzwerktopologie:

Beispieltopologie anzeigen
cluster1::*> network port show -ipspace Cluster

Node: node1
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false

Node: node2
                                                                        Ignore
                                                  Speed(Mbps)  Health   Health
Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
--------- ------------ ---------------- ---- ---- ------------ -------- ------
e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false


cluster1::*> network interface show -vserver Cluster

            Logical    Status     Network            Current       Current Is
Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
----------- ---------- ---------- ------------------ ------------- ------- ----
Cluster
            node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
            node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
            node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
            node2_clus2  up/up    169.254.19.183/16  node2         e3b     true


cluster1::*> network device-discovery show -protocol lldp
Node/       Local  Discovered
Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
----------- ------ ------------------------- ------------  ----------------
node1      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
node2      /lldp
            e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
            e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -

+

cumulus@sw1:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw2                e3a
swp4       100G   Trunk/L2    sw2                e3a
swp15      100G   BondMember  sw2                swp15
swp16      100G   BondMember  sw2                swp16


cumulus@sw2:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    sw1                e3b
swp4       100G   Trunk/L2    sw1                e3b
swp15      100G   BondMember  sw1                swp15
swp16      100G   BondMember  sw1                swp16

Schritt 1: Vorbereitung auf den Austausch

  1. Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:

    system node autosupport invoke -node * -type all -message MAINT=xh

    wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (*>) wird angezeigt.

  3. Installieren Sie die entsprechende RCF-Datei und das Image auf dem Switch nsw2 und treffen Sie alle notwendigen Vorbereitungen vor Ort.

    Prüfen, laden und installieren Sie gegebenenfalls die entsprechenden Versionen der RCF- und Cumulus-Software für den neuen Switch.

    1. Sie können die passende Cumulus-Software für Ihre Cluster-Switches von der NVIDIA Support-Website herunterladen. Folgen Sie den Anweisungen auf der Downloadseite, um Cumulus Linux für die Version der ONTAP -Software herunterzuladen, die Sie installieren.

    2. Die entsprechende RCF ist erhältlich bei der"NVIDIA Cluster- und Speicher-Switches" Seite. Folgen Sie den Anweisungen auf der Downloadseite, um die richtige RCF-Datei für die Version der ONTAP -Software herunterzuladen, die Sie installieren.

Schritt 2: Anschlüsse und Verkabelung konfigurieren

Cumulus Linux 4.4.3
  1. Melden Sie sich auf dem neuen Switch nsw2 als Administrator an und deaktivieren Sie alle Ports, die mit den Schnittstellen des Knotenclusters verbunden werden (Ports swp1 bis swp14).

    Die LIFs auf den Clusterknoten sollten bereits für jeden Knoten auf den anderen Clusterport umgeschaltet haben.

    cumulus@nsw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  2. Automatische Wiederherstellung der Cluster-LIFs deaktivieren:

    network interface modify -vserver Cluster -lif * -auto-revert false

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Überprüfen Sie, ob die automatische Rücksetzung für alle Cluster-LIFs deaktiviert ist:

    net interface show -vserver Cluster -fields auto-revert

  4. Schalten Sie die ISL-Ports swp15 und swp16 am SN2100-Switch sw1 ab.

    cumulus@sw1:~$ net add interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  5. Entfernen Sie alle Kabel vom SN2100 sw1 Switch und schließen Sie sie dann an die gleichen Ports am SN2100 nsw2 Switch an.

  6. Aktivieren Sie die ISL-Ports swp15 und swp16 zwischen den Switches sw1 und nsw2.

    Die folgenden Befehle aktivieren die ISL-Ports swp15 und swp16 auf Switch sw1:

    cumulus@sw1:~$ net del interface swp15-16 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit

    Das folgende Beispiel zeigt, dass die ISL-Ports am Switch sw1 aktiv sind:

    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    Das folgende Beispiel zeigt, dass die ISL-Ports auf Switch nsw2 aktiv sind:

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Überprüfen Sie, ob der Port e3b ist auf allen Knoten aktiv:

    network port show -ipspace Cluster

    Die Ausgabe sollte in etwa wie folgt aussehen:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Überprüfen Sie, ob alle Ports des Knotenclusters aktiv sind:

    net show interface

    cumulus@nsw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Automatische Wiederherstellung der Cluster-LIFs aktivieren:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. Schalten Sie auf Switch nsw2 die Ports ein, die mit den Netzwerkports der Knoten verbunden sind.

    cumulus@nsw2:~$ net del interface swp1-14 link down
    cumulus@nsw2:~$ net pending
    cumulus@nsw2:~$ net commit
  13. Informationen über die Knoten in einem Cluster anzeigen:

    cluster show

    Dieses Beispiel zeigt, dass der Knotenstatus für Knoten 1 und Knoten 2 in diesem Cluster „true“ ist:

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Überprüfen Sie, ob alle physischen Cluster-Ports aktiv sind:

    network port show ipspace Cluster

    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false
Cumulus Linux 5.x
  1. Melden Sie sich auf dem neuen Switch nsw2 als Administrator an und deaktivieren Sie alle Ports, die mit den Schnittstellen des Knotenclusters verbunden werden (Ports swp1 bis swp14).

    Die LIFs auf den Clusterknoten sollten bereits für jeden Knoten auf den anderen Clusterport umgeschaltet haben.

    cumulus@nsw2:~$ nv set interface swp15-16 link state down
    cumulus@nsw2:~$ nv config apply
  2. Automatische Wiederherstellung der Cluster-LIFs deaktivieren:

    network interface modify -vserver Cluster -lif * -auto-revert false

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
    Warning: Disabling the auto-revert feature of the cluster logical interface may effect the availability of your cluster network. Are you sure you want to continue? {y|n}: y
  3. Überprüfen Sie, ob die automatische Rücksetzung für alle Cluster-LIFs deaktiviert ist:

    network interface show -vserver Cluster -fields auto-revert

  4. Schalten Sie die ISL-Ports swp15 und swp16 am SN2100-Switch sw1 ab.

    cumulus@sw1:~$ nv set interface swp15-16 link state down
    cumulus@sw1:~$ nv config apply
  5. Entfernen Sie alle Kabel vom SN2100 sw1 Switch und schließen Sie sie dann an die gleichen Ports am SN2100 nsw2 Switch an.

  6. Aktivieren Sie die ISL-Ports swp15 und swp16 zwischen den Switches sw1 und nsw2.

    Die folgenden Befehle aktivieren die ISL-Ports swp15 und swp16 auf Switch sw1:

    cumulus@sw1:~$ nv set interface swp15-16 link state down
    cumulus@sw1:~$ nv config apply

    Das folgende Beispiel zeigt, dass die ISL-Ports am Switch sw1 aktiv sind:

    cumulus@sw1:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------- ----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  nsw2 (swp15)   Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  nsw2 (swp16)   Master: cluster_isl(UP)

    Das folgende Beispiel zeigt, dass die ISL-Ports auf Switch nsw2 aktiv sind:

    cumulus@nsw2:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP           Summary
    -----  -----------  ----  -----  ----------  -------------  -----------------------
    ...
    ...
    UP     swp15        100G  9216   BondMember  sw1 (swp15)    Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)    Master: cluster_isl(UP)
  7. Überprüfen Sie, ob der Port e3b ist auf allen Knoten aktiv:

    network port show -ipspace Cluster

    Die Ausgabe sollte in etwa wie folgt aussehen:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ----- ------------ -------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
    
    
    Node: node2
                                                                             Ignore
                                                       Speed(Mbps) Health    Health
    Port      IPspace      Broadcast Domain Link MTU   Admin/Oper  Status    Status
    --------- ------------ ---------------- ---- ----- ----------- --------- -------
    e3a       Cluster      Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000  healthy  false
  8. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp3          -
    node2      /lldp
                e3a    sw1  (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    nsw2 (b8:ce:f6:19:1b:b6)   swp4          -
  9. Überprüfen Sie, ob alle Ports des Knotenclusters aktiv sind:

    nv show interface

    cumulus@nsw2:~$ nv show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2                      Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  10. Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    nv show interface lldp

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:

    cumulus@sw1:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  nsw2               swp15
    swp16      100G   BondMember  nsw2               swp16
    
    
    cumulus@nsw2:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1                e3b
    swp4       100G   Trunk/L2    node2                e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16
  11. Automatische Wiederherstellung der Cluster-LIFs aktivieren:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  12. Schalten Sie auf Switch nsw2 die Ports ein, die mit den Netzwerkports der Knoten verbunden sind.

    cumulus@nsw2:~$ nv set interface swp1-14 link state up
    cumulus@nsw2:~$ nv config apply
  13. Informationen über die Knoten in einem Cluster anzeigen:

    cluster show

    Dieses Beispiel zeigt, dass der Knotenstatus für Knoten 1 und Knoten 2 in diesem Cluster „true“ ist:

    cluster1::*> cluster show
    
    Node          Health  Eligibility
    ------------- ------- ------------
    node1         true    true
    node2         true    true
  14. Überprüfen Sie, ob alle physischen Cluster-Ports aktiv sind:

    network port show ipspace Cluster

    cluster1::*> network port show -ipspace Cluster
    
    Node node1                                                               Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace     Broadcast Domain  Link  MTU   Admin/Oper  Status   Status
    --------- ----------- ----------------- ----- ----- ----------- -------- ------
    e3a       Cluster     Cluster           up    9000  auto/10000  healthy  false
    e3b       Cluster     Cluster           up    9000  auto/10000  healthy  false
    
    Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link  MTU   Admin/Oper  Status   Status
    --------- ------------ ---------------- ----- ----- ----------- -------- ------
    e3a       Cluster      Cluster          up    9000  auto/10000  healthy  false
    e3b       Cluster      Cluster          up    9000  auto/10000  healthy  false

Schritt 3: Konfiguration überprüfen

Cumulus Linux 4.4.3
  1. Überprüfen Sie, ob das Clusternetzwerk fehlerfrei funktioniert.

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
Cumulus Linux 5.x
  1. Überprüfen Sie, ob das Clusternetzwerk fehlerfrei funktioniert.

    cumulus@sw1:~$ nv show interface lldp
    
    LocalPort  Speed  Mode        RemoteHost      RemotePort
    ---------  -----  ----------  --------------  -----------
    swp3       100G   Trunk/L2    node1           e3a
    swp4       100G   Trunk/L2    node2           e3a
    swp15      100G   BondMember  nsw2            swp15
    swp16      100G   BondMember  nsw2            swp16
  1. [[Schritt 2]] Ändern Sie die Berechtigungsstufe wieder auf Administrator:

    set -privilege admin

  2. Wenn Sie die automatische Fallerstellung unterdrückt haben, können Sie sie durch Aufruf einer AutoSupport Nachricht wieder aktivieren:

    system node autosupport invoke -node * -type all -message MAINT=END

Wie geht es weiter?

Nachdem Sie Ihre Schalter ausgetauscht haben, können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die