Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migration von einem Cisco Switch zu einem Cisco Nexus 92300YC-Switch

Beitragende netapp-yvonneo netapp-jolieg netapp-jsnyder

Ältere Cisco Cluster-Switches für einen ONTAP Cluster können ohne Unterbrechung auf Cisco Nexus 92300YC Cluster-Netzwerk-Switches migriert werden.

Hinweis Nach Abschluss der Migration müssen Sie möglicherweise die erforderliche Konfigurationsdatei installieren, um den Cluster Switch Health Monitor (CSHM) für 92300YC Cluster-Switches zu unterstützen. Sehen"Switch-Zustandsüberwachung (CSHM)" .

Überprüfungsanforderungen

Bevor Sie beginnen

Bitte stellen Sie sicher, dass Sie Folgendes haben:

  • Ein voll funktionsfähiger, bereits bestehender Cluster.

  • 10-GbE- und 40-GbE-Konnektivität von Knoten zu Nexus 92300YC Cluster-Switches.

  • Alle Cluster-Ports sind aktiv, um einen unterbrechungsfreien Betrieb zu gewährleisten.

  • Die korrekte Version von NX-OS und die Referenzkonfigurationsdatei (RCF) sind auf den Nexus 92300YC Cluster-Switches installiert.

  • Ein redundanter und voll funktionsfähiger NetApp Cluster, der beide ältere Cisco Switches nutzt.

  • Management-Konnektivität und Konsolenzugriff sowohl auf die älteren Cisco Switches als auch auf die neuen Switches.

  • Alle Cluster-LIFs befinden sich im aktiven Zustand und sind an ihren Heimatports angeschlossen.

  • ISL-Ports wurden aktiviert und zwischen den älteren Cisco Switches sowie zwischen den neuen Switches verkabelt.

Den Schalter migrieren

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:

  • Die vorhandenen Cisco Nexus 5596UP Cluster-Switches sind c1 und c2.

  • Die neuen Nexus 92300YC Cluster-Switches sind cs1 und cs2.

  • Die Knoten sind Knoten1 und Knoten2.

  • Die Cluster-LIFs sind node1_clus1 und node1_clus2 auf Knoten 1 bzw. node2_clus1 und node2_clus2 auf Knoten 2.

  • Zuerst wird der Schalter c2 durch den Schalter cs2 ersetzt, dann wird der Schalter c1 durch den Schalter cs1 ersetzt.

    • Auf cs1 wird eine temporäre ISL aufgebaut, die c1 mit cs1 verbindet.

    • Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit cs2 verbunden.

    • Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit cs1 verbunden.

    • Anschließend wird die temporäre ISL zwischen c1 und cs1 entfernt.

Anschlüsse, die für Verbindungen verwendet werden
  • Einige der Ports der Nexus 92300YC Switches sind für den Betrieb mit 10 GbE oder 40 GbE konfiguriert.

  • Die Cluster-Switches verwenden die folgenden Ports für die Verbindungen zu den Knoten:

    • Ports e1/1-48 (10/25 GbE), e1/49-64 (40/100 GbE): Nexus 92300YC

    • Ports e1/1-40 (10 GbE): Nexus 5596UP

    • Ports e1/1-32 (10 GbE): Nexus 5020

    • Anschlüsse e1/1-12, e2/1-6 (10 GbE): Nexus 5010 mit Erweiterungsmodul

  • Die Cluster-Switches verwenden die folgenden Inter-Switch Link (ISL)-Ports:

    • Ports e1/65-66 (100 GbE): Nexus 92300YC

    • Ports e1/41–48 (10 GbE): Nexus 5596UP

    • Ports e1/33–40 (10 GbE): Nexus 5020

    • Ports e1/13–20 (10 GbE): Nexus 5010

  • "Hardware Universe – Schalter"enthält Informationen zur unterstützten Verkabelung für alle Cluster-Switches.

  • Die in diesem Verfahren unterstützten ONTAP und NX-OS-Versionen sind auf der "Cisco Ethernet-Switches" Seite.

Schritt 1: Vorbereitung auf die Migration

  1. Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (*>) wird angezeigt.

  2. Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:

    system node autosupport invoke -node * -type all -message MAINT=xh

    wobei x die Dauer des Wartungsfensters in Stunden ist.

    Hinweis Die AutoSupport Meldung benachrichtigt den technischen Support über diese Wartungsaufgabe, sodass die automatische Fallerstellung während des Wartungsfensters unterdrückt wird.
    Beispiel anzeigen

    Der folgende Befehl unterdrückt die automatische Fallerstellung für zwei Stunden:

    cluster1::*> system node autosupport invoke -node * -type all -message MAINT=2h
  3. Stellen Sie sicher, dass die automatische Wiederherstellung auf allen Cluster-LIFs aktiviert ist:

    network interface show -vserver Cluster -fields auto-revert

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster -fields auto-revert
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   true
              node1_clus2   true
              node2_clus1   true
              node2_clus2   true
    
    4 entries were displayed.
  4. Ermitteln Sie den administrativen oder operativen Status jeder Clusterschnittstelle:

    Jeder Port sollte angezeigt werden für Link und gesund für Health Status Die

    1. Netzwerkportattribute anzeigen:

      network port show -ipspace Cluster

      Beispiel anzeigen
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      4 entries were displayed.
    2. Informationen über die logischen Schnittstellen und ihre jeweiligen Heimatknoten anzeigen:

      network interface show -vserver Cluster

      Jeder LIF sollte „up/up“ anzeigen. Status Admin/Oper und wahr für Is Home Die

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current       Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node          Port    Home
    ----------- -----------  ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1         e0a     true
                node1_clus2  up/up      169.254.49.125/16  node1         e0b     true
                node2_clus1  up/up      169.254.47.194/16  node2         e0a     true
                node2_clus2  up/up      169.254.19.183/16  node2         e0b     true
    
    4 entries were displayed.
  5. Überprüfen Sie mithilfe des folgenden Befehls, ob die Cluster-Ports auf jedem Knoten wie folgt mit den vorhandenen Cluster-Switches verbunden sind (aus Sicht der Knoten):

    network device-discovery show -protocol cdp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    c1                        0/2               N5K-C5596UP
                e0b    c2                        0/2               N5K-C5596UP
    node1      /cdp
                e0a    c1                        0/1               N5K-C5596UP
                e0b    c2                        0/1               N5K-C5596UP
    
    4 entries were displayed.
  6. Überprüfen Sie mithilfe des folgenden Befehls, ob die Cluster-Ports und Switches wie folgt verbunden sind (aus Sicht der Switches):

    show cdp neighbors

    Beispiel anzeigen
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1               Eth1/1         124    H         FAS2750            e0a
    node2               Eth1/2         124    H         FAS2750            e0a
    c2(FOX2025GEFC)     Eth1/41        179    S I s     N5K-C5596UP        Eth1/41
    
    c2(FOX2025GEFC)     Eth1/42        175    S I s     N5K-C5596UP        Eth1/42
    
    c2(FOX2025GEFC)     Eth1/43        179    S I s     N5K-C5596UP        Eth1/43
    
    c2(FOX2025GEFC)     Eth1/44        175    S I s     N5K-C5596UP        Eth1/44
    
    c2(FOX2025GEFC)     Eth1/45        179    S I s     N5K-C5596UP        Eth1/45
    
    c2(FOX2025GEFC)     Eth1/46        179    S I s     N5K-C5596UP        Eth1/46
    
    c2(FOX2025GEFC)     Eth1/47        175    S I s     N5K-C5596UP        Eth1/47
    
    c2(FOX2025GEFC)     Eth1/48        179    S I s     N5K-C5596UP        Eth1/48
    
    Total entries displayed: 10
    
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1               Eth1/1         124    H         FAS2750            e0b
    node2               Eth1/2         124    H         FAS2750            e0b
    c1(FOX2025GEEX)     Eth1/41        175    S I s     N5K-C5596UP        Eth1/41
    
    c1(FOX2025GEEX)     Eth1/42        175    S I s     N5K-C5596UP        Eth1/42
    
    c1(FOX2025GEEX)     Eth1/43        175    S I s     N5K-C5596UP        Eth1/43
    
    c1(FOX2025GEEX)     Eth1/44        175    S I s     N5K-C5596UP        Eth1/44
    
    c1(FOX2025GEEX)     Eth1/45        175    S I s     N5K-C5596UP        Eth1/45
    
    c1(FOX2025GEEX)     Eth1/46        175    S I s     N5K-C5596UP        Eth1/46
    
    c1(FOX2025GEEX)     Eth1/47        176    S I s     N5K-C5596UP        Eth1/47
    
    c1(FOX2025GEEX)     Eth1/48        176    S I s     N5K-C5596UP        Eth1/48
  7. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:

network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e0a
Cluster node1_clus2 169.254.49.125 node1     e0b
Cluster node2_clus1 169.254.47.194 node2     e0a
Cluster node2_clus2 169.254.19.183 node2     e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)

Schritt 2: Kabel und Anschlüsse konfigurieren

  1. Konfigurieren Sie eine temporäre ISL auf cs1on Ports e1/41-48, zwischen c1 und cs1.

    Beispiel anzeigen

    Das folgende Beispiel zeigt, wie die neue ISL auf c1 und cs1 konfiguriert ist:

    cs1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    cs1(config)# interface e1/41-48
    cs1(config-if-range)# description temporary ISL between Nexus 5596UP and Nexus 92300YC
    cs1(config-if-range)# no lldp transmit
    cs1(config-if-range)# no lldp receive
    cs1(config-if-range)# switchport mode trunk
    cs1(config-if-range)# no spanning-tree bpduguard enable
    cs1(config-if-range)# channel-group 101 mode active
    cs1(config-if-range)# exit
    cs1(config)# interface port-channel 101
    cs1(config-if)# switchport mode trunk
    cs1(config-if)# spanning-tree port type network
    cs1(config-if)# exit
    cs1(config)# exit
  2. Entfernen Sie die ISL-Kabel von den Ports e1/41-48 von c2 und verbinden Sie die Kabel mit den Ports e1/41-48 von cs1.

  3. Überprüfen Sie, ob die ISL-Ports und der Portkanal, die c1 und cs1 verbinden, betriebsbereit sind:

    show port-channel summary

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Verwendung des Cisco -Befehls „show port-channel summary“, um zu überprüfen, ob die ISL-Ports auf c1 und cs1 betriebsbereit sind:

    c1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/41(P)   Eth1/42(P)   Eth1/43(P)
                                         Eth1/44(P)   Eth1/45(P)   Eth1/46(P)
                                         Eth1/47(P)   Eth1/48(P)
    
    
    cs1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/65(P)   Eth1/66(P)
    101   Po101(SU)   Eth      LACP      Eth1/41(P)   Eth1/42(P)   Eth1/43(P)
                                         Eth1/44(P)   Eth1/45(P)   Eth1/46(P)
                                         Eth1/47(P)   Eth1/48(P)
  4. Für Knoten 1 trennen Sie das Kabel von e1/1 auf c2 und verbinden Sie es dann mit e1/1 auf cs2. Verwenden Sie hierfür geeignete Kabel, die vom Nexus 92300YC unterstützt werden.

  5. Für Knoten 2 trennen Sie das Kabel von e1/2 auf c2 und verbinden Sie es dann mit e1/2 auf cs2. Verwenden Sie hierfür geeignete Kabel, die vom Nexus 92300YC unterstützt werden.

  6. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    network device-discovery show -protocol cdp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    c1                        0/2               N5K-C5596UP
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    c1                        0/1               N5K-C5596UP
                e0b    cs2                       0/1               N9K-C92300YC
    
    4 entries were displayed.
  7. Für Knoten 1 trennen Sie das Kabel von e1/1 auf c1 und verbinden Sie es dann mit e1/1 auf cs1. Verwenden Sie hierfür geeignete Kabel, die vom Nexus 92300YC unterstützt werden.

  8. Für Knoten 2 trennen Sie das Kabel von e1/2 auf c1 und verbinden Sie es dann mit e1/2 auf cs1. Verwenden Sie hierfür geeignete Kabel, die vom Nexus 92300YC unterstützt werden.

  9. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    network device-discovery show -protocol cdp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       0/2               N9K-C92300YC
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    cs1                       0/1               N9K-C92300YC
                e0b    cs2                       0/1               N9K-C92300YC
    4 entries were displayed.
  10. Löschen Sie die temporäre ISL zwischen cs1 und c1.

    Beispiel anzeigen
    cs1(config)# no interface port-channel 10
    cs1(config)# interface e1/41-48
    cs1(config-if-range)# lldp transmit
    cs1(config-if-range)# lldp receive
    cs1(config-if-range)# no switchport mode trunk
    cs1(config-if-range)# no channel-group
    cs1(config-if-range)# description 10GbE Node Port
    cs1(config-if-range)# spanning-tree bpduguard enable
    cs1(config-if-range)# exit
    cs1(config)# exit

Schritt 3: Schließen Sie die Migration ab.

  1. Überprüfen Sie die endgültige Konfiguration des Clusters:

    network port show -ipspace Cluster

    Jeder Port sollte angezeigt werden für Link und gesund für Health Status Die

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    Node: node2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    4 entries were displayed.
    
    
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e0a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e0b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e0a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e0b     true
    
    4 entries were displayed.
    
    
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       0/2               N9K-C92300YC
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    cs1                       0/1               N9K-C92300YC
                e0b    cs2                       0/1               N9K-C92300YC
    
    4 entries were displayed.
    
    
    cs1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1               Eth1/1         124    H         FAS2750            e0a
    node2               Eth1/2         124    H         FAS2750            e0a
    cs2(FDO220329V5)    Eth1/65        179    R S I s   N9K-C92300YC  Eth1/65
    cs2(FDO220329V5)    Eth1/66        179    R S I s   N9K-C92300YC  Eth1/66
    
    
    cs2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1               Eth1/1         124    H         FAS2750            e0b
    node2               Eth1/2         124    H         FAS2750            e0b
    cs1(FDO220329KU)
                        Eth1/65        179    R S I s   N9K-C92300YC  Eth1/65
    cs1(FDO220329KU)
                        Eth1/66        179    R S I s   N9K-C92300YC  Eth1/66
    
    Total entries displayed: 4
  2. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:

network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e0a
Cluster node1_clus2 169.254.49.125 node1     e0b
Cluster node2_clus1 169.254.47.194 node2     e0a
Cluster node2_clus2 169.254.19.183 node2     e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. Falls Sie die automatische Fallerstellung unterdrückt haben, aktivieren Sie sie wieder, indem Sie eine AutoSupport Nachricht aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END

    Beispiel anzeigen
    cluster1::*> system node autosupport invoke -node * -type all -message MAINT=END
  2. Ändern Sie die Berechtigungsstufe wieder auf Administrator:

    set -privilege admin

Wie geht es weiter?

Nachdem Sie Ihre SSH-Konfiguration überprüft haben, können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die