Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie von einem Cisco Cluster-Switch zu einem NVIDIA SN2100 Cluster-Switch

Beitragende

Sie können Cisco Cluster Switches für ein ONTAP Cluster zu NVIDIA SN2100 Cluster Switches migrieren. Hierbei handelt es sich um ein unterbrechungsfreies Verfahren.

Prüfen Sie die Anforderungen

Sie müssen bestimmte Konfigurationsinformationen, Portverbindungen und Verkabelungsanforderungen beachten, wenn Sie einige ältere Cisco Cluster Switches durch NVIDIA SN2100 Cluster Switches ersetzen. Siehe "Überblick über Installation und Konfiguration von NVIDIA SN2100-Switches".

Unterstützte Switches

Folgende Cisco Cluster-Switches werden unterstützt:

  • Nexus 9336C-FX2

  • Nexus 92300YC

  • Nexus 5596UP

  • Nexus 3232C

  • Nexus 3132Q-V

Weitere Informationen zu unterstützten Ports und deren Konfigurationen finden Sie im "Hardware Universe" .

Was Sie benötigen

Stellen Sie sicher, dass:

  • Das vorhandene Cluster ist ordnungsgemäß eingerichtet und funktioniert.

  • Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.

  • Die NVIDIA SN2100-Cluster-Switches sind konfiguriert und funktionieren unter der richtigen Version von Cumulus Linux, die mit der verwendeten Referenzkonfigurationsdatei (RCF) installiert wird.

  • Die vorhandene Cluster-Netzwerkkonfiguration verfügt über folgende Merkmale:

    • Ein redundantes und voll funktionsfähiges NetApp Cluster unter Verwendung beider älteren Cisco Switches.

    • Management-Konnektivität und Konsolenzugriff auf die älteren Cisco Switches und die neuen Switches.

    • Alle Cluster-LIFs im Status „up“ mit den Cluster-LIFs befinden sich auf den Home-Ports.

    • ISL-Ports aktiviert und zwischen den älteren Cisco Switches und zwischen den neuen Switches verkabelt.

  • Einige der Ports sind auf NVIDIA SN2100-Switches für 40 GbE oder 100 GbE konfiguriert.

  • Sie haben 40-GbE- und 100-GbE-Konnektivität von den Nodes zu NVIDIA SN2100 Cluster Switches geplant, migriert und dokumentiert.

Hinweis Wenn Sie die Portgeschwindigkeit der e0a- und e1a-Cluster-Ports auf AFF A800- oder AFF C800-Systemen ändern, können Sie beobachten, wie fehlerhafte Pakete nach der Geschwindigkeitskonvertierung empfangen werden. Siehe "Bug 1570339" Und den Knowledge Base Artikel "CRC-Fehler auf T6-Ports nach der Konvertierung von 40GbE zu 100GbE" Für eine Anleitung.

Migrieren Sie die Switches

Zu den Beispielen

In diesem Verfahren werden Cisco Nexus 3232C-Cluster-Switches beispielsweise Befehle und Ausgaben verwendet.

Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:

  • Die vorhandenen Cisco Nexus 3232C Cluster-Switches sind c1 und c2.

  • Die neuen NVIDIA SN2100-Cluster-Switches sind sw1 und sw2.

  • Die Knoten sind node1 und node2.

  • Die Cluster-LIFs sind auf Node 1_clus1_ und node1_clus2 und node2_clus1 bzw. node2_clus2 auf Knoten 2.

  • Der cluster1::*> Eine Eingabeaufforderung gibt den Namen des Clusters an.

  • Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.

  • Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.

Über diese Aufgabe

Dieses Verfahren umfasst das folgende Szenario:

  • Schalter c2 wird zuerst durch Schalter sw2 ersetzt.

    • Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.

    • Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.

  • Schalter c1 wird durch Schalter sw1 ersetzt.

    • Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.

    • Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all -message MAINT=xh

    Wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsebene in Erweitert, und geben Sie y ein, wenn Sie dazu aufgefordert werden, fortzufahren:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (*>) wird angezeigt.

  3. Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    network interface modify -vserver Cluster -lif * -auto-revert false

Schritt: Ports und Verkabelung konfigurieren

  1. Legen Sie den Administrations- oder Betriebsstatus der einzelnen Cluster-Schnittstellen fest.

    Jeder Port sollte für angezeigt werden Link Und gesund für Health Status.

    1. Zeigen Sie die Attribute des Netzwerkports an:

      network port show -ipspace Cluster

      Beispiel anzeigen
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Informationen zu den logischen Schnittstellen und den zugehörigen Home-Nodes anzeigen:

      network interface show -vserver Cluster

      Jede LIF sollte angezeigt werden up/up Für Status Admin/Oper Und zwar für Is Home.

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. Die Cluster-Ports auf jedem Node sind auf folgende Weise (aus Sicht der Nodes) mit vorhandenen Cluster-Switches verbunden:

    network device-discovery show -protocol lldp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/1            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/1            -
    node2      /lldp
                e3a    c1 (6a:ad:4f:98:3b:3f)    Eth1/2            -
                e3b    c2 (6a:ad:4f:98:4c:a4)    Eth1/2            -
  3. Die Cluster-Ports und Switches sind (aus Sicht der Switches) wie folgt verbunden:

    show cdp neighbors

    Beispiel anzeigen
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1         124   H           AFF-A400         e3a
    node2                 Eth1/2         124   H           AFF-A400         e3a
    c2                    Eth1/31        179   S I s       N3K-C3232C       Eth1/31
    c2                    Eth1/32        175   S I s       N3K-C3232C       Eth1/32
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 Eth1/1        124    H           AFF-A400         e3b
    node2                 Eth1/2        124    H           AFF-A400         e3b
    c1                    Eth1/31       175    S I s       N3K-C3232C       Eth1/31
    c1                    Eth1/32       175    S I s       N3K-C3232C       Eth1/32
  4. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. bei Switch c2 fahren Sie die mit den Cluster-Ports der Knoten verbundenen Ports herunter, um ein Failover der Cluster-LIFs durchzuführen.

    (c2)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c2)(Config)# interface
    (c2)(config-if-range)# shutdown <interface_list>
    (c2)(config-if-range)# exit
    (c2)(Config)# exit
    (c2)#
  2. Verschieben Sie die Node-Cluster-Ports vom alten Switch c2 auf den neuen Switch sw2, indem Sie die entsprechende Verkabelung verwenden, die von NVIDIA SN2100 unterstützt wird.

  3. Zeigen Sie die Attribute des Netzwerkports an:

    network port show -ipspace Cluster

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/1            -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   Eth1/2            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. Vergewissern Sie sich beim Switch sw2, dass alle Knoten-Cluster-Ports aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. Fahren Sie auf Switch c1 die Ports herunter, die mit den Cluster-Ports der Nodes verbunden sind, um ein Failover der Cluster LIFs zu ermöglichen.

    (c1)# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    
    (c1)(Config)# interface
    (c1)(config-if-range)# shutdown <interface_list>
    (c1)(config-if-range)# exit
    (c1)(Config)# exit
    (c1)#
  7. Verschieben Sie die Knoten-Cluster-Ports vom alten Switch c1 auf den neuen Switch sw1, mit der entsprechenden Verkabelung unterstützt von NVIDIA SN2100.

  8. Überprüfen der endgültigen Konfiguration des Clusters:

    network port show -ipspace Cluster

    Jeder Port sollte angezeigt werden up Für Link Und gesund für Health Status.

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Vergewissern Sie sich bei den Switches sw1 und sw2, dass alle Knoten-Cluster-Ports aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Vergewissern Sie sich, dass beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Beispiel anzeigen

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Switches:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16

Schritt 3: Überprüfen Sie die Konfiguration

  1. Aktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. Vergewissern Sie sich, dass alle Cluster-Netzwerk-LIFs wieder an ihren Home-Ports sind:

    network interface show

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  3. Ändern Sie die Berechtigungsebene zurück in den Administrator:

    set -privilege admin

  4. Wenn Sie die automatische Case-Erstellung unterdrückt haben, aktivieren Sie es erneut, indem Sie eine AutoSupport Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END