Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie CN1610-Cluster-Switches zu NVIDIA SN2100-Cluster-Switches

Beitragende

Sie können NetApp CN1610 Cluster Switches für ein ONTAP Cluster zu NVIDIA SN2100 Cluster Switches migrieren. Hierbei handelt es sich um ein unterbrechungsfreies Verfahren.

Prüfen Sie die Anforderungen

Wenn Sie NetApp CN1610-Cluster-Switches durch NVIDIA SN2100-Cluster-Switches ersetzen, müssen Sie sich über bestimmte Konfigurationsdaten, Port-Verbindungen und Verkabelungsanforderungen im Klaren sein. Siehe "Überblick über Installation und Konfiguration von NVIDIA SN2100-Switches".

Unterstützte Switches

Folgende Cluster-Switches werden unterstützt:

  • NetApp CN1610

  • NVIDIA SN2100

Weitere Informationen zu unterstützten Ports und deren Konfigurationen finden Sie im "Hardware Universe".

Was Sie benötigen

Stellen Sie sicher, dass Sie die folgenden Anforderungen für die Konfiguration erfüllen:

  • Der vorhandene Cluster ist ordnungsgemäß eingerichtet und funktioniert.

  • Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.

  • Die NVIDIA SN2100-Cluster-Switches werden unter der richtigen Version von Cumulus Linux konfiguriert und betrieben, die mit der angewendeten Referenzkonfigurationsdatei (RCF) installiert ist.

  • Die vorhandene Cluster-Netzwerkkonfiguration verfügt über folgende Merkmale:

    • Ein redundantes und voll funktionsfähiges NetApp Cluster mit CN1610-Switches.

    • Managementkonnektivität und Konsolenzugriff auf die CN1610-Switches und die neuen Switches.

    • Alle Cluster-LIFs befinden sich im Zustand „up“, wobei die Cluster-LIFs an ihren Home-Ports vorhanden sind.

    • ISL-Ports aktiviert und zwischen den CN1610-Switches und zwischen den neuen Switches verkabelt.

  • Einige Ports sind auf NVIDIA SN2100-Switches konfiguriert, um mit 40 GbE oder 100 GbE zu laufen.

  • Die 40-GbE- und 100-GbE-Konnektivität von Nodes zu NVIDIA SN2100-Cluster-Switches wurde geplant, migriert und dokumentiert.

Migrieren Sie die Switches

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:

  • Die vorhandenen CN1610 Cluster Switches sind c1 und c2.

  • Die neuen NVIDIA SN2100-Cluster-Switches sind sw1 und sw2.

  • Die Knoten sind node1 und node2.

  • Die Cluster-LIFs sind auf Node 1_clus1_ und node1_clus2 und node2_clus1 bzw. node2_clus2 auf Knoten 2.

  • Der cluster1::*> Eine Eingabeaufforderung gibt den Namen des Clusters an.

  • Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.

  • Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.

Über diese Aufgabe

Dieses Verfahren umfasst das folgende Szenario:

  • Schalter c2 wird zuerst durch Schalter sw2 ersetzt.

    • Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.

    • Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.

  • Schalter c1 wird durch Schalter sw1 ersetzt.

    • Fahren Sie die Ports zu den Cluster-Nodes herunter. Alle Ports müssen gleichzeitig heruntergefahren werden, um eine Instabilität von Clustern zu vermeiden.

    • Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.

Hinweis Bei diesem Verfahren ist keine betriebsbereite ISL (Inter Switch Link) erforderlich. Dies ist von Grund auf so, dass Änderungen der RCF-Version die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, werden mit dem folgenden Verfahren alle Cluster-LIFs auf den betriebsbereiten Partner-Switch migriert, während die Schritte auf dem Ziel-Switch ausgeführt werden.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all -message MAINT=xh

    Wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsebene in Erweitert, und geben Sie y ein, wenn Sie dazu aufgefordert werden, fortzufahren:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (*>) wird angezeigt.

  3. Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    network interface modify -vserver Cluster -lif * -auto-revert false

Schritt: Ports und Verkabelung konfigurieren

  1. Legen Sie den Administrations- oder Betriebsstatus der einzelnen Cluster-Schnittstellen fest.

    Jeder Port sollte für angezeigt werden Link Und healthy Für Health Status.

    1. Zeigen Sie die Attribute des Netzwerkports an:

      network port show -ipspace Cluster

      Beispiel anzeigen
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Zeigt Informationen zu den LIFs und ihren zugewiesenen Home-Nodes an:

      network interface show -vserver Cluster

      Jede LIF sollte angezeigt werden up/up Für Status Admin/Oper Und true Für Is Home.

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. Die Cluster-Ports auf jedem Node sind mit vorhandenen Cluster-Switches auf die folgende Weise (aus Sicht der Nodes) verbunden. Verwenden Sie dazu den Befehl:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /cdp
                e3a    c1 (6a:ad:4f:98:3b:3f)    0/1               -
                e3b    c2 (6a:ad:4f:98:4c:a4)    0/1               -
    node2      /cdp
                e3a    c1 (6a:ad:4f:98:3b:3f)    0/2               -
                e3b    c2 (6a:ad:4f:98:4c:a4)    0/2               -
  3. Die Cluster-Ports und -Switches sind (aus Sicht der Switches) folgendermaßen verbunden:

    show cdp neighbors

    Beispiel anzeigen
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 0/1           124     H          AFF-A400         e3a
    node2                 0/2           124     H          AFF-A400         e3a
    c2                    0/13          179     S I s      CN1610           0/13
    c2                    0/14          175     S I s      CN1610           0/14
    c2                    0/15          179     S I s      CN1610           0/15
    c2                    0/16          175     S I s      CN1610           0/16
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 0/1           124    H           AFF-A400         e3b
    node2                 0/2           124    H           AFF-A400         e3b
    c1                    0/13          175    S I s       CN1610           0/13
    c1                    0/14          175    S I s       CN1610           0/14
    c1                    0/15          175    S I s       CN1610           0/15
    c1                    0/16          175    S I s       CN1610           0/16
  4. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl ausführen show, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. bei Switch c2 fahren Sie die mit den Cluster-Ports der Knoten verbundenen Ports herunter, um ein Failover der Cluster-LIFs durchzuführen.

    (c2)# configure
    (c2)(Config)# interface 0/1-0/12
    (c2)(Interface 0/1-0/12)# shutdown
    (c2)(Interface 0/1-0/12)# exit
    (c2)(Config)# exit
    (c2)#
  2. Verschieben Sie die Node-Cluster-Ports vom alten Switch c2 auf den neuen Switch sw2, indem Sie die entsprechende Verkabelung verwenden, die von NVIDIA SN2100 unterstützt wird.

  3. Zeigen Sie die Attribute des Netzwerkports an:

    network port show -ipspace Cluster

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   0/1               -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   0/2               -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. Vergewissern Sie sich beim Switch sw2, dass alle Knoten-Cluster-Ports aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. Fahren Sie auf Switch c1 die Ports herunter, die mit den Cluster-Ports der Nodes verbunden sind, um ein Failover der Cluster LIFs zu ermöglichen.

    (c1)# configure
    (c1)(Config)# interface 0/1-0/12
    (c1)(Interface 0/1-0/12)# shutdown
    (c1)(Interface 0/1-0/12)# exit
    (c1)(Config)# exit
    (c1)#
  7. Verschieben Sie die Knoten-Cluster-Ports vom alten Switch c1 auf den neuen Switch sw1, mit der entsprechenden Verkabelung unterstützt von NVIDIA SN2100.

  8. Überprüfen der endgültigen Konfiguration des Clusters:

    network port show -ipspace Cluster

    Jeder Port sollte angezeigt werden up Für Link Und healthy Für Health Status.

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. Die Cluster-Ports auf jedem Node sind nun aus Sicht der Nodes mit Cluster-Switches auf die folgende Weise verbunden:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Vergewissern Sie sich bei den Switches sw1 und sw2, dass alle Knoten-Cluster-Ports aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Vergewissern Sie sich, dass beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Beispiel anzeigen

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Switches:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16

Schritt 3: Überprüfen Sie die Konfiguration

  1. Aktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. Vergewissern Sie sich, dass alle Cluster-Netzwerk-LIFs wieder an ihren Home-Ports sind:

    network interface show

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  3. Ändern Sie die Berechtigungsebene zurück in den Administrator:

    set -privilege admin

  4. Wenn Sie die automatische Case-Erstellung unterdrückt haben, aktivieren Sie es erneut, indem Sie eine AutoSupport Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END