Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migration von CN1610-Cluster-Switches zu NVIDIA SN2100-Cluster-Switches

Beitragende netapp-yvonneo

Sie können NetApp CN1610 Cluster-Switches für einen ONTAP Cluster auf NVIDIA SN2100 Cluster-Switches migrieren. Dies ist ein unterbrechungsfreies Verfahren.

Überprüfungsanforderungen

Beim Austausch von NetApp CN1610 Cluster-Switches durch NVIDIA SN2100 Cluster-Switches müssen Sie bestimmte Konfigurationsinformationen, Portverbindungen und Verkabelungsanforderungen beachten. Sehen"Übersicht über Installation und Konfiguration von NVIDIA SN2100-Switches" .

Unterstützte Schalter

Folgende Cluster-Switches werden unterstützt:

  • NetApp CN1610

  • NVIDIA SN2100

Einzelheiten zu den unterstützten Ports und deren Konfigurationen finden Sie unter "Hardware Universe" Die

Bevor Sie beginnen

Bitte prüfen Sie, ob Ihre Konfiguration die folgenden Anforderungen erfüllt:

  • Der bestehende Cluster ist korrekt eingerichtet und funktioniert.

  • Alle Cluster-Ports befinden sich im Status up, um einen unterbrechungsfreien Betrieb zu gewährleisten.

  • Die NVIDIA SN2100 Cluster-Switches sind konfiguriert und arbeiten unter der korrekten Version von Cumulus Linux, auf der die Referenzkonfigurationsdatei (RCF) angewendet wurde.

  • Die bestehende Cluster-Netzwerkkonfiguration weist folgende Merkmale auf:

    • Ein redundanter und voll funktionsfähiger NetApp Cluster mit CN1610-Switches.

    • Management-Konnektivität und Konsolenzugriff sowohl auf die CN1610-Switches als auch auf die neuen Switches.

    • Alle Cluster-LIFs befinden sich im aktiven Zustand und sind an ihren Heimatports angeschlossen.

    • ISL-Ports wurden zwischen den CN1610-Switches und zwischen den neuen Switches aktiviert und verkabelt.

  • Einige der Ports sind auf NVIDIA SN2100 Switches für den Betrieb mit 40GbE oder 100GbE konfiguriert.

  • Sie haben die 40GbE- und 100GbE-Konnektivität von den Knoten zu den NVIDIA SN2100 Cluster-Switches geplant, migriert und dokumentiert.

Migrieren Sie die Schalter

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Schalter- und Knotennomenklatur:

  • Die vorhandenen CN1610 Cluster-Switches sind c1 und c2.

  • Die neuen NVIDIA SN2100 Cluster-Switches sind sw1 und sw2.

  • Die Knoten heißen node1 und node2.

  • Die Cluster-LIFs sind node1_clus1 und node1_clus2 auf Knoten 1 bzw. node2_clus1 und node2_clus2 auf Knoten 2.

  • Der cluster1::*> Die Eingabeaufforderung zeigt den Namen des Clusters an.

  • Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.

  • Breakout-Ports haben folgendes Format: swp[Port]s[Breakout-Port 0-3]. Beispielsweise gibt es vier Breakout-Ports auf swp1: swp1s0, swp1s1, swp1s2 und swp1s3.

Informationen zu diesem Vorgang

Dieses Verfahren umfasst folgendes Szenario:

  • Der Schalter c2 wird zuerst durch den Schalter sw2 ersetzt.

    • Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.

    • Die Verkabelung zwischen den Knoten und c2 wird dann von c2 getrennt und wieder mit sw2 verbunden.

  • Der Schalter c1 wird durch den Schalter sw1 ersetzt.

    • Schalten Sie die Ports zu den Clusterknoten ab. Um eine Instabilität des Clusters zu vermeiden, müssen alle Ports gleichzeitig abgeschaltet werden.

    • Die Verkabelung zwischen den Knoten und c1 wird dann von c1 getrennt und wieder mit sw1 verbunden.

Hinweis Während dieses Vorgangs ist kein betriebsbereiter Inter-Switch-Link (ISL) erforderlich. Dies ist beabsichtigt, da RCF-Versionsänderungen die ISL-Konnektivität vorübergehend beeinträchtigen können. Um einen unterbrechungsfreien Clusterbetrieb zu gewährleisten, migriert das folgende Verfahren alle Cluster-LIFs zum operativen Partner-Switch, während die Schritte auf dem Ziel-Switch ausgeführt werden.

Schritt 1: Vorbereitung auf die Migration

  1. Wenn AutoSupport auf diesem Cluster aktiviert ist, unterdrücken Sie die automatische Fallerstellung durch Aufruf einer AutoSupport -Nachricht:

    system node autosupport invoke -node * -type all -message MAINT=xh

    wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsstufe auf „Erweitert“, indem Sie y eingeben, wenn Sie zur Fortsetzung aufgefordert werden:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (*>) wird angezeigt.

  3. Automatische Wiederherstellung der Cluster-LIFs deaktivieren:

    network interface modify -vserver Cluster -lif * -auto-revert false

Schritt 2: Anschlüsse und Verkabelung konfigurieren

  1. Ermitteln Sie den administrativen oder operativen Status jeder Clusterschnittstelle.

    Jeder Port sollte angezeigt werden für Link Und healthy für Health Status Die

    1. Netzwerkportattribute anzeigen:

      network port show -ipspace Cluster

      Beispiel anzeigen
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
      
      Node: node2
                                                                             Ignore
                                                       Speed(Mbps)  Health   Health
      Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
      --------- ---------- ---------------- ---- ----- ------------ -------- ------
      e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
      e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    2. Informationen zu den LIFs und ihren jeweiligen Heimatknoten anzeigen:

      network interface show -vserver Cluster

      Jedes LIF sollte anzeigen up/up für Status Admin/Oper Und true für Is Home Die

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current     Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node        Port    Home
    ----------- -----------  ---------- ------------------ ----------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1       e3a     true
                node1_clus2  up/up      169.254.49.125/16  node1       e3b     true
                node2_clus1  up/up      169.254.47.194/16  node2       e3a     true
                node2_clus2  up/up      169.254.19.183/16  node2       e3b     true
  2. Die Cluster-Ports auf jedem Knoten werden (aus Sicht der Knoten) folgendermaßen mit vorhandenen Cluster-Switches verbunden:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /cdp
                e3a    c1 (6a:ad:4f:98:3b:3f)    0/1               -
                e3b    c2 (6a:ad:4f:98:4c:a4)    0/1               -
    node2      /cdp
                e3a    c1 (6a:ad:4f:98:3b:3f)    0/2               -
                e3b    c2 (6a:ad:4f:98:4c:a4)    0/2               -
  3. Die Cluster-Ports und Switches werden (aus Sicht der Switches) mit folgendem Befehl verbunden:

    show cdp neighbors

    Beispiel anzeigen
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 0/1           124     H          AFF-A400         e3a
    node2                 0/2           124     H          AFF-A400         e3a
    c2                    0/13          179     S I s      CN1610           0/13
    c2                    0/14          175     S I s      CN1610           0/14
    c2                    0/15          179     S I s      CN1610           0/15
    c2                    0/16          175     S I s      CN1610           0/16
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1                 0/1           124    H           AFF-A400         e3b
    node2                 0/2           124    H           AFF-A400         e3b
    c1                    0/13          175    S I s       CN1610           0/13
    c1                    0/14          175    S I s       CN1610           0/14
    c1                    0/15          175    S I s       CN1610           0/15
    c1                    0/16          175    S I s       CN1610           0/16
  4. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können die network interface check cluster-connectivity Befehl zum Starten einer Zugriffsprüfung für die Clusterkonnektivität und anschließenden Anzeigen der Details:

network interface check cluster-connectivity start`Und `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Vorgang ausführen. show Befehl zum Anzeigen der Details.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Alle ONTAP Versionen

Für alle ONTAP Versionen können Sie auch die cluster ping-cluster -node <name> Befehl zum Überprüfen der Verbindung:

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e3a
Cluster node1_clus2 169.254.49.125 node1     e3b
Cluster node2_clus1 169.254.47.194 node2     e3a
Cluster node2_clus2 169.254.19.183 node2     e3b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. Schalten Sie auf Switch c2 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.

    (c2)# configure
    (c2)(Config)# interface 0/1-0/12
    (c2)(Interface 0/1-0/12)# shutdown
    (c2)(Interface 0/1-0/12)# exit
    (c2)(Config)# exit
    (c2)#
  2. Verschieben Sie die Knotencluster-Ports vom alten Switch c2 auf den neuen Switch sw2 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.

  3. Netzwerkportattribute anzeigen:

    network port show -ipspace Cluster

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  4. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node1      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   0/1               -
                e3b    sw2 (b8:ce:f6:19:1a:7e)   swp3              -
    node2      /lldp
                e3a    c1  (6a:ad:4f:98:3b:3f)   0/2               -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4              -
  5. Überprüfen Sie an Switch sw2, ob alle Ports des Knotenclusters aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  6. Schalten Sie auf Switch c1 die mit den Cluster-Ports der Knoten verbundenen Ports ab, um ein Failover der Cluster-LIFs zu erzwingen.

    (c1)# configure
    (c1)(Config)# interface 0/1-0/12
    (c1)(Interface 0/1-0/12)# shutdown
    (c1)(Interface 0/1-0/12)# exit
    (c1)(Config)# exit
    (c1)#
  7. Verschieben Sie die Knotencluster-Ports vom alten Switch c1 auf den neuen Switch sw1 unter Verwendung geeigneter, von NVIDIA SN2100 unterstützter Kabel.

  8. Überprüfen Sie die endgültige Konfiguration des Clusters:

    network port show -ipspace Cluster

    Jeder Port sollte Folgendes anzeigen up für Link Und healthy für Health Status Die

    Beispiel anzeigen
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
    
    Node: node2
                                                                           Ignore
                                                     Speed(Mbps)  Health   Health
    Port      IPspace    Broadcast Domain Link MTU   Admin/Oper   Status   Status
    --------- ---------- ---------------- ---- ----- ------------ -------- ------
    e3a       Cluster    Cluster          up   9000  auto/100000  healthy  false
    e3b       Cluster    Cluster          up   9000  auto/100000  healthy  false
  9. Die Cluster-Ports auf jedem Knoten sind nun, aus Sicht der Knoten, folgendermaßen mit den Cluster-Switches verbunden:

    network device-discovery show -protocol

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface       Platform
    ----------- ------ ------------------------- --------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3            -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4            -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4            -
  10. Überprüfen Sie an den Switches sw1 und sw2, ob alle Ports des Knotenclusters aktiv sind:

    net show interface

    Beispiel anzeigen
    cumulus@sw1:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- ----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3a               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw2 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw2 (swp16)       Master: cluster_isl(UP)
    
    
    cumulus@sw2:~$ net show interface
    
    State  Name         Spd   MTU    Mode        LLDP              Summary
    -----  -----------  ----  -----  ----------  ----------------- -----------------------
    ...
    ...
    UP     swp3         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp4         100G  9216   Trunk/L2    e3b               Master: bridge(UP)
    UP     swp15        100G  9216   BondMember  sw1 (swp15)       Master: cluster_isl(UP)
    UP     swp16        100G  9216   BondMember  sw1 (swp16)       Master: cluster_isl(UP)
  11. Überprüfen Sie, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Beispiel anzeigen

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3a
    swp4       100G   Trunk/L2    node2               e3a
    swp15      100G   BondMember  sw2                 swp15
    swp16      100G   BondMember  sw2                 swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost          RemotePort
    ---------  -----  ----------  ------------------  -----------
    swp3       100G   Trunk/L2    node1               e3b
    swp4       100G   Trunk/L2    node2               e3b
    swp15      100G   BondMember  sw1                 swp15
    swp16      100G   BondMember  sw1                 swp16

Schritt 3: Konfiguration überprüfen

  1. Automatische Wiederherstellung der Cluster-LIFs aktivieren:

    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert true

  2. Auf Switch sw2 müssen alle Cluster-Ports heruntergefahren und neu gestartet werden, um eine automatische Rücksetzung aller Cluster-LIFs auszulösen, die sich nicht an ihren Home-Ports befinden.

Cumulus 4.4.3
cumulus@sw2:mgmt:~$ net add interface swp1-14 link down
cumulus@sw2:mgmt:~$ net pending
cumulus@sw2:mgmt:~$ net commit

(Wait for 5-10 seconds before re-enabling the ports)

cumulus@sw2:mgmt:~$ net add interface swp1-14 link up
cumulus@sw2:mgmt:~$ net pending
cumulus@sw2:mgmt:~$ net commit

(After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
Cumulus 5.x
cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state down
cumulus@sw2:mgmt:~$ nv config apply
cumulus@sw2:mgmt:~$ nv show interface

(Wait for 5-10 seconds before re-enabling the ports)

cumulus@sw2:mgmt:~$ nv set interface swp1-14 link state up
cumulus@sw2:mgmt:~$ nv config apply
cumulus@sw2:mgmt:~$ nv show interface

(After executing the link state up command, the nodes detect the change and begin to auto-revert the cluster LIFs to their home ports)
  1. Überprüfen Sie, ob die Cluster-LIFs wieder auf ihre ursprünglichen Ports zurückgekehrt sind (dies kann eine Minute dauern):

    network interface show -vserver Cluster

    Falls eine der Cluster-LIFs nicht auf ihren Heimatport zurückgesetzt wurde, setzen Sie sie manuell zurück. Sie müssen eine Verbindung zur jeweiligen Node-Management-LIF- oder SP/ BMC -Systemkonsole des lokalen Knotens herstellen, dem die LIF gehört:

    network interface revert -vserver Cluster -lif *

  2. Ändern Sie die Berechtigungsstufe wieder auf Administrator:

    set -privilege admin

  3. Wenn Sie die automatische Fallerstellung unterdrückt haben, können Sie sie durch Aufruf einer AutoSupport Nachricht wieder aktivieren:

    system node autosupport invoke -node * -type all -message MAINT=END

Wie geht es weiter?

Nach der Migration Ihrer Switches können Sie "Konfigurieren der Switch-Integritätsüberwachung"Die