Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie mit NVIDIA SN2100-Cluster-Switches zu einem Cluster mit zwei Nodes

Beitragende

Wenn Sie eine bestehende Cluster-Umgebung mit zwei Nodes ohne Switches nutzen, können Sie mit NVIDIA SN2100 Switches zu einer Switch-basierten Cluster-Umgebung mit zwei Nodes migrieren. So können Sie eine Skalierung über zwei Nodes im Cluster hinaus vornehmen.

Die von Ihnen verwendete Vorgehensweise hängt davon ab, ob Sie an jedem Controller zwei dedizierte Cluster-Netzwerk-Ports oder einen einzelnen Cluster-Port haben. Der dokumentierte Prozess funktioniert bei allen Knoten über optische oder Twinax-Ports, wird bei diesem Switch jedoch nicht unterstützt, wenn Knoten integrierte 10GBASE-T RJ45-Ports für die Cluster-Netzwerk-Ports verwenden.

Prüfen Sie die Anforderungen

Was Sie benötigen

Bei der Konfiguration mit zwei Nodes ohne Switches stellen Sie Folgendes sicher:

  • Die Konfiguration mit zwei Nodes ohne Switches ist ordnungsgemäß eingerichtet und funktionsfähig.

  • Auf den Knoten wird ONTAP 9.10.1P3 und höher ausgeführt.

  • Alle Cluster-Ports befinden sich im Status „up“.

  • Alle logischen Cluster-Schnittstellen (LIFs) befinden sich im up-Zustand und an ihren Home-Ports.

Stellen Sie bei der Konfiguration des NVIDIA SN2100-Cluster-Switches Folgendes sicher:

  • Beide Switches verfügen über Management-Netzwerk-Konnektivität.

  • Auf die Cluster-Switches kann über eine Konsole zugegriffen werden.

  • Bei NVIDIA SN2100, Node-to-Node-Switch und Switch-to-Switch-Verbindungen werden Twinax- oder Glasfaserkabel verwendet.

    Hinweis Siehe "Überlegungen zur Verkabelung und Konfiguration" Bei Einschränkungen und weiteren Details.

    Der "Hardware Universe – Switches" Enthält weitere Informationen zur Verkabelung.

  • Inter-Switch Link (ISL)-Kabel werden an die Anschlüsse swp15 und swp16 an beiden NVIDIA SN2100-Switches angeschlossen.

  • Die Erstanpassung der beiden SN2100-Switches erfolgt so:

    • SN2100-Switches führen die neueste Version von Cumulus Linux aus

    • Auf die Switches wurden Referenzkonfigurationsdateien (RCFs) angewendet

    • Auf den neuen Switches werden alle Site-Anpassungen wie SMTP, SNMP und SSH konfiguriert.

Migrieren Sie die Switches

Zu den Beispielen

In den Beispielen dieses Verfahrens wird die folgende Terminologie für Cluster-Switch und Node verwendet:

  • Die Namen der SN2100-Schalter lauten sw1 und sw2.

  • Die Namen der Cluster SVMs sind node1 und node2.

  • Die Namen der LIFs sind_node1_clus1_ und node1_clus2 auf Knoten 1, und node2_clus1 und node2_clus2 auf Knoten 2.

  • Der cluster1::*> Eine Eingabeaufforderung gibt den Namen des Clusters an.

  • Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.

  • Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.

    Der "Hardware Universe" Enthält die neuesten Informationen über die tatsächlichen Cluster-Ports für Ihre Plattformen.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all -message MAINT=xh

    Wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsebene in erweitert, indem Sie eingeben y Wenn Sie dazu aufgefordert werden, fortzufahren:

    set -privilege advanced

    Die erweiterte Eingabeaufforderung (`*>`Erscheint.

Schritt: Kabel und Ports konfigurieren

  1. Deaktivieren Sie alle Node-Ports (keine ISL-Ports) auf den neuen Cluster-Switches sw1 und sw2.

    Sie dürfen die ISL-Ports nicht deaktivieren.

    Beispiel anzeigen

    Mit den folgenden Befehlen werden die Knotenanschlüsse an den Switches sw1 und sw2 deaktiviert:

    cumulus@sw1:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
    
    cumulus@sw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw2:~$ net pending
    cumulus@sw2:~$ net commit
  2. Stellen Sie sicher, dass sich die ISL und die physischen Ports auf der ISL zwischen den beiden SN2100-Switches sw1 und sw2 auf den Ports swp15 und swp16 befinden:

    net show interface

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass die ISL-Ports auf Switch sw1 aufstehen:

    cumulus@sw1:~$ net show interface
    
    State  Name       Spd   MTU    Mode        LLDP         Summary
    -----  ---------  ----  -----  ----------  -----------  -----------------------
    ...
    ...
    UP     swp15      100G  9216   BondMember  sw2 (swp15)  Master: cluster_isl(UP)
    UP     swp16      100G  9216   BondMember  sw2 (swp16)  Master: cluster_isl(UP)

    + das folgende Beispiel zeigt, dass die ISL-Ports auf Switch sw2 aktiviert sind:

    +

    cumulus@sw2:~$ net show interface
    
    State  Name       Spd   MTU    Mode        LLDP         Summary
    -----  ---------  ----  -----  ----------  -----------  -----------------------
    ...
    ...
    UP     swp15      100G  9216   BondMember  sw1 (swp15)  Master: cluster_isl(UP)
    UP     swp16      100G  9216   BondMember  sw1 (swp16)  Master: cluster_isl(UP)
  3. Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:

    network port show

    Jeder Port sollte für angezeigt werden Link Und gesund für Health Status.

    Beispiel anzeigen
    cluster1::*> network port show
    
    Node: node1
    
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
    
    Node: node2
    
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
  4. Vergewissern Sie sich, dass alle Cluster-LIFs betriebsbereit sind und betriebsbereit sind:

    network interface show

    Jede LIF im Cluster sollte für „true“ anzeigen Is Home Und ich habe ein Status Admin/Oper Von up/Up

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- -----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  5. Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    network interface modify -vserver Cluster -lif * -auto-revert false

    Beispiel anzeigen
    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   false
              node1_clus2   false
              node2_clus1   false
              node2_clus2   false
  6. Trennen Sie das Kabel vom Cluster-Port e3a auf node1, und verbinden sie dann e3a mit Port 3 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

    Der "Hardware Universe – Switches" Enthält weitere Informationen zur Verkabelung.

  7. Trennen Sie das Kabel vom Cluster-Port e3a auf node2, und verbinden sie dann e3a mit Port 4 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

  8. Aktivieren Sie bei Switch sw1 alle Anschlüsse, die nach Knoten ausgerichtet sind.

    Beispiel anzeigen

    Mit dem folgenden Befehl werden alle Knotenpunkte auf Switch sw1 aktiviert:

    cumulus@sw1:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  9. Stellen Sie am Switch sw1 sicher, dass alle Anschlüsse aktiv sind:

    net show interface all

    Beispiel anzeigen
    cumulus@sw1:~$ net show interface all
    
    State  Name      Spd   MTU    Mode       LLDP            Summary
    -----  --------- ----  -----  ---------- --------------- --------
    ...
    DN     swp1s0    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s1    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s2    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s3    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s0    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s1    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s2    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s3    25G   9216   Trunk/L2                   Master: br_default(UP)
    UP     swp3      100G  9216   Trunk/L2    node1 (e3a)    Master: br_default(UP)
    UP     swp4      100G  9216   Trunk/L2    node2 (e3a)    Master: br_default(UP)
    ...
    ...
    UP     swp15     100G  9216   BondMember  swp15          Master: cluster_isl(UP)
    UP     swp16     100G  9216   BondMember  swp16          Master: cluster_isl(UP)
    ...
  10. Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:

    network port show -ipspace Cluster

    Beispiel anzeigen

    Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
    
    Node: node2
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
  11. Informationen zum Status der Nodes im Cluster anzeigen:

    cluster show

    Beispiel anzeigen

    Im folgenden Beispiel werden Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster angezeigt:

    cluster1::*> cluster show
    
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
  12. Trennen Sie das Kabel vom Cluster-Port e3b auf node1, und verbinden sie e3b mit Port 3 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

  13. Trennen Sie das Kabel vom Cluster-Port e3b auf node2, und verbinden sie e3b mit Port 4 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

  14. Aktivieren Sie am Switch sw2 alle Anschlüsse für Knoten.

    Beispiel anzeigen

    Mit den folgenden Befehlen werden die Node-Ports am Switch sw2 aktiviert:

    cumulus@sw2:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw2:~$ net pending
    cumulus@sw2:~$ net commit
  15. Stellen Sie beim Switch sw2 sicher, dass alle Ports aktiviert sind:

    net show interface all

    Beispiel anzeigen
    cumulus@sw2:~$ net show interface all
    
    State  Name      Spd   MTU    Mode       LLDP            Summary
    -----  --------- ----  -----  ---------- --------------- --------
    ...
    DN     swp1s0    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s1    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s2    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s3    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s0    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s1    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s2    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s3    25G   9216   Trunk/L2                   Master: br_default(UP)
    UP     swp3      100G  9216   Trunk/L2    node1 (e3b)    Master: br_default(UP)
    UP     swp4      100G  9216   Trunk/L2    node2 (e3b)    Master: br_default(UP)
    ...
    ...
    UP     swp15     100G  9216   BondMember  swp15          Master: cluster_isl(UP)
    UP     swp16     100G  9216   BondMember  swp16          Master: cluster_isl(UP)
    ...
  16. Vergewissern Sie sich bei beiden Schaltern sw1 und sw2, dass beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Beispiel anzeigen

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter sw1 und sw2:

    cumulus@sw1:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3a
    swp4       100G   Trunk/L2    node2              e3a
    swp15      100G   BondMember  sw2                swp15
    swp16      100G   BondMember  sw2                swp16
    
    cumulus@sw2:~$ net show lldp
    
    LocalPort  Speed  Mode        RemoteHost         RemotePort
    ---------  -----  ----------  -----------------  -----------
    swp3       100G   Trunk/L2    node1              e3b
    swp4       100G   Trunk/L2    node2              e3b
    swp15      100G   BondMember  sw1                swp15
    swp16      100G   BondMember  sw1                swp16

Schritt 3: Führen Sie den Vorgang durch

  1. Zeigen Sie Informationen zu den erkannten Netzwerkgeräten im Cluster an:

    net device-discovery show -protocol lldp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -
  2. Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:

    network port show -ipspace Cluster

    Beispiel anzeigen

    Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e3a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    Node: node2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e3a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/10000 healthy  false
  3. Aktivieren Sie das automatische Zurücksetzen auf allen Cluster-LIFs:

    net interface modify -vserver Cluster -lif * -auto-revert true

    Beispiel anzeigen
    cluster1::*> net interface modify -vserver Cluster -lif * -auto-revert true
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   true
              node1_clus2   true
              node2_clus1   true
              node2_clus2   true
  4. Vergewissern Sie sich, dass alle Schnittstellen für „true“ anzeigen Is Home:

    net interface show -vserver Cluster

    Hinweis Dies kann eine Minute dauern.
    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass alle LIFs auf node1 und node2 liegen und dass Is Home Die Ergebnisse sind wahr:

    cluster1::*> net interface show -vserver Cluster
    
              Logical      Status     Network            Current    Current Is
    Vserver   Interface    Admin/Oper Address/Mask       Node       Port    Home
    --------- ------------ ---------- ------------------ ---------- ------- ----
    Cluster
              node1_clus1  up/up      169.254.209.69/16  node1      e3a     true
              node1_clus2  up/up      169.254.49.125/16  node1      e3b     true
              node2_clus1  up/up      169.254.47.194/16  node2      e3a     true
              node2_clus2  up/up      169.254.19.183/16  node2      e3b     true
  5. Vergewissern Sie sich, dass die Einstellungen deaktiviert sind:

    network options switchless-cluster show

    Beispiel anzeigen

    Die falsche Ausgabe im folgenden Beispiel zeigt an, dass die Konfigurationseinstellungen deaktiviert sind:

    cluster1::*> network options switchless-cluster show
    Enable Switchless Cluster: false
  6. Überprüfen Sie den Status der Node-Mitglieder im Cluster:

    cluster show

    Beispiel anzeigen

    Das folgende Beispiel zeigt Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster:

    cluster1::*> cluster show
    
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  --------
    node1                true    true          false
    node2                true    true          false
  7. Stellen Sie sicher, dass das Clusternetzwerk über vollständige Konnektivität verfügt:

    cluster ping-cluster -node node-name

    Beispiel anzeigen
    cluster1::*> cluster ping-cluster -node node1
    Host is node1
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.209.69 node1 e3a
    Cluster node1_clus2 169.254.49.125 node1 e3b
    Cluster node2_clus1 169.254.47.194 node2 e3a
    Cluster node2_clus2 169.254.19.183 node2 e3b
    Local = 169.254.47.194 169.254.19.183
    Remote = 169.254.209.69 169.254.49.125
    Cluster Vserver Id = 4294967293
    Ping status:
    
    Basic connectivity succeeds on 4 path(s)
    Basic connectivity fails on 0 path(s)
    
    Detected 9000 byte MTU on 4 path(s):
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)
  8. Aktivieren Sie die Protokollerfassungsfunktion für die Ethernet Switch-Systemzustandsüberwachung mithilfe der Befehle, um Switch-bezogene Protokolldateien zu erfassen:

    system switch ethernet log setup-password Und system switch ethernet log enable-collection

    Geben Sie Ein: system switch ethernet log setup-password

    Beispiel anzeigen
    cluster1::*> system switch ethernet log setup-password
    Enter the switch name: <return>
    The switch name entered is not recognized.
    Choose from the following list:
    sw1
    sw2
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: sw1
    RSA key fingerprint is e5:8b:c6:dc:e2:18:18:09:36:63:d9:63:dd:03:d9:cc
    Do you want to continue? {y|n}::[n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: sw2
    RSA key fingerprint is 57:49:86:a1:b9:80:6a:61:9a:86:8e:3c:e3:b7:1f:b1
    Do you want to continue? {y|n}:: [n] y
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>

    Gefolgt von:

    system switch ethernet log enable-collection

    Beispiel anzeigen
    cluster1::*> system switch ethernet log enable-collection
    
    Do you want to enable cluster log collection for all nodes in the cluster?
    {y|n}: [n] y
    
    Enabling cluster switch log collection.
    
    cluster1::*>
    Hinweis Wenn einer dieser Befehle einen Fehler sendet, wenden Sie sich an den NetApp Support.
  9. Initiieren der Switch-Protokollerfassung:

    system switch ethernet log collect -device *

    Warten Sie 10 Minuten, und überprüfen Sie dann, ob die Protokollsammlung erfolgreich war mit dem folgenden Befehl:

    system switch ethernet log show

    Beispiel anzeigen
    cluster1::*> system switch ethernet log show
    Log Collection Enabled: true
    
    Index  Switch                       Log Timestamp        Status
    ------ ---------------------------- -------------------  ---------    
    1      sw1 (b8:ce:f6:19:1b:42)      4/29/2022 03:05:25   complete   
    2      sw2 (b8:ce:f6:19:1b:96)      4/29/2022 03:07:42   complete
  10. Ändern Sie die Berechtigungsebene zurück in den Administrator:

    set -privilege admin

  11. Wenn Sie die automatische Erstellung eines Cases unterdrückten, können Sie sie erneut aktivieren, indem Sie eine AutoSupport Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END