Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie mit NVIDIA SN2100-Cluster-Switches zu einem Cluster mit zwei Nodes

Beitragende

Wenn Sie eine bestehende Cluster-Umgebung mit zwei Nodes ohne Switches nutzen, können Sie mit NVIDIA SN2100 Switches zu einer Switch-basierten Cluster-Umgebung mit zwei Nodes migrieren. So können Sie eine Skalierung über zwei Nodes im Cluster hinaus vornehmen.

Die von Ihnen verwendete Vorgehensweise hängt davon ab, ob Sie an jedem Controller zwei dedizierte Cluster-Netzwerk-Ports oder einen einzelnen Cluster-Port haben. Der dokumentierte Prozess funktioniert bei allen Knoten über optische oder Twinax-Ports, wird bei diesem Switch jedoch nicht unterstützt, wenn Knoten integrierte 10GBASE-T RJ45-Ports für die Cluster-Netzwerk-Ports verwenden.

Prüfen Sie die Anforderungen

Konfiguration mit zwei Nodes ohne Switches

Stellen Sie sicher, dass:

  • Die Konfiguration mit zwei Nodes ohne Switches ist ordnungsgemäß eingerichtet und funktionsfähig.

  • Auf den Knoten wird ONTAP 9.10.1P3 und höher ausgeführt.

  • Alle Cluster-Ports haben den Status up.

  • Alle logischen Cluster-Schnittstellen (LIFs) befinden sich im up-Zustand und auf ihren Home-Ports.

Konfiguration des NVIDIA SN2100-Cluster-Switches

Stellen Sie sicher, dass:

  • Beide Switches verfügen über Management-Netzwerk-Konnektivität.

  • Auf die Cluster-Switches kann über eine Konsole zugegriffen werden.

  • Bei NVIDIA SN2100, Node-to-Node-Switch und Switch-to-Switch-Verbindungen werden Twinax- oder Glasfaserkabel verwendet.

    Wichtig Siehe "Prüfen Sie die Verkabelung und Konfigurationsüberlegungen" Bei Einschränkungen und weiteren Details. Der "Hardware Universe – Switches" Enthält auch weitere Informationen über Verkabelung.
  • Inter-Switch Link (ISL)-Kabel werden an die Anschlüsse swp15 und swp16 an beiden NVIDIA SN2100-Switches angeschlossen.

  • Die Erstanpassung der beiden SN2100-Switches erfolgt so:

    • SN2100-Switches führen die neueste Version von Cumulus Linux aus

    • Auf die Switches werden Referenzkonfigurationsdateien (RCFs) angewendet

    • Auf den neuen Switches werden alle Site-Anpassungen wie SMTP, SNMP und SSH konfiguriert.

      Der "Hardware Universe" Enthält die neuesten Informationen über die tatsächlichen Cluster-Ports für Ihre Plattformen.

Migrieren Sie die Switches

Zu den Beispielen

In den Beispielen dieses Verfahrens wird die folgende Terminologie für Cluster-Switch und Node verwendet:

  • Die Namen der SN2100-Schalter lauten sw1 und sw2.

  • Die Namen der Cluster SVMs sind node1 und node2.

  • Die Namen der LIFs sind_node1_clus1_ und node1_clus2 auf Knoten 1, und node2_clus1 und node2_clus2 auf Knoten 2.

  • Der cluster1::*> Eine Eingabeaufforderung gibt den Namen des Clusters an.

  • Die in diesem Verfahren verwendeten Cluster-Ports sind e3a und e3b.

  • Breakout-Ports haben das Format swp[Port]s[Breakout-Port 0-3]. Beispielsweise sind vier Breakout-Ports auf swp1 swp1s0, swp1s1, swp1s2 und swp1s3.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung: system node autosupport invoke -node * -type all -message MAINT=xh

    Wobei x die Dauer des Wartungsfensters in Stunden ist.

  2. Ändern Sie die Berechtigungsebene in erweitert, indem Sie eingeben y Wenn Sie dazu aufgefordert werden, fortzufahren: set -privilege advanced

    Die erweiterte Eingabeaufforderung (`*>`Erscheint.

Schritt: Ports und Verkabelung konfigurieren

Cumulus Linux 4.4.x
  1. Deaktivieren Sie alle Node-Ports (keine ISL-Ports) auf den neuen Cluster-Switches sw1 und sw2.

    Sie dürfen die ISL-Ports nicht deaktivieren.

    Mit den folgenden Befehlen werden die Knotenanschlüsse an den Switches sw1 und sw2 deaktiviert:

    cumulus@sw1:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
    
    cumulus@sw2:~$ net add interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw2:~$ net pending
    cumulus@sw2:~$ net commit
  2. Stellen Sie sicher, dass sich die ISL und die physischen Ports auf der ISL zwischen den beiden SN2100-Switches sw1 und sw2 auf den Ports swp15 und swp16 befinden:

    net show interface

    Die folgenden Befehle zeigen, dass die ISL-Ports bei den Switches sw1 und sw2 aktiviert sind:

    cumulus@sw1:~$ net show interface
    
    State  Name       Spd   MTU    Mode        LLDP         Summary
    -----  ---------  ----  -----  ----------  -----------  -----------------------
    ...
    ...
    UP     swp15      100G  9216   BondMember  sw2 (swp15)  Master: cluster_isl(UP)
    UP     swp16      100G  9216   BondMember  sw2 (swp16)  Master: cluster_isl(UP)
    
    cumulus@sw2:~$ net show interface
    
    State  Name       Spd   MTU    Mode        LLDP         Summary
    -----  ---------  ----  -----  ----------  -----------  -----------------------
    ...
    ...
    UP     swp15      100G  9216   BondMember  sw1 (swp15)  Master: cluster_isl(UP)
    UP     swp16      100G  9216   BondMember  sw1 (swp16)  Master: cluster_isl(UP)
Cumulus Linux 5.x
  1. Deaktivieren Sie alle an den Node ausgerichteten Ports (nicht ISL-Ports) auf den neuen Cluster-Switches sw1 und sw2.

    Sie dürfen die ISL-Ports nicht deaktivieren.

    Mit den folgenden Befehlen werden die Knotenanschlüsse an den Switches sw1 und sw2 deaktiviert:

    cumulus@sw1:~$ nv set interface swp1s0-3,swp2s0-3,swp3-14 link state down
    cumulus@sw1:~$ nv config apply
    cumulus@sw1:~$ nv save
    
    cumulus@sw2:~$ nv set interface swp1s0-3,swp2s0-3,swp3-14 link state down
    cumulus@sw2:~$ nv config apply
    cumulus@sw2:~$ nv save
  2. Stellen Sie sicher, dass sich die ISL und die physischen Ports auf der ISL zwischen den beiden SN2100-Switches sw1 und sw2 auf den Ports swp15 und swp16 befinden:

    nv show interface

    Die folgenden Beispiele zeigen, dass die ISL-Ports auf den Switches sw1 und sw2 aktiviert sind:

    cumulus@sw1:~$ nv show interface
    
    Interface     MTU    Speed  State  Remote Host  Remote Port                          Type    Summary
    ------------- ------ -----  ------ ------------ ------------------------------------ ------- -------
    ...
    ...
    + swp14       9216          down                                                     swp
    + swp15       9216   100G   up     ossg-rcf1    Intra-Cluster Switch ISL Port swp15  swp
    + swp16       9216   100G   up     ossg-rcf2    Intra-Cluster Switch ISL Port swp16  swp
    
    
    cumulus@sw2:~$ nv show interface
    
    Interface     MTU    Speed  State  Remote Host  Remote Port                          Type    Summary
    ------------- ------ -----  ------ ------------ ------------------------------------ ------- -------
    ...
    ...
    + swp14       9216          down                                                     swp
    + swp15       9216   100G   up     ossg-rcf1    Intra-Cluster Switch ISL Port swp15  swp
    + swp16       9216   100G   up     ossg-rcf2    Intra-Cluster Switch ISL Port swp16  swp
  1. Überprüfen Sie, ob alle Cluster-Ports hochgefahren sind:

    network port show

    Jeder Port sollte angezeigt werden up Für Link Und gesund für Health Status.

    Beispiel anzeigen
    cluster1::*> network port show
    
    Node: node1
    
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
    
    Node: node2
    
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
  2. Vergewissern Sie sich, dass alle Cluster-LIFs betriebsbereit sind und betriebsbereit sind:

    network interface show

    Jede LIF im Cluster sollte für „true“ anzeigen Is Home Und ich habe ein Status Admin/Oper Von up/up.

    Beispiel anzeigen
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- -----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e3a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e3b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e3a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e3b     true
  3. Deaktivieren Sie die automatische Zurücksetzung auf den Cluster-LIFs:

    network interface modify -vserver Cluster -lif * -auto-revert false

    Beispiel anzeigen
    cluster1::*> network interface modify -vserver Cluster -lif * -auto-revert false
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   false
              node1_clus2   false
              node2_clus1   false
              node2_clus2   false
  4. Trennen Sie das Kabel vom Cluster-Port e3a auf node1, und verbinden sie dann e3a mit Port 3 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

    Der "Hardware Universe – Switches" Enthält weitere Informationen zur Verkabelung.

  5. Trennen Sie das Kabel vom Cluster-Port e3a auf node2, und verbinden sie dann e3a mit Port 4 am Cluster-Switch sw1. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

Cumulus Linux 4.4.x
  1. bei Switch sw1 aktivieren Sie alle nach Knoten gerichteten Ports.

    Mit den folgenden Befehlen werden alle an den Knoten ausgerichteten Ports auf Switch sw1 aktiviert.

    cumulus@sw1:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw1:~$ net pending
    cumulus@sw1:~$ net commit
  2. bei Switch sw1 überprüfen Sie, ob alle Ports aktiviert sind:

    net show interface all

    cumulus@sw1:~$ net show interface all
    
    State  Name      Spd   MTU    Mode       LLDP            Summary
    -----  --------- ----  -----  ---------- --------------- --------
    ...
    DN     swp1s0    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s1    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s2    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s3    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s0    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s1    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s2    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s3    25G   9216   Trunk/L2                   Master: br_default(UP)
    UP     swp3      100G  9216   Trunk/L2    node1 (e3a)    Master: br_default(UP)
    UP     swp4      100G  9216   Trunk/L2    node2 (e3a)    Master: br_default(UP)
    ...
    ...
    UP     swp15     100G  9216   BondMember  swp15          Master: cluster_isl(UP)
    UP     swp16     100G  9216   BondMember  swp16          Master: cluster_isl(UP)
    ...
Cumulus Linux 5.x
  1. bei Switch sw1 aktivieren Sie alle nach Knoten gerichteten Ports.

    Mit den folgenden Befehlen werden alle an den Knoten ausgerichteten Ports auf Switch sw1 aktiviert.

    cumulus@sw1:~$ nv unset interface swp1s0-3,swp2s0-3,swp3-14 link state down
    cumulus@sw1:~$ nv config apply
    cumulus@sw1:~$ nv config save
  2. bei Switch sw1 überprüfen Sie, ob alle Ports aktiviert sind:

    nv show interface

    cumulus@sw1:~$ nv show interface
    
    Interface    State  Speed  MTU    Type      Remote Host                 Remote Port  Summary
    -----------  -----  -----  -----  --------  --------------------------  -----------  ----------
    ...
    ...
    swp1s0       up     10G    9216   swp       odq-a300-1a                         e0a
    swp1s1       up     10G    9216   swp       odq-a300-1b                         e0a
    swp1s2       down   10G    9216   swp
    swp1s3       down   10G    9216   swp
    swp2s0       down   25G    9216   swp
    swp2s1       down   25G    9216   swp
    swp2s2       down   25G    9216   swp
    swp2s3       down   25G    9216   swp
    swp3         down          9216   swp
    swp4         down          9216   swp
    ...
    ...
    swp14        down          9216   swp
    swp15        up     100G   9216   swp       ossg-int-rcf10                    swp15
    swp16        up     100G   9216   swp       ossg-int-rcf10                    swp16
  1. Überprüfen Sie, ob alle Cluster-Ports hochgefahren sind:

    network port show -ipspace Cluster

    Beispiel anzeigen

    Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
    
    Node: node2
                                                                            Ignore
                                                      Speed(Mbps)  Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper   Status   Status
    --------- ------------ ---------------- ---- ---- ------------ -------- ------
    e3a       Cluster      Cluster          up   9000  auto/100000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/100000 healthy  false
  2. Informationen zum Status der Nodes im Cluster anzeigen:

    cluster show

    Beispiel anzeigen

    Im folgenden Beispiel werden Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster angezeigt:

    cluster1::*> cluster show
    
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  ------------
    node1                true    true          false
    node2                true    true          false
  3. Trennen Sie das Kabel vom Cluster-Port e3b auf node1, und verbinden sie e3b mit Port 3 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

  4. Trennen Sie das Kabel vom Cluster-Port e3b auf node2, und verbinden sie e3b mit Port 4 am Cluster-Switch sw2. Verwenden Sie dazu die geeignete Verkabelung, die von den SN2100-Switches unterstützt wird.

Cumulus Linux 4.4.x
  1. aktivieren Sie auf Switch sw2 alle nach Knoten gerichteten Ports.

    Mit den folgenden Befehlen werden die Node-Ports am Switch sw2 aktiviert:

    cumulus@sw2:~$ net del interface swp1s0-3, swp2s0-3, swp3-14 link down
    cumulus@sw2:~$ net pending
    cumulus@sw2:~$ net commit
  2. bei Switch sw2 überprüfen Sie, ob alle Ports aktiviert sind:

    net show interface all

    cumulus@sw2:~$ net show interface all
    
    State  Name      Spd   MTU    Mode       LLDP            Summary
    -----  --------- ----  -----  ---------- --------------- --------
    ...
    DN     swp1s0    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s1    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s2    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp1s3    10G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s0    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s1    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s2    25G   9216   Trunk/L2                   Master: br_default(UP)
    DN     swp2s3    25G   9216   Trunk/L2                   Master: br_default(UP)
    UP     swp3      100G  9216   Trunk/L2    node1 (e3b)    Master: br_default(UP)
    UP     swp4      100G  9216   Trunk/L2    node2 (e3b)    Master: br_default(UP)
    ...
    ...
    UP     swp15     100G  9216   BondMember  swp15          Master: cluster_isl(UP)
    UP     swp16     100G  9216   BondMember  swp16          Master: cluster_isl(UP)
    ...
  3. Überprüfen Sie bei beiden Switches sw1 und sw2, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    net show lldp

    Das folgende Beispiel zeigt die entsprechenden Ergebnisse für beide Schalter sw1 und sw2:

cumulus@sw1:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    node1              e3a
swp4       100G   Trunk/L2    node2              e3a
swp15      100G   BondMember  sw2                swp15
swp16      100G   BondMember  sw2                swp16

cumulus@sw2:~$ net show lldp

LocalPort  Speed  Mode        RemoteHost         RemotePort
---------  -----  ----------  -----------------  -----------
swp3       100G   Trunk/L2    node1              e3b
swp4       100G   Trunk/L2    node2              e3b
swp15      100G   BondMember  sw1                swp15
swp16      100G   BondMember  sw1                swp16
Cumulus Linux 5.x
  1. aktivieren Sie auf Switch sw2 alle nach Knoten gerichteten Ports.

    Mit den folgenden Befehlen werden die Node-Ports am Switch sw2 aktiviert:

    cumulus@sw2:~$ nv unset interface swp1s0-3,swp2s0-3,swp3-14 link state down
    cumulus@sw2:~$ nv config apply
    cumulus@sw2:~$ nv config save
  2. bei Switch sw2 überprüfen Sie, ob alle Ports aktiviert sind:

    nv show interface

    cumulus@sw2:~$ nv show interface
    
    Interface    State  Speed  MTU    Type      Remote Host                 Remote Port  Summary
    -----------  -----  -----  -----  --------  --------------------------  -----------  ----------
    ...
    ...
    swp1s0       up     10G    9216   swp       odq-a300-1a                         e0a
    swp1s1       up     10G    9216   swp       odq-a300-1b                         e0a
    swp1s2       down   10G    9216   swp
    swp1s3       down   10G    9216   swp
    swp2s0       down   25G    9216   swp
    swp2s1       down   25G    9216   swp
    swp2s2       down   25G    9216   swp
    swp2s3       down   25G    9216   swp
    swp3         down          9216   swp
    swp4         down          9216   swp
    ...
    ...
    swp14        down          9216   swp
    swp15        up     100G   9216   swp       ossg-int-rcf10                    swp15
    swp16        up     100G   9216   swp       ossg-int-rcf10                    swp16
  3. Überprüfen Sie bei beiden Switches sw1 und sw2, ob beide Knoten jeweils eine Verbindung zu jedem Switch haben:

    nv show interface --view=lldp

    Die folgenden Beispiele zeigen die entsprechenden Ergebnisse für beide Schalter sw1 und sw2:

    cumulus@sw1:~$ nv show interface --view=lldp
    
    Interface    Speed  Type      Remote Host                         Remote Port
    -----------  -----  --------  ----------------------------------  -----------
    ...
    ...
    swp1s0       10G    swp       odq-a300-1a                         e0a
    swp1s1       10G    swp       odq-a300-1b                         e0a
    swp1s2       10G    swp
    swp1s3       10G    swp
    swp2s0       25G    swp
    swp2s1       25G    swp
    swp2s2       25G    swp
    swp2s3       25G    swp
    swp3                swp
    swp4                swp
    ...
    ...
    swp14               swp
    swp15        100G   swp       ossg-int-rcf10                      swp15
    swp16        100G   swp       ossg-int-rcf10                      swp16
    
    cumulus@sw2:~$ nv show interface --view=lldp
    
    Interface    Speed  Type      Remote Host                         Remote Port
    -----------  -----  --------  ----------------------------------  -----------
    ...
    ...
    swp1s0       10G    swp       odq-a300-1a                         e0a
    swp1s1       10G    swp       odq-a300-1b                         e0a
    swp1s2       10G    swp
    swp1s3       10G    swp
    swp2s0       25G    swp
    swp2s1       25G    swp
    swp2s2       25G    swp
    swp2s3       25G    swp
    swp3                swp
    swp4                swp
    ...
    ...
    swp14               swp
    swp15        100G   swp       ossg-int-rcf10                      swp15
    swp16        100G   swp       ossg-int-rcf10                      swp16
  1. zeigt Informationen über die erkannten Netzwerkgeräte im Cluster an:

    network device-discovery show -protocol lldp

    Beispiel anzeigen
    cluster1::*> network device-discovery show -protocol lldp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface     Platform
    ----------- ------ ------------------------- ------------  ----------------
    node1      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp3          -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp3          -
    node2      /lldp
                e3a    sw1 (b8:ce:f6:19:1a:7e)   swp4          -
                e3b    sw2 (b8:ce:f6:19:1b:96)   swp4          -
  2. Vergewissern Sie sich, dass alle Cluster-Ports aktiv sind:

    network port show -ipspace Cluster

    Beispiel anzeigen

    Im folgenden Beispiel werden alle Cluster-Ports auf node1 und node2 angezeigt:

    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e3a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    Node: node2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e3a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e3b       Cluster      Cluster          up   9000  auto/10000 healthy  false

Schritt 3: Führen Sie den Vorgang durch

  1. Aktivieren Sie das automatische Zurücksetzen auf allen Cluster-LIFs:

    net interface modify -vserver Cluster -lif * -auto-revert true

    Beispiel anzeigen
    cluster1::*> net interface modify -vserver Cluster -lif * -auto-revert true
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   true
              node1_clus2   true
              node2_clus1   true
              node2_clus2   true
  2. Vergewissern Sie sich, dass alle Schnittstellen angezeigt werden true Für Is Home:

    net interface show -vserver Cluster

    Hinweis Dies kann eine Minute dauern.
    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass alle LIFs auf node1 und node2 liegen und dass Is Home Die Ergebnisse sind wahr:

    cluster1::*> net interface show -vserver Cluster
    
              Logical      Status     Network            Current    Current Is
    Vserver   Interface    Admin/Oper Address/Mask       Node       Port    Home
    --------- ------------ ---------- ------------------ ---------- ------- ----
    Cluster
              node1_clus1  up/up      169.254.209.69/16  node1      e3a     true
              node1_clus2  up/up      169.254.49.125/16  node1      e3b     true
              node2_clus1  up/up      169.254.47.194/16  node2      e3a     true
              node2_clus2  up/up      169.254.19.183/16  node2      e3b     true
  3. Vergewissern Sie sich, dass die Einstellungen deaktiviert sind:

    network options switchless-cluster show

    Beispiel anzeigen

    Die falsche Ausgabe im folgenden Beispiel zeigt an, dass die Konfigurationseinstellungen deaktiviert sind:

    cluster1::*> network options switchless-cluster show
    Enable Switchless Cluster: false
  4. Überprüfen Sie den Status der Node-Mitglieder im Cluster:

    cluster show

    Beispiel anzeigen

    Das folgende Beispiel zeigt Informationen über den Systemzustand und die Berechtigung der Nodes im Cluster:

    cluster1::*> cluster show
    
    Node                 Health  Eligibility   Epsilon
    -------------------- ------- ------------  --------
    node1                true    true          false
    node2                true    true          false
  5. Vergewissern Sie sich, dass das Cluster-Netzwerk über vollständige Konnektivität verfügt:

    cluster ping-cluster -node node-name

    Beispiel anzeigen
    cluster1::*> cluster ping-cluster -node node1
    Host is node1
    Getting addresses from network interface table...
    Cluster node1_clus1 169.254.209.69 node1 e3a
    Cluster node1_clus2 169.254.49.125 node1 e3b
    Cluster node2_clus1 169.254.47.194 node2 e3a
    Cluster node2_clus2 169.254.19.183 node2 e3b
    Local = 169.254.47.194 169.254.19.183
    Remote = 169.254.209.69 169.254.49.125
    Cluster Vserver Id = 4294967293
    Ping status:
    
    Basic connectivity succeeds on 4 path(s)
    Basic connectivity fails on 0 path(s)
    
    Detected 9000 byte MTU on 4 path(s):
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Larger than PMTU communication succeeds on 4 path(s)
    RPC status:
    2 paths up, 0 paths down (tcp check)
    2 paths up, 0 paths down (udp check)
  6. Führen Sie zum Einrichten der Protokollsammlung den folgenden Befehl für jeden Switch aus. Sie werden aufgefordert, den Switch-Namen, den Benutzernamen und das Kennwort für die Protokollerfassung einzugeben.

    system switch ethernet log setup-password

    Beispiel anzeigen
    cluster1::*> system switch ethernet log setup-password
    Enter the switch name: <return>
    The switch name entered is not recognized.
    Choose from the following list:
    cs1
    cs2
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: cs1
    Would you like to specify a user other than admin for log collection? {y|n}: n
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
    
    cluster1::*> system switch ethernet log setup-password
    
    Enter the switch name: cs2
    Would you like to specify a user other than admin for log collection? {y|n}: n
    
    Enter the password: <enter switch password>
    Enter the password again: <enter switch password>
  7. Führen Sie zum Starten der Protokollerfassung den folgenden Befehl aus, um das GERÄT durch den im vorherigen Befehl verwendeten Switch zu ersetzen. Damit werden beide Arten der Log-Erfassung gestartet: Die detaillierten Support-Protokolle und eine stündliche Erfassung von Periodic-Daten.

    system switch ethernet log modify -device <switch-name> -log-request true

    Beispiel anzeigen
    cluster1::*> system switch ethernet log modify -device sw1 -log-request true
    
    Do you want to modify the cluster switch log collection configuration? {y|n}: [n] y
    
    Enabling cluster switch log collection.
    
    cluster1::*> system switch ethernet log modify -device sw2 -log-request true
    
    Do you want to modify the cluster switch log collection configuration? {y|n}: [n] y
    
    Enabling cluster switch log collection.

    Warten Sie 10 Minuten, und überprüfen Sie dann, ob die Protokollsammlung abgeschlossen ist:

    system switch ethernet log show

    Beispiel anzeigen
    cluster1::*> system switch ethernet log show
    Log Collection Enabled: true
    
    Index  Switch                       Log Timestamp        Status
    ------ ---------------------------- -------------------- ---------
    1      sw1 (b8:ce:f6:19:1b:42)      4/29/2022 03:05:25   complete
    2      sw2 (b8:ce:f6:19:1b:96)      4/29/2022 03:07:42   complete
    Achtung Wenn einer dieser Befehle einen Fehler sendet, wenden Sie sich an den NetApp Support.
  8. Ändern Sie die Berechtigungsebene zurück in den Administrator:

    set -privilege admin

  9. Wenn Sie die automatische Erstellung eines Cases unterdrückten, können Sie sie erneut aktivieren, indem Sie eine AutoSupport Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END