Skip to main content
Cluster and storage switches
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Migrieren Sie von einem Cluster ohne Switch auf ein Cluster mit zwei Nodes

Beitragende

Wenn Sie über einen 2-Node-Cluster ohne Switches verfügen, können Sie dieses Verfahren durchführen, um zu einem Switch-basierten Cluster mit zwei Nodes zu migrieren, der Cisco Nexus 3132Q-V Cluster-Netzwerk-Switches umfasst. Beim Austausch handelt es sich um einen unterbrechungsfreien Vorgang (Non-Disruptive Procedure, NDO).

Prüfen Sie die Anforderungen

Ports und Node-Verbindungen

Wenn Sie zu einem Switch mit zwei Nodes und Cisco Nexus 3132Q-V Cluster Switches migrieren, sollten Sie die Verbindungen zu Ports und Nodes und die Verkabelungsanforderungen verstehen.

  • Die Cluster-Switches verwenden die Inter-Switch-Link-Ports (ISL) e1/31-32.

  • Der "Hardware Universe" Enthält Informationen über die unterstützten Kabel zu Nexus 3132Q-V Switches:

    • Die Nodes mit 10 GbE-Cluster-Verbindungen erfordern optische QSFP-Module mit Breakout-Glasfaserkabeln oder QSFP zu SFP+ Kupfer Breakout-Kabel.

    • Die Nodes mit 40/100 GbE-Cluster-Verbindungen erfordern unterstützte QSFP/QSFP28 optische Module mit Glasfaserkabeln oder QSFP/QSFP28-Kupfer-Direct-Attach-Kabeln.

    • Die Cluster-Switches verwenden die entsprechenden ISL-Kabel: 2 QSFP28-Glasfaser- oder Kupfer-Direct-Attach-Kabel.

  • Bei Nexus 3132Q-V können Sie QSFP-Ports entweder als 40/100-GB-Ethernet- oder als 4 x 10-GB-Ethernet-Modus betreiben.

    Standardmäßig befinden sich im 40/100-GB-Ethernet-Modus 32 Ports. Diese 40-GB-Ethernet-Ports werden in einer 2-tupel-Namenskonvention nummeriert. Beispielsweise wird der zweite 40-GB-Ethernet-Port mit der Nummer 1/2 nummeriert. Der Prozess der Änderung der Konfiguration von 40 GB Ethernet zu 10 GB Ethernet wird Breakout genannt und der Prozess der Änderung der Konfiguration von 10 GB Ethernet zu 40 GB Ethernet wird break genannt. Wenn Sie einen 40/100-GB-Ethernet-Port in 10-GB-Ethernet-Ports umwandeln, werden die resultierenden Ports mit einer 3-tupel-Namenskonvention nummeriert. Die Breakout-Ports des zweiten 40/100-GB-Ethernet-Ports werden beispielsweise als 1/2/1, 1/2/2/2/3, 1/2/4 nummeriert.

  • Auf der linken Seite von Nexus 3132Q-V befindet sich ein Satz von vier SFP+ Ports, die auf den ersten QSFP-Port multipliziert werden.

    Standardmäßig ist der RCF so strukturiert, dass der erste QSFP-Port verwendet wird.

    Mit dem können Sie vier SFP+-Ports anstelle eines QSFP-Ports für Nexus 3132Q-V aktivieren hardware profile front portmode sfp-plus Befehl. Auf ähnliche Weise können Sie Nexus 3132Q-V zurücksetzen, um einen QSFP-Port anstelle von vier SFP+-Ports mit dem zu verwenden hardware profile front portmode qsfp Befehl.

  • Stellen Sie sicher, dass Sie einige der Ports auf Nexus 3132Q-V für 10 GbE oder 40/100 GbE konfiguriert haben.

    Sie können die ersten sechs Ports mit dem in den 4x10 GbE-Modus eingliedern interface breakout module 1 port 1-6 map 10g-4x Befehl. Auf ähnliche Weise können Sie die ersten sechs QSFP+-Ports aus Breakout-Konfiguration mit dem neu gruppieren no interface breakout module 1 port 1-6 map 10g-4x Befehl.

  • Die Anzahl der 10-GbE- und 40/100-GbE-Ports ist in den auf der verfügbaren Referenzkonfigurationsdateien (RCFs) definiert "Referenzkonfigurationsdatei Für Cisco ® Cluster-Switch Herunterladen" Seite.

Was Sie benötigen
  • Konfiguration ordnungsgemäß eingerichtet und funktionsfähig.

  • Nodes mit ONTAP 9.4 oder höher.

  • Alle Cluster-Ports in up Bundesland.

  • Der Cisco Nexus 3132Q-V Cluster-Switch wird unterstützt.

  • Die vorhandene Cluster-Netzwerkkonfiguration verfügt über:

    • Die Nexus 3132 Cluster-Infrastruktur ist redundant und auf beiden Switches voll funktionsfähig.

    • Die neuesten RCF- und NX-OS-Versionen auf Ihren Switches.

      Der "Cisco Ethernet-Switches" Die Seite enthält Informationen zu den in diesem Verfahren unterstützten ONTAP- und NX-OS-Versionen.

    • Management-Konnektivität auf beiden Switches.

    • Konsolenzugriff auf beide Switches.

    • Alle logischen Cluster-Schnittstellen (LIFs) im up Zustand ohne Migration.

    • Erstanpassung des Schalters.

    • Alle ISL-Ports sind aktiviert und verkabelt.

Darüber hinaus müssen die erforderlichen Dokumentationen für 10-/25-GbE- und 40/100-GbE-Konnektivität von den Nodes auf Nexus 3132Q-V Cluster Switches geplant, migriert und gelesen werden.

Migrieren Sie die Switches

Zu den Beispielen

Die Beispiele in diesem Verfahren verwenden die folgende Nomenklatur für Switches und Knoten:

  • Nexus 3132Q-V Cluster Switches, C1 und C2.

  • Die Knoten sind n1 und n2.

Hinweis

Die Beispiele in diesem Verfahren verwenden zwei Knoten, von denen jeder zwei 40/100 GbE Cluster Interconnect Ports e4a und e4e nutzt. Der "Hardware Universe" Enthält Details zu den Cluster-Ports auf Ihren Plattformen.

Über diese Aufgabe

Dieses Verfahren umfasst folgende Szenarien:

  • n1_clus1 ist die erste logische Clusterschnittstelle (LIF), die für Knoten n1 mit Cluster-Switch C1 verbunden werden soll.

  • n1_clus2 ist die erste Cluster-LIF, die für Node n1 mit Cluster-Switch C2 verbunden wird.

  • n2_clus1 ist die erste Cluster-LIF, die für Knoten n2 mit Cluster-Switch C1 verbunden wird.

  • n2_clus2 ist die zweite Cluster-LIF, die für Knoten n2 an Cluster-Switch C2 angeschlossen werden soll.

  • Die Anzahl der 10-GbE- und 40/100-GbE-Ports ist in den auf der verfügbaren Referenzkonfigurationsdateien (RCFs) definiert "Referenzkonfigurationsdatei Für Cisco ® Cluster-Switch Herunterladen" Seite.

Hinweis

Das Verfahren erfordert die Verwendung von ONTAP Befehlen und den Switches der Cisco Nexus 3000 Serie. ONTAP Befehle werden verwendet, sofern nicht anders angegeben.

  • Das Cluster beginnt mit zwei verbundenen Nodes und funktioniert in einer zwei-Node-Cluster-Einstellung ohne Switches.

  • Der erste Cluster Port ist nach C1 verschoben.

  • Der zweite Cluster-Port wird auf C2 verschoben.

  • Die Option für einen Cluster mit zwei Nodes ohne Switches ist deaktiviert.

Schritt: Bereiten Sie sich auf die Migration vor

  1. Wenn AutoSupport in diesem Cluster aktiviert ist, unterdrücken Sie die automatische Erstellung eines Falls durch Aufrufen einer AutoSupport Meldung:

    system node autosupport invoke -node * -type all - message MAINT=xh

    X ist die Dauer des Wartungsfensters in Stunden.

    Hinweis

    Die AutoSupport Meldung wird vom technischen Support dieser Wartungsaufgabe benachrichtigt, damit die automatische Case-Erstellung während des Wartungsfensters unterdrückt wird.

  2. Legen Sie den Administrations- oder Betriebsstatus für jede Cluster-Schnittstelle fest:

    1. Zeigen Sie die Attribute des Netzwerkports an:

      network port show

      Beispiel anzeigen
      cluster::*> network port show –role cluster
        (network port show)
      Node: n1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e4a       Cluster      Cluster          up   9000 auto/40000  -        -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      
      Node: n2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e4a       Cluster      Cluster          up   9000 auto/40000  -        -
      e4e       Cluster      Cluster          up   9000 auto/40000  -        -
      4 entries were displayed.
    2. Informationen zu den logischen Schnittstellen anzeigen:

      network interface show

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  3. Vergewissern Sie sich, dass die entsprechenden RCF- und Image-Einstellungen auf den neuen 3132Q-V-Switches installiert sind, wenn dies für Ihre Anforderungen erforderlich ist, und nehmen Sie alle wesentlichen Standortanpassungen vor, z. B. Benutzer und Passwörter, Netzwerkadressen usw.

    Sie müssen beide Switches derzeit vorbereiten. Wenn Sie die RCF- und Bildsoftware aktualisieren müssen, müssen Sie folgende Schritte ausführen:

    1. Wechseln Sie zum "Cisco Ethernet-Switches" Auf der NetApp Support Site finden.

    2. Notieren Sie sich Ihren Switch und die erforderlichen Softwareversionen in der Tabelle auf dieser Seite.

    3. Laden Sie die entsprechende RCF-Version herunter.

    4. Klicken Sie auf der Seite Beschreibung auf WEITER, akzeptieren Sie die Lizenzvereinbarung und befolgen Sie dann die Anweisungen auf der Seite Download, um die RCF herunterzuladen.

    5. Laden Sie die entsprechende Version der Bildsoftware herunter.

  4. Klicken Sie auf der Seite Beschreibung auf WEITER, akzeptieren Sie die Lizenzvereinbarung und befolgen Sie dann die Anweisungen auf der Seite Download, um die RCF herunterzuladen.

Schritt 2: Verschieben Sie den ersten Cluster-Port nach C1

  1. Bei Nexus 3132Q-V Switches C1 und C2 sollten Sie alle an Nodes ausgerichteten Ports C1 und C2 deaktivieren, aber die ISL-Ports nicht deaktivieren.

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass die Ports 1 bis 30 bei den Nexus 3132Q-V Cluster Switches C1 und C2 deaktiviert sind und eine in RCF unterstützte Konfiguration verwenden NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C1# copy running-config startup-config
    [########################################] 100%
    Copy complete.
    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# shutdown
    C1(config-if-range)# exit
    C1(config)# exit
    
    C2# copy running-config startup-config
    [########################################] 100%
    Copy complete.
    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  2. Verbinden Sie die Ports 1/31 und 1/32 auf C1 mit den gleichen Ports auf C2, indem Sie die unterstützten Kabel verwenden.

  3. Überprüfen Sie, ob die ISL-Ports auf C1 und C2 funktionsfähig sind:

    show port-channel summary

    Beispiel anzeigen
    C1# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)
           s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
    
    C2# show port-channel summary
    Flags: D - Down         P - Up in port-channel (members)
           I - Individual   H - Hot-standby (LACP only)
           s - Suspended    r - Module-removed
           S - Switched     R - Routed
           U - Up (port-channel)
           M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-        Type   Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)      Eth    LACP      Eth1/31(P)   Eth1/32(P)
  4. Anzeigen der Liste der benachbarten Geräte auf dem Switch:

    show cdp neighbors

    Beispiel anzeigen
    C1# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C2                 Eth1/31        174    R S I s     N3K-C3132Q-V  Eth1/31
    C2                 Eth1/32        174    R S I s     N3K-C3132Q-V  Eth1/32
    
    Total entries displayed: 2
    
    C2# show cdp neighbors
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    C1                 Eth1/31        178    R S I s     N3K-C3132Q-V  Eth1/31
    C1                 Eth1/32        178    R S I s     N3K-C3132Q-V  Eth1/32
    
    Total entries displayed: 2
  5. Zeigen Sie die Cluster-Port-Konnektivität auf jedem Node an:

    network device-discovery show

    Beispiel anzeigen

    Das folgende Beispiel zeigt eine Konfiguration eines Clusters mit zwei Nodes ohne Switches.

    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    n2                  e4a              FAS9000
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    n1                  e4a              FAS9000
                e4e    n1                  e4e              FAS9000
  6. Migrieren Sie die Faclu1-Schnittstelle in den physischen Port, der hostet, Fa.2:

    network interface migrate

    Führen Sie diesen Befehl von jedem lokalen Knoten aus.

    Beispiel anzeigen
    cluster::*> network interface migrate -vserver Cluster -lif n1_clus1 -source-node n1
    –destination-node n1 -destination-port e4e
    cluster::*> network interface migrate -vserver Cluster -lif n2_clus1 -source-node n2
    –destination-node n2 -destination-port e4e
  7. Überprüfen Sie, ob die Migration der Cluster-Schnittstellen durchgeführt wird:

    network interface show

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4e     false
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4e     false
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  8. Fahren Sie Cluster-Ports herunter und schließen Sie LIF auf beiden Knoten an:

    network port modify

    cluster::*> network port modify -node n1 -port e4a -up-admin false
    cluster::*> network port modify -node n2 -port e4a -up-admin false
  9. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl show ausführen, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source          Destination       Packet
Node   Date                       LIF             LIF               Loss
------ -------------------------- --------------- ----------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2        n2_clus1      none
       3/5/2022 19:21:20 -06:00   n1_clus2        n2_clus2      none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2        n1_clus1      none
       3/5/2022 19:21:20 -06:00   n2_clus2        n1_clus2      none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster::*> cluster ping-cluster -node n1
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1		e4a	10.10.0.1
Cluster n1_clus2 n1		e4e	10.10.0.2
Cluster n2_clus1 n2		e4a	10.10.0.3
Cluster n2_clus2 n2		e4e	10.10.0.4

Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 1500 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Trennen Sie das Kabel von e4a auf Knoten n1.

    Sie können sich auf die laufende Konfiguration beziehen und den ersten 40-GbE-Port am Switch C1 (Port 1/7 in diesem Beispiel) mit e4a auf n1 verbinden, indem Sie die unterstützte Verkabelung auf Nexus 3132Q-V. verwenden

    Hinweis Beim erneuten Anschließen von Kabeln an einen neuen Cisco Cluster Switch müssen die verwendeten Kabel entweder Glasfaser oder Verkabelung sein, die von Cisco unterstützt wird.
  2. Trennen Sie das Kabel von e4a auf Knoten n2.

    Sie können sich auf die laufende Konfiguration beziehen und e4a mit dem nächsten verfügbaren 40 GbE-Port von C1, Port 1/8, über unterstützte Verkabelung verbinden.

  3. Aktivieren Sie alle Ports, die an Knoten gerichtet sind, auf C1.

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Ports 1 bis 30, die bei Nexus 3132Q-V Cluster Switches C1 und C2 aktiviert sind und die in RCF unterstützt werden NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C1# configure
    C1(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C1(config-if-range)# no shutdown
    C1(config-if-range)# exit
    C1(config)# exit
  4. Aktivieren Sie den ersten Cluster-Port e4a auf jedem Knoten:

    network port modify

    Beispiel anzeigen
    cluster::*> network port modify -node n1 -port e4a -up-admin true
    cluster::*> network port modify -node n2 -port e4a -up-admin true
  5. Vergewissern Sie sich, dass die Cluster auf beiden Nodes aktiv sind:

    network port show

    Beispiel anzeigen
    cluster::*> network port show –role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    4 entries were displayed.
  6. Setzen Sie für jeden Node alle migrierten Cluster Interconnect LIFs zurück:

    network interface revert

    Beispiel anzeigen

    Das folgende Beispiel zeigt, dass die migrierten LIFs auf die Home-Ports zurückgesetzt werden.

    cluster::*> network interface revert -vserver Cluster -lif n1_clus1
    cluster::*> network interface revert -vserver Cluster -lif n2_clus1
  7. Vergewissern Sie sich, dass alle Cluster-Interconnect-Ports jetzt auf die Home-Ports zurückgesetzt werden:

    network interface show

    Der Is Home Spalte sollte einen Wert von anzeigen true Für alle im aufgeführten Ports Current Port Spalte. Wenn der angezeigte Wert lautet false, Der Hafen wurde nicht zurückgesetzt.

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.

Schritt 3: Zweiten Cluster-Port auf C2 verschieben

  1. Zeigen Sie die Cluster-Port-Konnektivität auf jedem Node an:

    network device-discovery show

    Beispiel anzeigen
    cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3132Q-V
                e4e    n2                  e4e              FAS9000
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3132Q-V
                e4e    n1                  e4e              FAS9000
  2. Migrieren Sie auf der Konsole jedes Knotens cluden2 zu Port e4a:

    network interface migrate

    Beispiel anzeigen
    cluster::*> network interface migrate -vserver Cluster -lif n1_clus2 -source-node n1
    –destination-node n1 -destination-port e4a
    cluster::*> network interface migrate -vserver Cluster -lif n2_clus2 -source-node n2
    –destination-node n2 -destination-port e4a
  3. Herunterfahren von Cluster-Ports clu2 LIF auf beiden Knoten:

    network port modify

    Im folgenden Beispiel werden die angegebenen Ports angezeigt, die auf beiden Nodes heruntergefahren werden:

    	cluster::*> network port modify -node n1 -port e4e -up-admin false
    	cluster::*> network port modify -node n2 -port e4e -up-admin false
  4. Überprüfen Sie den LIF-Status des Clusters:

    network interface show

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4a     false
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4a     false
    4 entries were displayed.
  5. Trennen Sie das Kabel von e4e am Knoten n1.

    Sie können sich auf die laufende Konfiguration beziehen und den ersten 40-GbE-Port am Switch C2 (Port 1/7 in diesem Beispiel) mit e4e auf n1 verbinden, indem Sie die unterstützte Verkabelung auf Nexus 3132Q-V. verwenden

  6. Trennen Sie das Kabel von e4e am Knoten n2.

    Sie können sich auf die laufende Konfiguration beziehen und e4e mithilfe der unterstützten Verkabelung an den nächsten verfügbaren 40-GbE-Port auf C2, Port 1/8 anschließen.

  7. Aktivieren Sie alle Anschlüsse für Knoten auf C2.

    Beispiel anzeigen

    Das folgende Beispiel zeigt die Ports 1 bis 30, die bei Nexus 3132Q-V Cluster Switches C1 und C2 aktiviert sind und eine in RCF unterstützte Konfiguration verwenden NX3132_RCF_v1.1_24p10g_26p40g.txt:

    C2# configure
    C2(config)# int e1/1/1-4,e1/2/1-4,e1/3/1-4,e1/4/1-4,e1/5/1-4,e1/6/1-4,e1/7-30
    C2(config-if-range)# no shutdown
    C2(config-if-range)# exit
    C2(config)# exit
  8. Aktivieren Sie den zweiten Cluster-Port e4e auf jedem Node:

    network port modify

    Im folgenden Beispiel werden die angegebenen Ports angezeigt:

    	cluster::*> network port modify -node n1 -port e4e -up-admin true
    	cluster::*> network port modify -node n2 -port e4e -up-admin true
  9. Setzen Sie für jeden Node alle migrierten Cluster Interconnect LIFs zurück:

    network interface revert

    Das folgende Beispiel zeigt, dass die migrierten LIFs auf die Home-Ports zurückgesetzt werden.

    	cluster::*> network interface revert -vserver Cluster -lif n1_clus2
    	cluster::*> network interface revert -vserver Cluster -lif n2_clus2
  10. Vergewissern Sie sich, dass alle Cluster-Interconnect-Ports jetzt auf die Home-Ports zurückgesetzt werden:

    network interface show

    Der Is Home Spalte sollte einen Wert von anzeigen true Für alle im aufgeführten Ports Current Port Spalte. Wenn der angezeigte Wert lautet false, Der Hafen wurde nicht zurückgesetzt.

    Beispiel anzeigen
    cluster::*> network interface show -role cluster
     (network interface show)
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                n1_clus1   up/up      10.10.0.1/24       n1            e4a     true
                n1_clus2   up/up      10.10.0.2/24       n1            e4e     true
                n2_clus1   up/up      10.10.0.3/24       n2            e4a     true
                n2_clus2   up/up      10.10.0.4/24       n2            e4e     true
    4 entries were displayed.
  11. Vergewissern Sie sich, dass sich alle Cluster-Interconnect-Ports im befinden up Bundesland.

    network port show –role cluster

    Beispiel anzeigen
    cluster::*> network port show –role cluster
      (network port show)
    Node: n1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    
    Node: n2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e4a       Cluster      Cluster          up   9000 auto/40000  -        -
    e4e       Cluster      Cluster          up   9000 auto/40000  -        -
    4 entries were displayed.

Schritt 4: Deaktivieren Sie die 2-Node-Cluster-Option ohne Switches

  1. Zeigen Sie die Port-Nummern des Cluster-Switches an, mit denen jeder Cluster-Port auf jedem Node verbunden ist:

    network device-discovery show

    Beispiel anzeigen
    	cluster::*> network device-discovery show
                Local  Discovered
    Node        Port   Device              Interface        Platform
    ----------- ------ ------------------- ---------------- ----------------
    n1         /cdp
                e4a    C1                  Ethernet1/7      N3K-C3132Q-V
                e4e    C2                  Ethernet1/7      N3K-C3132Q-V
    n2         /cdp
                e4a    C1                  Ethernet1/8      N3K-C3132Q-V
                e4e    C2                  Ethernet1/8      N3K-C3132Q-V
  2. Anzeige ermittelte und überwachte Cluster-Switches:

    system cluster-switch show

    Beispiel anzeigen
    cluster::*> system cluster-switch show
    
    Switch                      Type               Address          Model
    --------------------------- ------------------ ---------------- ---------------
    C1                         cluster-network     10.10.1.101      NX3132V
         Serial Number: FOX000001
          Is Monitored: true
                Reason:
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        7.0(3)I4(1)
        Version Source: CDP
    
    C2                          cluster-network     10.10.1.102      NX3132V
         Serial Number: FOX000002
          Is Monitored: true
                Reason:
      Software Version: Cisco Nexus Operating System (NX-OS) Software, Version
                        7.0(3)I4(1)
        Version Source: CDP
    
    2 entries were displayed.
  3. Deaktivieren Sie die Konfigurationseinstellungen mit zwei Nodes ohne Switches auf jedem Node:

    network options switchless-cluster

    network options switchless-cluster modify -enabled false
  4. Überprüfen Sie das switchless-cluster Die Option wurde deaktiviert.

    network options switchless-cluster show

Schritt 5: Überprüfen Sie die Konfiguration

  1. Überprüfen Sie die Konnektivität der Remote-Cluster-Schnittstellen:

ONTAP 9.9.1 und höher

Sie können das verwenden network interface check cluster-connectivity Befehl, um eine Zugriffsprüfung für die Cluster-Konnektivität zu starten und dann Details anzuzeigen:

network interface check cluster-connectivity start Und network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

HINWEIS: Warten Sie einige Sekunden, bevor Sie den Befehl show ausführen, um die Details anzuzeigen.

cluster1::*> network interface check cluster-connectivity show
                                  Source          Destination       Packet
Node   Date                       LIF             LIF               Loss
------ -------------------------- --------------- ----------------- -----------
n1
       3/5/2022 19:21:18 -06:00   n1_clus2        n2_clus1      none
       3/5/2022 19:21:20 -06:00   n1_clus2        n2_clus2      none

n2
       3/5/2022 19:21:18 -06:00   n2_clus2        n1_clus1      none
       3/5/2022 19:21:20 -06:00   n2_clus2        n1_clus2      none
Alle ONTAP Versionen

Sie können für alle ONTAP Versionen auch den verwenden cluster ping-cluster -node <name> Befehl zum Überprüfen der Konnektivität:

cluster ping-cluster -node <name>

cluster::*> cluster ping-cluster -node n1
Host is n1
Getting addresses from network interface table...
Cluster n1_clus1 n1		e4a	10.10.0.1
Cluster n1_clus2 n1		e4e	10.10.0.2
Cluster n2_clus1 n2		e4a	10.10.0.3
Cluster n2_clus2 n2		e4e	10.10.0.4

Local = 10.10.0.1 10.10.0.2
Remote = 10.10.0.3 10.10.0.4
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 1500 byte MTU on 32 path(s):
    Local 10.10.0.1 to Remote 10.10.0.3
    Local 10.10.0.1 to Remote 10.10.0.4
    Local 10.10.0.2 to Remote 10.10.0.3
    Local 10.10.0.2 to Remote 10.10.0.4
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
1 paths up, 0 paths down (tcp check)
1 paths up, 0 paths down (ucp check)
  1. Wenn Sie die automatische Fallerstellung unterdrückt haben, aktivieren Sie sie erneut, indem Sie eine AutoSupport-Meldung aufrufen:

    system node autosupport invoke -node * -type all -message MAINT=END