Skip to main content
Die deutsche Sprachversion wurde als Serviceleistung für Sie durch maschinelle Übersetzung erstellt. Bei eventuellen Unstimmigkeiten hat die englische Sprachversion Vorrang.

Stoppen oder starten Sie einen Node neu, ohne Übernahme in einem Cluster mit zwei Nodes zu initiieren

Beitragende

Sie halten einen Node in einem Cluster mit zwei Nodes an oder starten neu, ohne die Übernahme zu initiieren, wenn Sie bestimmte Hardware-Wartungsarbeiten auf einem Node oder Shelf durchführen. Und Sie möchten die Ausfallzeiten begrenzen, indem Sie den Partner-Node aktiv halten. Oder wenn es Probleme gibt, eine manuelle Übernahme zu verhindern und Sie wollen die Aggregate des Partner-Knotens auf und stellen Daten bereit zu halten. Wenn Ihnen der technische Support bei der Behebung von Problemen hilft, sollten Sie dieses Verfahren möglicherweise im Rahmen dieser Bemühungen durchführen.

Über diese Aufgabe
  • Bevor Sie die Übernahme verhindern (mit dem -inhibit-takeover true Parameter), deaktivieren Sie Cluster HA.

Achtung
  • In einem Cluster mit zwei Nodes stellt Cluster HA sicher, dass der Ausfall eines Node das Cluster nicht deaktiviert. Wenn Sie jedoch vor Verwendung des -inhibit-takeover true Parameters die Cluster-HA nicht deaktivieren, stellen beide Nodes keine Daten mehr bereit.

  • Wenn Sie versuchen, einen Node vor dem Deaktivieren von Cluster HA anzuhalten oder neu zu booten, gibt ONTAP eine Warnung aus und weist Sie an, die Cluster-HA zu deaktivieren.

  • Sie migrieren LIFs (logische Schnittstellen) zum Partner-Node, der online bleiben soll.

  • Wenn auf dem Node, den Sie beenden oder neu booten, gibt es Aggregate, die Sie behalten möchten, verschieben Sie sie auf den Node, der online bleiben soll.

Schritte
  1. Überprüfen Sie, ob sich beide Nodes in gutem Zustand befinden:
    cluster show

    Für beide Nodes true wird in der Health Spalte angezeigt.

    cluster::> cluster show
    Node         Health  Eligibility
    ------------ ------- ------------
    node1        true     true
    node2        true     true
  2. Migrieren Sie alle LIFs vom Node, den Sie zum Partner-Node anhalten oder neu booten.
    network interface migrate-all -node node_name

  3. Wenn auf dem Node unterbrochen oder neu gebootet werden soll, gibt es Aggregate, die Sie beim Ausfall des Nodes online halten möchten, verschieben Sie sie auf den Partner-Node. Anderenfalls fahren Sie mit dem nächsten Schritt fort.

    1. Zeigen Sie die Aggregate auf dem Node an, den Sie beenden oder neu booten.
      storage aggregates show -node node_name

      Beispielsweise ist node1 der Node, der angehalten oder neu gebootet werden wird:

      cluster::> storage aggregates show -node node1
      Aggregate  Size  Available  Used%  State  #Vols   Nodes   RAID  Status
      ---------  ----  ---------  -----  -----  -----   -----   ----  ------
      aggr0_node_1_0
                 744.9GB   32.68GB   96% online       2 node1    raid_dp,
                                                                      normal
      aggr1       2.91TB    2.62TB   10% online       8 node1    raid_dp,
                                                                      normal
      aggr2
                  4.36TB    3.74TB   14% online      12 node1    raid_dp,
                                                                      normal
      test2_aggr  2.18TB    2.18TB    0% online       7 node1    raid_dp,
                                                                      normal
      4 entries were displayed.
    2. Verschieben Sie die Aggregate auf den Partner-Node:
      storage aggregate relocation start -node node_name -destination node_name -aggregate-list aggregate_name

      Zum Beispiel werden die Aggregate aggr1, aggr2 und test2_aggr von node1 auf node2 verschoben:

    storage aggregate relocation start -node node1 -destination node2 -aggregate-list aggr1,aggr2,test2_aggr

  4. Deaktivieren von Cluster-HA:
    cluster ha modify -configured false

    Der ausgegebene Ausgang bestätigt, dass HA deaktiviert ist: Notice: HA is disabled

    Hinweis Dieser Vorgang deaktiviert nicht das Storage-Failover.
  5. Stoppen oder booten Sie neu und hemmen Sie die Übernahme des Ziel-Nodes mithilfe des entsprechenden Befehls:

    • system node halt -node node_name -inhibit-takeover true

    • system node reboot -node node_name -inhibit-takeover true

      Hinweis In der Ausgabe des Befehls wird eine Warnung angezeigt, in der Sie gefragt werden, ob Sie fortfahren möchten, geben Sie y.
  6. Vergewissern Sie sich, dass der Node, der noch online ist, sich in einem ordnungsgemäßen Zustand befindet (bei einem Ausfall des Partners):
    cluster show

    Für den Online-Knoten true wird in der Health Spalte angezeigt.

    Hinweis In der Ausgabe des Befehls finden Sie eine Warnung, dass für die Cluster-HA nicht konfiguriert ist. Sie können die Warnung derzeit ignorieren.
  7. Führen Sie die Aktionen durch, die zum Anhalten oder Neustarten des Knotens erforderlich sind.

  8. Starten Sie den Offline-Node von der Loader-Eingabeaufforderung aus:
    boot_ontap

  9. Überprüfen Sie, ob sich beide Nodes in gutem Zustand befinden:
    cluster show

    Für beide Nodes true wird in der Health Spalte angezeigt.

    Hinweis In der Ausgabe des Befehls finden Sie eine Warnung, dass für die Cluster-HA nicht konfiguriert ist. Sie können die Warnung derzeit ignorieren.
  10. Cluster-HA erneut aktivieren:
    cluster ha modify -configured true

  11. Wenn Sie Aggregate zu einem früheren Zeitpunkt in diesem Verfahren zum Partner-Node verschoben haben, verschieben Sie sie zurück in den Home Node, fahren Sie andernfalls mit dem nächsten Schritt fort:
    storage aggregate relocation start -node node_name -destination node_name -aggregate-list aggregate_name

    So werden beispielsweise die Aggregate aggr1, aggr2 und test2_aggr von Node node2 auf Node node1 verschoben:
    storage aggregate relocation start -node node2 -destination node1 -aggregate-list aggr1,aggr2,test2_aggr

  12. Zurücksetzen von LIFs auf ihre Home Ports:

    1. Anzeigen von LIFs, die nicht zu Hause sind:
      network interface show -is-home false

    2. Wenn keine Home-LIFs wurden, die nicht vom ausgefallenen Node migriert wurden, vergewissern Sie sich, dass sie vor dem Zurücksetzen geschützt sind.

    3. Wenn es sicher ist, setzen Sie alle LIFs zurück.
      network interface revert *