Skip to main content
La version française est une traduction automatique. La version anglaise prévaut sur la française en cas de divergence.

Migration d'un commutateur Cisco vers un commutateur Cisco Nexus 92300YC

Contributeurs netapp-yvonneo netapp-jolieg netapp-jsnyder

Vous pouvez migrer sans interruption les anciens commutateurs de cluster Cisco d'un cluster ONTAP vers les commutateurs réseau de cluster Cisco Nexus 92300YC.

Remarque Une fois votre migration terminée, vous devrez peut-être installer le fichier de configuration requis pour prendre en charge le moniteur d'intégrité du commutateur de cluster (CSHM) pour les commutateurs de cluster 92300YC. Voir"Surveillance de l'état des commutateurs (CSHM)" .

Exigences de révision

Avant de commencer

Assurez-vous d'avoir les éléments suivants :

  • Un cluster existant entièrement fonctionnel.

  • Connectivité 10 GbE et 40 GbE des nœuds aux commutateurs de cluster Nexus 92300YC.

  • Tous les ports du cluster sont opérationnels afin de garantir un fonctionnement sans interruption.

  • Version appropriée de NX-OS et fichier de configuration de référence (RCF) installés sur les commutateurs de cluster Nexus 92300YC.

  • Un cluster NetApp redondant et pleinement fonctionnel utilisant des commutateurs Cisco plus anciens.

  • Connectivité de gestion et accès console aux anciens commutateurs Cisco et aux nouveaux commutateurs.

  • Toutes les interfaces logiques de cluster (LIF) en état actif sont connectées à leurs ports d'origine.

  • Les ports ISL sont activés et câblés entre les anciens commutateurs Cisco et entre les nouveaux commutateurs.

Déplacer le commutateur

À propos des exemples

Les exemples de cette procédure utilisent la nomenclature suivante pour les commutateurs et les nœuds :

  • Les commutateurs de cluster Cisco Nexus 5596UP existants sont c1 et c2.

  • Les nouveaux commutateurs de cluster Nexus 92300YC sont cs1 et cs2.

  • Les nœuds sont nœud1 et nœud2.

  • Les LIF du cluster sont node1_clus1 et node1_clus2 sur le nœud 1, et node2_clus1 et node2_clus2 sur le nœud 2 respectivement.

  • L'interrupteur c2 est d'abord remplacé par l'interrupteur cs2, puis l'interrupteur c1 est remplacé par l'interrupteur cs1.

    • Une liaison inter-interface temporaire (ISL) est construite sur cs1 reliant c1 à cs1.

    • Le câblage entre les nœuds et c2 est ensuite déconnecté de c2 et reconnecté à cs2.

    • Les câbles entre les nœuds et c1 sont ensuite déconnectés de c1 et reconnectés à cs1.

    • L'ISL temporaire entre c1 et cs1 est alors supprimé.

Ports utilisés pour les connexions
  • Certains ports sont configurés sur des commutateurs Nexus 92300YC pour fonctionner à 10 GbE ou 40 GbE.

  • Les commutateurs du cluster utilisent les ports suivants pour les connexions aux nœuds :

    • Ports e1/1-48 (10/25 GbE), e1/49-64 (40/100 GbE) : Nexus 92300YC

    • Ports e1/1-40 (10 GbE) : Nexus 5596UP

    • Ports e1/1-32 (10 GbE) : Nexus 5020

    • Ports e1/1-12, e2/1-6 (10 GbE) : Nexus 5010 avec module d’extension

  • Les commutateurs du cluster utilisent les ports de liaison inter-commutateurs (ISL) suivants :

    • Ports e1/65-66 (100 GbE) : Nexus 92300YC

    • Ports e1/41-48 (10 GbE) : Nexus 5596UP

    • Ports e1/33-40 (10 GbE) : Nexus 5020

    • Ports e1/13-20 (10 GbE) : Nexus 5010

  • "Hardware Universe - Commutateurs"Contient des informations sur le câblage pris en charge pour tous les commutateurs du cluster.

  • Les versions ONTAP et NX-OS prises en charge dans cette procédure sont sur le "Commutateurs Ethernet Cisco" page.

Étape 1 : Préparer la migration

  1. Passez au niveau de privilège avancé en saisissant y lorsque vous êtes invité à continuer :

    set -privilege advanced

    L'invite avancée (*>) apparaît.

  2. Si AutoSupport est activé sur ce cluster, supprimez la création automatique de cas en envoyant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=xh

    où x représente la durée de la fenêtre de maintenance en heures.

    Remarque Le message AutoSupport notifie le support technique de cette tâche de maintenance afin que la création automatique de tickets soit désactivée pendant la période de maintenance.
    Afficher un exemple

    La commande suivante désactive la création automatique de cas pendant deux heures :

    cluster1::*> system node autosupport invoke -node * -type all -message MAINT=2h
  3. Vérifiez que la restauration automatique est activée sur toutes les LIF du cluster :

    network interface show -vserver Cluster -fields auto-revert

    Afficher un exemple
    cluster1::*> network interface show -vserver Cluster -fields auto-revert
    
              Logical
    Vserver   Interface     Auto-revert
    --------- ------------- ------------
    Cluster
              node1_clus1   true
              node1_clus2   true
              node2_clus1   true
              node2_clus2   true
    
    4 entries were displayed.
  4. Déterminez l'état administratif ou opérationnel de chaque interface de cluster :

    Chaque port devrait s'afficher correctement. Link et sain pour Health Status .

    1. Afficher les attributs du port réseau :

      network port show -ipspace Cluster

      Afficher un exemple
      cluster1::*> network port show -ipspace Cluster
      
      Node: node1
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      Node: node2
                                                                             Ignore
                                                        Speed(Mbps) Health   Health
      Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
      --------- ------------ ---------------- ---- ---- ----------- -------- ------
      e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
      e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
      
      4 entries were displayed.
    2. Afficher les informations relatives aux interfaces logiques et à leurs nœuds d'origine désignés :

      network interface show -vserver Cluster

      Chaque LIF doit afficher haut/haut pour Status Admin/Oper et vrai pour Is Home .

    Afficher un exemple
    cluster1::*> network interface show -vserver Cluster
    
                Logical      Status     Network            Current       Current Is
    Vserver     Interface    Admin/Oper Address/Mask       Node          Port    Home
    ----------- -----------  ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up      169.254.209.69/16  node1         e0a     true
                node1_clus2  up/up      169.254.49.125/16  node1         e0b     true
                node2_clus1  up/up      169.254.47.194/16  node2         e0a     true
                node2_clus2  up/up      169.254.19.183/16  node2         e0b     true
    
    4 entries were displayed.
  5. Vérifiez que les ports du cluster sur chaque nœud sont connectés aux commutateurs de cluster existants de la manière suivante (du point de vue des nœuds) à l'aide de la commande :

    network device-discovery show -protocol cdp

    Afficher un exemple
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    c1                        0/2               N5K-C5596UP
                e0b    c2                        0/2               N5K-C5596UP
    node1      /cdp
                e0a    c1                        0/1               N5K-C5596UP
                e0b    c2                        0/1               N5K-C5596UP
    
    4 entries were displayed.
  6. Vérifiez que les ports et les commutateurs du cluster sont connectés de la manière suivante (du point de vue des commutateurs) à l'aide de la commande :

    show cdp neighbors

    Afficher un exemple
    c1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1               Eth1/1         124    H         FAS2750            e0a
    node2               Eth1/2         124    H         FAS2750            e0a
    c2(FOX2025GEFC)     Eth1/41        179    S I s     N5K-C5596UP        Eth1/41
    
    c2(FOX2025GEFC)     Eth1/42        175    S I s     N5K-C5596UP        Eth1/42
    
    c2(FOX2025GEFC)     Eth1/43        179    S I s     N5K-C5596UP        Eth1/43
    
    c2(FOX2025GEFC)     Eth1/44        175    S I s     N5K-C5596UP        Eth1/44
    
    c2(FOX2025GEFC)     Eth1/45        179    S I s     N5K-C5596UP        Eth1/45
    
    c2(FOX2025GEFC)     Eth1/46        179    S I s     N5K-C5596UP        Eth1/46
    
    c2(FOX2025GEFC)     Eth1/47        175    S I s     N5K-C5596UP        Eth1/47
    
    c2(FOX2025GEFC)     Eth1/48        179    S I s     N5K-C5596UP        Eth1/48
    
    Total entries displayed: 10
    
    
    c2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    
    Device-ID             Local Intrfce Hldtme Capability  Platform         Port ID
    node1               Eth1/1         124    H         FAS2750            e0b
    node2               Eth1/2         124    H         FAS2750            e0b
    c1(FOX2025GEEX)     Eth1/41        175    S I s     N5K-C5596UP        Eth1/41
    
    c1(FOX2025GEEX)     Eth1/42        175    S I s     N5K-C5596UP        Eth1/42
    
    c1(FOX2025GEEX)     Eth1/43        175    S I s     N5K-C5596UP        Eth1/43
    
    c1(FOX2025GEEX)     Eth1/44        175    S I s     N5K-C5596UP        Eth1/44
    
    c1(FOX2025GEEX)     Eth1/45        175    S I s     N5K-C5596UP        Eth1/45
    
    c1(FOX2025GEEX)     Eth1/46        175    S I s     N5K-C5596UP        Eth1/46
    
    c1(FOX2025GEEX)     Eth1/47        176    S I s     N5K-C5596UP        Eth1/47
    
    c1(FOX2025GEEX)     Eth1/48        176    S I s     N5K-C5596UP        Eth1/48
  7. Vérifiez la connectivité des interfaces du cluster distant :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :

network interface check cluster-connectivity start`et `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Toutes les versions ONTAP

Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e0a
Cluster node1_clus2 169.254.49.125 node1     e0b
Cluster node2_clus1 169.254.47.194 node2     e0a
Cluster node2_clus2 169.254.19.183 node2     e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)

Étape 2 : Configurer les câbles et les ports

  1. Configurez un ISL temporaire sur cs1 sur les ports e1/41-48, entre c1 et cs1.

    Afficher un exemple

    L'exemple suivant montre comment le nouveau ISL est configuré sur c1 et cs1 :

    cs1# configure
    Enter configuration commands, one per line. End with CNTL/Z.
    cs1(config)# interface e1/41-48
    cs1(config-if-range)# description temporary ISL between Nexus 5596UP and Nexus 92300YC
    cs1(config-if-range)# no lldp transmit
    cs1(config-if-range)# no lldp receive
    cs1(config-if-range)# switchport mode trunk
    cs1(config-if-range)# no spanning-tree bpduguard enable
    cs1(config-if-range)# channel-group 101 mode active
    cs1(config-if-range)# exit
    cs1(config)# interface port-channel 101
    cs1(config-if)# switchport mode trunk
    cs1(config-if)# spanning-tree port type network
    cs1(config-if)# exit
    cs1(config)# exit
  2. Retirez les câbles ISL des ports e1/41-48 de c2 et connectez les câbles aux ports e1/41-48 sur cs1.

  3. Vérifiez que les ports ISL et le canal de ports sont opérationnels et connectent c1 et cs1 :

    show port-channel summary

    Afficher un exemple

    L'exemple suivant montre comment la commande Cisco show port-channel summary est utilisée pour vérifier que les ports ISL sont opérationnels sur c1 et cs1 :

    c1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/41(P)   Eth1/42(P)   Eth1/43(P)
                                         Eth1/44(P)   Eth1/45(P)   Eth1/46(P)
                                         Eth1/47(P)   Eth1/48(P)
    
    
    cs1# show port-channel summary
    Flags:  D - Down        P - Up in port-channel (members)
            I - Individual  H - Hot-standby (LACP only)
            s - Suspended   r - Module-removed
            b - BFD Session Wait
            S - Switched    R - Routed
            U - Up (port-channel)
            p - Up in delay-lacp mode (member)
            M - Not in use. Min-links not met
    --------------------------------------------------------------------------------
    Group Port-       Type     Protocol  Member Ports
          Channel
    --------------------------------------------------------------------------------
    1     Po1(SU)     Eth      LACP      Eth1/65(P)   Eth1/66(P)
    101   Po101(SU)   Eth      LACP      Eth1/41(P)   Eth1/42(P)   Eth1/43(P)
                                         Eth1/44(P)   Eth1/45(P)   Eth1/46(P)
                                         Eth1/47(P)   Eth1/48(P)
  4. Pour le nœud 1, débranchez le câble de e1/1 sur c2, puis branchez le câble à e1/1 sur cs2, en utilisant le câblage approprié pris en charge par Nexus 92300YC.

  5. Pour le nœud 2, débranchez le câble de e1/2 sur c2, puis connectez le câble à e1/2 sur cs2, en utilisant le câblage approprié pris en charge par Nexus 92300YC.

  6. Du point de vue des nœuds, les ports du cluster sur chaque nœud sont désormais connectés aux commutateurs du cluster de la manière suivante :

    network device-discovery show -protocol cdp

    Afficher un exemple
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    c1                        0/2               N5K-C5596UP
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    c1                        0/1               N5K-C5596UP
                e0b    cs2                       0/1               N9K-C92300YC
    
    4 entries were displayed.
  7. Pour le nœud 1, débranchez le câble de e1/1 sur c1, puis branchez le câble à e1/1 sur cs1, en utilisant le câblage approprié pris en charge par Nexus 92300YC.

  8. Pour le nœud 2, débranchez le câble de e1/2 sur c1, puis branchez le câble à e1/2 sur cs1, en utilisant le câblage approprié pris en charge par Nexus 92300YC.

  9. Du point de vue des nœuds, les ports du cluster sur chaque nœud sont désormais connectés aux commutateurs du cluster de la manière suivante :

    network device-discovery show -protocol cdp

    Afficher un exemple
    cluster1::*> network device-discovery show -protocol cdp
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       0/2               N9K-C92300YC
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    cs1                       0/1               N9K-C92300YC
                e0b    cs2                       0/1               N9K-C92300YC
    4 entries were displayed.
  10. Supprimez l'ISL temporaire entre cs1 et c1.

    Afficher un exemple
    cs1(config)# no interface port-channel 10
    cs1(config)# interface e1/41-48
    cs1(config-if-range)# lldp transmit
    cs1(config-if-range)# lldp receive
    cs1(config-if-range)# no switchport mode trunk
    cs1(config-if-range)# no channel-group
    cs1(config-if-range)# description 10GbE Node Port
    cs1(config-if-range)# spanning-tree bpduguard enable
    cs1(config-if-range)# exit
    cs1(config)# exit

Étape 3 : Finaliser la migration

  1. Vérifiez la configuration finale du cluster :

    network port show -ipspace Cluster

    Chaque port devrait s'afficher correctement. Link et sain pour Health Status .

    Afficher un exemple
    cluster1::*> network port show -ipspace Cluster
    
    Node: node1
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    Node: node2
                                                                           Ignore
                                                      Speed(Mbps) Health   Health
    Port      IPspace      Broadcast Domain Link MTU  Admin/Oper  Status   Status
    --------- ------------ ---------------- ---- ---- ----------- -------- ------
    e0a       Cluster      Cluster          up   9000  auto/10000 healthy  false
    e0b       Cluster      Cluster          up   9000  auto/10000 healthy  false
    
    4 entries were displayed.
    
    
    cluster1::*> network interface show -vserver Cluster
    
                Logical    Status     Network            Current       Current Is
    Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home
    ----------- ---------- ---------- ------------------ ------------- ------- ----
    Cluster
                node1_clus1  up/up    169.254.209.69/16  node1         e0a     true
                node1_clus2  up/up    169.254.49.125/16  node1         e0b     true
                node2_clus1  up/up    169.254.47.194/16  node2         e0a     true
                node2_clus2  up/up    169.254.19.183/16  node2         e0b     true
    
    4 entries were displayed.
    
    
    cluster1::*> network device-discovery show -protocol cdp
    
    Node/       Local  Discovered
    Protocol    Port   Device (LLDP: ChassisID)  Interface         Platform
    ----------- ------ ------------------------- ----------------  ----------------
    node2      /cdp
                e0a    cs1                       0/2               N9K-C92300YC
                e0b    cs2                       0/2               N9K-C92300YC
    node1      /cdp
                e0a    cs1                       0/1               N9K-C92300YC
                e0b    cs2                       0/1               N9K-C92300YC
    
    4 entries were displayed.
    
    
    cs1# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1               Eth1/1         124    H         FAS2750            e0a
    node2               Eth1/2         124    H         FAS2750            e0a
    cs2(FDO220329V5)    Eth1/65        179    R S I s   N9K-C92300YC  Eth1/65
    cs2(FDO220329V5)    Eth1/66        179    R S I s   N9K-C92300YC  Eth1/66
    
    
    cs2# show cdp neighbors
    
    Capability Codes: R - Router, T - Trans-Bridge, B - Source-Route-Bridge
                      S - Switch, H - Host, I - IGMP, r - Repeater,
                      V - VoIP-Phone, D - Remotely-Managed-Device,
                      s - Supports-STP-Dispute
    
    Device-ID          Local Intrfce  Hldtme Capability  Platform      Port ID
    node1               Eth1/1         124    H         FAS2750            e0b
    node2               Eth1/2         124    H         FAS2750            e0b
    cs1(FDO220329KU)
                        Eth1/65        179    R S I s   N9K-C92300YC  Eth1/65
    cs1(FDO220329KU)
                        Eth1/66        179    R S I s   N9K-C92300YC  Eth1/66
    
    Total entries displayed: 4
  2. Vérifiez la connectivité des interfaces du cluster distant :

ONTAP 9.9.1 et versions ultérieures

Vous pouvez utiliser le network interface check cluster-connectivity commande permettant de lancer une vérification d'accessibilité pour la connectivité du cluster, puis d'afficher les détails :

network interface check cluster-connectivity start`et `network interface check cluster-connectivity show

cluster1::*> network interface check cluster-connectivity start

REMARQUE : Attendez quelques secondes avant d’exécuter le programme. show commande pour afficher les détails.

cluster1::*> network interface check cluster-connectivity show
                                  Source           Destination      Packet
Node   Date                       LIF              LIF              Loss
------ -------------------------- ---------------- ---------------- -----------
node1
       3/5/2022 19:21:18 -06:00   node1_clus2      node2-clus1      none
       3/5/2022 19:21:20 -06:00   node1_clus2      node2_clus2      none
node2
       3/5/2022 19:21:18 -06:00   node2_clus2      node1_clus1      none
       3/5/2022 19:21:20 -06:00   node2_clus2      node1_clus2      none
Toutes les versions ONTAP

Pour toutes les versions ONTAP , vous pouvez également utiliser cluster ping-cluster -node <name> commande pour vérifier la connectivité :

cluster ping-cluster -node <name>

cluster1::*> cluster ping-cluster -node local
Host is node2
Getting addresses from network interface table...
Cluster node1_clus1 169.254.209.69 node1     e0a
Cluster node1_clus2 169.254.49.125 node1     e0b
Cluster node2_clus1 169.254.47.194 node2     e0a
Cluster node2_clus2 169.254.19.183 node2     e0b
Local = 169.254.47.194 169.254.19.183
Remote = 169.254.209.69 169.254.49.125
Cluster Vserver Id = 4294967293
Ping status:
....
Basic connectivity succeeds on 4 path(s)
Basic connectivity fails on 0 path(s)
................
Detected 9000 byte MTU on 4 path(s):
    Local 169.254.19.183 to Remote 169.254.209.69
    Local 169.254.19.183 to Remote 169.254.49.125
    Local 169.254.47.194 to Remote 169.254.209.69
    Local 169.254.47.194 to Remote 169.254.49.125
Larger than PMTU communication succeeds on 4 path(s)
RPC status:
2 paths up, 0 paths down (tcp check)
2 paths up, 0 paths down (udp check)
  1. [[étape 3]] Si vous avez désactivé la création automatique de dossiers, réactivez-la en envoyant un message AutoSupport :

    system node autosupport invoke -node * -type all -message MAINT=END

    Afficher un exemple
    cluster1::*> system node autosupport invoke -node * -type all -message MAINT=END
  2. Rétablir le niveau de privilège à administrateur :

    set -privilege admin

Quelle est la prochaine étape ?

Une fois votre configuration SSH vérifiée, vous pouvez "configurer la surveillance de l'état du commutateur".