Déployez et configurez Red Hat OpenShift Container Platform sur Google Cloud
Déployez et configurez Red Hat OpenShift Container Platform sur Google Cloud
Cette section décrit un workflow général expliquant comment configurer et gérer des clusters OpenShift dans GCP et comment déployer des applications avec état sur ces clusters. Il présente l'utilisation de Google Cloud NetApp volumes et du stockage NetApp Cloud Volumes ONTAP à l'aide d'Trident pour fournir des volumes persistants.
La présente figure présente les clusters déployés sur GCP et connectés au data Center à l'aide d'un VPN.
Il existe plusieurs façons de déployer les clusters de plateforme de conteneurs Red Hat OpenShift dans GCP. Cette description de haut niveau de la configuration fournit des liens de documentation pour la méthode spécifique qui a été utilisée. Vous pouvez consulter les autres méthodes dans les liens correspondants fournis dans le "ressources". |
Le processus de configuration peut être divisé en plusieurs étapes :
-
Assurez-vous que vous avez rempli toutes les conditions préalables indiquées "ici".
-
Pour la connectivité VPN entre l'infrastructure sur site et GCP, une machine virtuelle pfsense a été créée et configurée. Pour obtenir des instructions, reportez-vous à la section "ici".
-
L'adresse de la passerelle distante dans pfsense ne peut être configurée qu'après avoir créé une passerelle VPN dans Google Cloud Platform.
-
Les adresses IP de réseau distant pour la phase 2 ne peuvent être configurées qu'après l'exécution du programme d'installation du cluster OpenShift et la création des composants d'infrastructure pour le cluster.
-
Le VPN dans Google Cloud ne peut être configuré qu'une fois que les composants de l'infrastructure du cluster ont été créés par le programme d'installation.
-
-
Installez maintenant le cluster OpenShift sur GCP.
-
Obtenez le programme d'installation et le code Pull et déployez le cluster en suivant les étapes fournies dans la documentation "ici".
-
L'installation crée un réseau VPC dans Google Cloud Platform. Il crée également une zone privée dans Cloud DNS et ajoute Des enregistrements.
-
Utilisez l'adresse de bloc CIDR du réseau VPC pour configurer pfsense et établir la connexion VPN. Assurez-vous que les pare-feu sont correctement configurés.
-
Ajoutez des enregistrements dans le DNS de l'environnement sur site en utilisant l'adresse IP dans les enregistrements A du DNS Google Cloud.
-
-
L'installation du cluster est terminée et fournira un fichier kubeconfig ainsi qu'un nom d'utilisateur et un mot de passe pour vous connecter à la console du cluster.
-
-
Google Cloud NetApp volumes peut être ajouté à vos projets comme décrit "ici".
-
Installez un connecteur dans Google Cloud. Reportez-vous aux instructions "ici".
-
Déployez une instance CVO dans Google Cloud à l'aide de Connector. Reportez-vous aux instructions ici. https://docs.netapp.com/us-en/bluexp-cloud-volumes-ontap/task-getting-started-gcp.html
Les fournisseurs de cloud permettent aujourd'hui aux administrateurs de clusters Kubernetes/OpenShift de frayer les nœuds des clusters basés sur les zones. Les nœuds peuvent se trouver dans différentes zones de disponibilité au sein d'une région ou entre différentes régions. Pour faciliter le provisionnement des volumes pour les charges de travail dans une architecture multi-zone, Trident utilise la topologie CSI. Grâce à la fonction de topologie CSI, l'accès aux volumes peut être limité à un sous-ensemble de nœuds, en fonction des régions et des zones de disponibilité. Voir "ici" pour plus de détails.
Kubernetes prend en charge deux modes de liaison de volume : - lorsque VolumeBindingMode est défini sur immédiat (par défaut), Trident crée le volume sans aucune prise en compte de la topologie. Les volumes persistants sont créés sans dépendance vis-à-vis des exigences de planification du pod qui en fait la demande. - Lorsque VolumeBindingMode est défini sur WaitForFirstConsumer, la création et la liaison d'un volume persistant pour une PVC est retardée jusqu'à ce qu'un pod qui utilise la PVC soit planifié et créé. De cette façon, les volumes sont créés pour répondre aux contraintes de planification appliquées en fonction des besoins de topologie. Les systèmes back-end de stockage Trident peuvent être conçus pour provisionner de manière sélective des volumes en fonction des zones de disponibilité (back-end avec topologie). Pour les classes de stockage qui utilisent un tel backend, un volume ne sera créé que si une application est planifiée dans une région/zone prise en charge. (Classe de stockage orientée topologie) pour plus de détails, reportez-vous à la section"ici". |
vidéo de démonstration