Problèmes connus
Les problèmes connus identifient les problèmes susceptibles de vous empêcher d'utiliser cette version du produit avec succès.
Les problèmes connus suivants ont une incidence sur la version actuelle :
La restauration d'une application entraîne une taille de volume persistant supérieure à celle de l'application initiale
Si vous redimensionnez un volume persistant après avoir créé une sauvegarde puis restauré à partir de cette sauvegarde, la taille du volume persistant correspond à la nouvelle taille du volume persistant, et non à la taille de la sauvegarde.
Les clones d'applications échouent à l'aide d'une version spécifique de PostgreSQL
Les clones d'applications au sein du même cluster échouent systématiquement avec le graphique Bitnami PostgreSQL 11.5.0. Pour effectuer un clonage réussi, utilisez une version antérieure ou ultérieure du graphique.
Les clones d'application échouent lors de l'utilisation des contraintes de contexte de sécurité OCP au niveau du compte de service (SCC)
Un clone d'application peut échouer si les contraintes de contexte de sécurité d'origine sont configurées au niveau du compte de service dans l'espace de noms du cluster OpenShift Container Platform. Lorsque le clone de l'application échoue, il apparaît dans la zone applications gérées du Centre de contrôle Astra avec l'état Removed
. Voir la "article de la base de connaissances" pour en savoir plus.
Les clones d'application échouent après le déploiement d'une application avec une classe de stockage définie
Après le déploiement d'une application avec une classe de stockage définie explicitement (par exemple, helm install …-set global.storageClass=netapp-cvs-perf-extreme
), les tentatives ultérieures de clonage de l'application nécessitent que le cluster cible ait la classe de stockage spécifiée à l'origine. Le clonage d'une application avec une classe de stockage définie explicitement dans un cluster ne disposant pas de la même classe de stockage échouera. Il n'y a pas d'étapes de récupération dans ce scénario.
La gestion d'un cluster avec Astra Control Center échoue lorsque le fichier kubeconfig par défaut contient plusieurs contextes
Vous ne pouvez pas utiliser un kubeconfig avec plus d'un cluster et un contexte. Voir la "article de la base de connaissances" pour en savoir plus.
Les opérations de gestion des données d'application échouent avec l'erreur de service interne (500) lorsque Astra Trident est hors ligne
Si Astra Trident sur un cluster d'application est mis hors ligne (et reconnecté) et 500 erreurs de service internes sont rencontrées lors de la tentative de gestion des données d'application, redémarrez tous les nœuds Kubernetes du cluster d'application pour restaurer la fonctionnalité.
Les snapshots peuvent échouer avec la version 4.2.0 du contrôleur de snapshot
Lorsque vous utilisez le snapshot-contrôleur Kubernetes (également appelé External-snapshotter) version 4.2.0 avec Kubernetes 1.20 ou 1.21, les snapshots peuvent échouer. Pour éviter cela, utilisez un autre "version prise en charge" D'un snapshoter externe, comme la version 4.2.1, avec Kubernetes version 1.20 ou 1.21.
-
Exécutez un appel POST pour ajouter un fichier kubeconfig mis à jour au
/credentials
et récupérer le noeud final affectéid
du corps de réponse. -
Effectuer un APPEL PUT à partir du
/clusters
À l'aide de l'ID de cluster approprié et définissez lecredentialID
à laid
valeur de l'étape précédente.
Une fois ces étapes terminées, les informations d'identification associées au cluster sont mises à jour et le cluster doit se reconnecter et mettre à jour son état sur available
.