Skip to main content
简体中文版经机器翻译而成,仅供参考。如与英语版出现任何冲突,应以英语版为准。

使用 CSI 拓扑

贡献者

Trident可以通过使用有选择地创建卷并将其连接到Kubbernetes集群中的节点 "CSI 拓扑功能"

概述

使用 CSI 拓扑功能,可以根据区域和可用性区域将对卷的访问限制为一小部分节点。如今,借助云提供商, Kubernetes 管理员可以生成基于分区的节点。节点可以位于一个区域内的不同可用性区域中,也可以位于不同区域之间。为了便于在多区域架构中为工作负载配置卷、Trident使用CSI拓扑。

提示 了解有关 CSI 拓扑功能的更多信息 "此处"

Kubernetes 提供了两种唯一的卷绑定模式:

  • 将设置为 Immediate`时,Trident创建卷时 `VolumeBindingMode`不具有任何拓扑感知功能。创建 PVC 时会处理卷绑定和动态配置。这是默认设置 `VolumeBindingMode、适合不强制实施拓扑限制的集群。创建永久性卷时、不会依赖于发出请求的POD的计划要求。

  • 如果将 VolumeBindingMode 设置为 WaitForFirstConsuming ,则为 PVC 创建和绑定永久性卷的操作将延迟,直到计划并创建使用 PVC 的 Pod 为止。这样,卷就会根据拓扑要求强制实施的计划限制来创建。

备注 WaitForFirstConsumer" 绑定模式不需要拓扑标签。此功能可独立于 CSI 拓扑功能使用。
您需要的内容

要使用 CSI 拓扑,您需要满足以下条件:

  • 运行的Kubernetes集群 "支持的Kubernetes版本"

    kubectl version
    Client Version: version.Info{Major:"1", Minor:"19", GitVersion:"v1.19.3", GitCommit:"1e11e4a2108024935ecfcb2912226cedeafd99df", GitTreeState:"clean", BuildDate:"2020-10-14T12:50:19Z", GoVersion:"go1.15.2", Compiler:"gc", Platform:"linux/amd64"}
    Server Version: version.Info{Major:"1", Minor:"19", GitVersion:"v1.19.3", GitCommit:"1e11e4a2108024935ecfcb2912226cedeafd99df", GitTreeState:"clean", BuildDate:"2020-10-14T12:41:49Z", GoVersion:"go1.15.2", Compiler:"gc", Platform:"linux/amd64"}
  • 集群中的节点应具有可引入拓扑感知的标签(topology.kubernetes.io/region`和 `topology.kubernetes.io/zone)。在安装Trident之前,这些标签*应出现在群集中的节点上*,以便Trident能够识别拓扑。

    kubectl get nodes -o=jsonpath='{range .items[*]}[{.metadata.name}, {.metadata.labels}]{"\n"}{end}' | grep --color "topology.kubernetes.io"
    [node1, {"beta.kubernetes.io/arch":"amd64","beta.kubernetes.io/os":"linux","kubernetes.io/arch":"amd64","kubernetes.io/hostname":"node1","kubernetes.io/os":"linux","node-role.kubernetes.io/master":"","topology.kubernetes.io/region":"us-east1","topology.kubernetes.io/zone":"us-east1-a"}]
    [node2, {"beta.kubernetes.io/arch":"amd64","beta.kubernetes.io/os":"linux","kubernetes.io/arch":"amd64","kubernetes.io/hostname":"node2","kubernetes.io/os":"linux","node-role.kubernetes.io/worker":"","topology.kubernetes.io/region":"us-east1","topology.kubernetes.io/zone":"us-east1-b"}]
    [node3, {"beta.kubernetes.io/arch":"amd64","beta.kubernetes.io/os":"linux","kubernetes.io/arch":"amd64","kubernetes.io/hostname":"node3","kubernetes.io/os":"linux","node-role.kubernetes.io/worker":"","topology.kubernetes.io/region":"us-east1","topology.kubernetes.io/zone":"us-east1-c"}]

第 1 步:创建可感知拓扑的后端

Trident存储后端可以设计为根据可用性区域选择性地配置卷。每个后端都可以包含一个可选 supportedTopologies 块、该块代表受支持的分区和区域列表。对于使用此后端的 StorageClasses ,只有在受支持区域 / 区域中计划的应用程序请求时,才会创建卷。

下面是一个后端定义示例:

YAML
---
version: 1
storageDriverName: ontap-san
backendName: san-backend-us-east1
managementLIF: 192.168.27.5
svm: iscsi_svm
username: admin
password: password
supportedTopologies:
- topology.kubernetes.io/region: us-east1
  topology.kubernetes.io/zone: us-east1-a
- topology.kubernetes.io/region: us-east1
  topology.kubernetes.io/zone: us-east1-b
JSON
{
 "version": 1,
 "storageDriverName": "ontap-san",
 "backendName": "san-backend-us-east1",
 "managementLIF": "192.168.27.5",
 "svm": "iscsi_svm",
 "username": "admin",
 "password": "password",
 "supportedTopologies": [
{"topology.kubernetes.io/region": "us-east1", "topology.kubernetes.io/zone": "us-east1-a"},
{"topology.kubernetes.io/region": "us-east1", "topology.kubernetes.io/zone": "us-east1-b"}
]
}
备注 `supportedTopologies`用于提供每个后端的区域和分区列表。这些区域和分区表示可在 StorageClass 中提供的允许值列表。对于包含后端提供的部分区域和分区的StorageClasses、Trident会在后端创建一个卷。

您也可以为每个存储池定义 supportedTopologies 。请参见以下示例:

---
version: 1
storageDriverName: ontap-nas
backendName: nas-backend-us-central1
managementLIF: 172.16.238.5
svm: nfs_svm
username: admin
password: password
supportedTopologies:
- topology.kubernetes.io/region: us-central1
  topology.kubernetes.io/zone: us-central1-a
- topology.kubernetes.io/region: us-central1
  topology.kubernetes.io/zone: us-central1-b
storage:
- labels:
    workload: production
  supportedTopologies:
  - topology.kubernetes.io/region: us-central1
    topology.kubernetes.io/zone: us-central1-a
- labels:
    workload: dev
  supportedTopologies:
  - topology.kubernetes.io/region: us-central1
    topology.kubernetes.io/zone: us-central1-b

在此示例中, reGionzone 标签表示存储池的位置。topology.Kubernees.io/zonetopology.Kubernees.io/zone 指定存储池的使用位置。

第 2 步:定义可识别拓扑的 StorageClasses

根据为集群中的节点提供的拓扑标签,可以将 StorageClasses 定义为包含拓扑信息。这将确定用作 PVC 请求候选对象的存储池,以及可使用 Trident 配置的卷的节点子集。

请参见以下示例:

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: netapp-san-us-east1
provisioner: csi.trident.netapp.io
volumeBindingMode: WaitForFirstConsumer
allowedTopologies:
- matchLabelExpressions:
- key: topology.kubernetes.io/zone
  values:
  - us-east1-a
  - us-east1-b
- key: topology.kubernetes.io/region
  values:
  - us-east1
parameters:
  fsType: "ext4"

在上述StorageClass定义中, volumeBindingMode`将设置为 `WaitForFirstConsumer。在此存储类中请求的 PVC 在 Pod 中引用之前不会执行操作。和 allowedTopologies`提供了要使用的分区和区域。StorageClass会 `netapp-san-us-east1`在上述定义的后端创建PVC `san-backend-us-east1

第 3 步:创建和使用 PVC

创建 StorageClass 并将其映射到后端后,您现在可以创建 PVC 。

请参见以下示例 sPec

---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: pvc-san
spec:
accessModes:
  - ReadWriteOnce
resources:
  requests:
    storage: 300Mi
storageClassName: netapp-san-us-east1

使用此清单创建 PVC 将导致以下结果:

kubectl create -f pvc.yaml
persistentvolumeclaim/pvc-san created
kubectl get pvc
NAME      STATUS    VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS          AGE
pvc-san   Pending                                      netapp-san-us-east1   2s
kubectl describe pvc
Name:          pvc-san
Namespace:     default
StorageClass:  netapp-san-us-east1
Status:        Pending
Volume:
Labels:        <none>
Annotations:   <none>
Finalizers:    [kubernetes.io/pvc-protection]
Capacity:
Access Modes:
VolumeMode:    Filesystem
Mounted By:    <none>
Events:
  Type    Reason                Age   From                         Message
  ----    ------                ----  ----                         -------
  Normal  WaitForFirstConsumer  6s    persistentvolume-controller  waiting for first consumer to be created before binding

要使 Trident 创建卷并将其绑定到 PVC ,请在 Pod 中使用 PVC 。请参见以下示例:

apiVersion: v1
kind: Pod
metadata:
  name: app-pod-1
spec:
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: topology.kubernetes.io/region
            operator: In
            values:
            - us-east1
      preferredDuringSchedulingIgnoredDuringExecution:
      - weight: 1
        preference:
          matchExpressions:
          - key: topology.kubernetes.io/zone
            operator: In
            values:
            - us-east1-a
            - us-east1-b
  securityContext:
    runAsUser: 1000
    runAsGroup: 3000
    fsGroup: 2000
  volumes:
  - name: vol1
    persistentVolumeClaim:
      claimName: pvc-san
  containers:
  - name: sec-ctx-demo
    image: busybox
    command: [ "sh", "-c", "sleep 1h" ]
    volumeMounts:
    - name: vol1
      mountPath: /data/demo
    securityContext:
      allowPrivilegeEscalation: false

此 podSpec 指示 Kubernetes 在 us-East1 区域中的节点上计划 Pod ,并从 us-East1-aus-East1-b 区域中的任何节点中进行选择。

请参见以下输出:

kubectl get pods -o wide
NAME        READY   STATUS    RESTARTS   AGE   IP               NODE              NOMINATED NODE   READINESS GATES
app-pod-1   1/1     Running   0          19s   192.168.25.131   node2             <none>           <none>
kubectl get pvc -o wide
NAME      STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS          AGE   VOLUMEMODE
pvc-san   Bound    pvc-ecb1e1a0-840c-463b-8b65-b3d033e2e62b   300Mi      RWO            netapp-san-us-east1   48s   Filesystem

更新后端以包括 supportedTopologies

可以使用 tridentctl backend update 更新原有后端,以包含 supportedTopologies 列表。这不会影响已配置的卷,并且仅用于后续的 PVC 。