日本語は機械翻訳による参考訳です。内容に矛盾や不一致があった場合には、英語の内容が優先されます。

Triton Inference Server のクライアントの導入(自動導入)

寄稿者 このページの PDF をダウンロード

Triton Inference Server のクライアントを導入するには、次の手順を実行します。

  1. VI エディタを開き 'Triton クライアントの配備を作成し ' ファイル Triton_client.yaml を呼び出します

    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
      labels:
        app: triton-client
      name: triton-client
      namespace: triton
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: triton-client
          version: v1
      template:
        metadata:
          labels:
            app: triton-client
            version: v1
        spec:
          containers:
          - image: nvcr.io/nvidia/tritonserver:20.07- v1- py3-clientsdk
            imagePullPolicy: IfNotPresent
            name: triton-client
            resources:
              limits:
                cpu: "2"
                memory: 4Gi
              requests:
                cpu: "2"
                memory: 4Gi
  2. クライアントを展開します。

    kubectl apply -f triton_client.yaml