#配置
本文中描述的配置均适用于业务应用侧。
#Pod 配置:Annotations
| 参数 | 类型 | 描述 | 示例 |
|---|---|---|---|
nvidia.com/use-gpuuuid | String | 如果设置,则此 pod 分配到的设备必须是此字符串中定义的 UUID 之一。 | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gpuuuid | String | 如果设置,则此 pod 分配到的设备不能位于此字符串中定义的 UUID 范围内。 | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gputype | String | 如果设置,则此 pod 分配到的设备不能位于此字符串中定义的类型范围内。 | "Tesla V100-PCIE-32GB, NVIDIA A10" |
nvidia.com/use-gputype | String | 如果设置,则此 pod 分配到的设备必须是此字符串中定义的类型之一。 | "Tesla V100-PCIE-32GB, NVIDIA A10" |
hami.io/node-scheduler-policy | String | GPU 节点调度策略:"binpack" 将 pod 分配到已使用的 GPU 节点上执行。"spread" 将 pod 分配到不同的 GPU 节点上执行。 | "binpack" or "spread" |
hami.io/gpu-scheduler-policy | String | GPU 调度策略:"binpack" 将 pod 分配到同一块 GPU 卡上执行。"spread" 将 pod 分配到不同的 GPU 卡上执行。 | "binpack" or "spread" |
nvidia.com/vgpu-mode | String | 此 pod 希望使用的 vGPU 实例类型。 | "hami-core" or "mig" |
#容器配置:Env
| 参数 | 类型 | 描述 | 默认值 |
|---|---|---|---|
GPU_CORE_UTILIZATION_POLICY | String | 定义 GPU 核心利用率策略: - "default":默认利用率策略。- "force":将核心利用率限制在 "nvidia.com/gpucores" 以下。- "disable":在任务执行期间忽略由 "nvidia.com/gpucores" 设置的利用率限制。 | "default" |
CUDA_DISABLE_CONTROL | Boolean | 如果为 "true",则容器内不会使用 HAMi-core,从而不会进行资源隔离和限制(用于调试)。 | false |