#配置
本文描述的配置均针对业务应用侧。
#目录
#Pod 配置:注解
| 参数 | 类型 | 描述 | 示例 |
|---|---|---|---|
nvidia.com/use-gpuuuid | String | 如果设置,分配给该 pod 的设备必须是此字符串中定义的 UUID 之一。 | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gpuuuid | String | 如果设置,分配给该 pod 的设备将不会包含在此字符串中定义的 UUID 之内。 | "GPU-AAA,GPU-BBB" |
nvidia.com/nouse-gputype | String | 如果设置,分配给该 pod 的设备将不会包含在此字符串中定义的类型之内。 | "Tesla V100-PCIE-32GB, NVIDIA A10" |
nvidia.com/use-gputype | String | 如果设置,分配给该 pod 的设备必须是此字符串中定义的类型之一。 | "Tesla V100-PCIE-32GB, NVIDIA A10" |
hami.io/node-scheduler-policy | String | GPU 节点调度策略:"binpack" 将 pod 分配到已使用的 GPU 节点执行。"spread" 将 pod 分配到不同的 GPU 节点执行。 | "binpack" 或 "spread" |
hami.io/gpu-scheduler-policy | String | GPU 调度策略:"binpack" 将 pod 分配到同一 GPU 卡执行。"spread" 将 pod 分配到不同的 GPU 卡执行。 | "binpack" 或 "spread" |
nvidia.com/vgpu-mode | String | 该 pod 希望使用的虚拟 GPU 实例类型。 | "hami-core" 或 "mig" |
#容器配置:环境变量
| 参数 | 类型 | 描述 | 默认值 |
|---|---|---|---|
GPU_CORE_UTILIZATION_POLICY | String | 定义 GPU 核心利用率策略: - "default":默认利用率策略。- "force":限制核心利用率低于 "nvidia.com/gpucores"。- "disable":在作业执行时忽略 "nvidia.com/gpucores" 设置的利用率限制。 | "default" |
CUDA_DISABLE_CONTROL | Boolean | 如果为 "true",容器内将不使用 HAMi-core,导致无资源隔离和限制(用于调试目的)。 | false |