配置

本文中描述的配置均适用于业务应用侧。

Pod 配置:Annotations

参数类型描述示例
nvidia.com/use-gpuuuidString如果设置,则此 pod 分配到的设备必须是此字符串中定义的 UUID 之一。"GPU-AAA,GPU-BBB"
nvidia.com/nouse-gpuuuidString如果设置,则此 pod 分配到的设备不能位于此字符串中定义的 UUID 范围内。"GPU-AAA,GPU-BBB"
nvidia.com/nouse-gputypeString如果设置,则此 pod 分配到的设备不能位于此字符串中定义的类型范围内。"Tesla V100-PCIE-32GB, NVIDIA A10"
nvidia.com/use-gputypeString如果设置,则此 pod 分配到的设备必须是此字符串中定义的类型之一。"Tesla V100-PCIE-32GB, NVIDIA A10"
hami.io/node-scheduler-policyStringGPU 节点调度策略:"binpack" 将 pod 分配到已使用的 GPU 节点上执行。"spread" 将 pod 分配到不同的 GPU 节点上执行。"binpack" or "spread"
hami.io/gpu-scheduler-policyStringGPU 调度策略:"binpack" 将 pod 分配到同一块 GPU 卡上执行。"spread" 将 pod 分配到不同的 GPU 卡上执行。"binpack" or "spread"
nvidia.com/vgpu-modeString此 pod 希望使用的 vGPU 实例类型。"hami-core" or "mig"

容器配置:Env

参数类型描述默认值
GPU_CORE_UTILIZATION_POLICYString定义 GPU 核心利用率策略:
- "default":默认利用率策略。
- "force":将核心利用率限制在 "nvidia.com/gpucores" 以下。
- "disable":在任务执行期间忽略由 "nvidia.com/gpucores" 设置的利用率限制。
"default"
CUDA_DISABLE_CONTROLBoolean如果为 "true",则容器内不会使用 HAMi-core,从而不会进行资源隔离和限制(用于调试)。false