配置

本文描述的配置均针对业务应用侧。

目录

Pod 配置:注解

参数类型描述示例
nvidia.com/use-gpuuuidString如果设置,分配给该 pod 的设备必须是此字符串中定义的 UUID 之一。"GPU-AAA,GPU-BBB"
nvidia.com/nouse-gpuuuidString如果设置,分配给该 pod 的设备将不会包含在此字符串中定义的 UUID 之内。"GPU-AAA,GPU-BBB"
nvidia.com/nouse-gputypeString如果设置,分配给该 pod 的设备将不会包含在此字符串中定义的类型之内。"Tesla V100-PCIE-32GB, NVIDIA A10"
nvidia.com/use-gputypeString如果设置,分配给该 pod 的设备必须是此字符串中定义的类型之一。"Tesla V100-PCIE-32GB, NVIDIA A10"
hami.io/node-scheduler-policyStringGPU 节点调度策略:"binpack" 将 pod 分配到已使用的 GPU 节点执行。"spread" 将 pod 分配到不同的 GPU 节点执行。"binpack""spread"
hami.io/gpu-scheduler-policyStringGPU 调度策略:"binpack" 将 pod 分配到同一 GPU 卡执行。"spread" 将 pod 分配到不同的 GPU 卡执行。"binpack""spread"
nvidia.com/vgpu-modeString该 pod 希望使用的虚拟 GPU 实例类型。"hami-core""mig"

容器配置:环境变量

参数类型描述默认值
GPU_CORE_UTILIZATION_POLICYString定义 GPU 核心利用率策略:
- "default":默认利用率策略。
- "force":限制核心利用率低于 "nvidia.com/gpucores"
- "disable":在作业执行时忽略 "nvidia.com/gpucores" 设置的利用率限制。
"default"
CUDA_DISABLE_CONTROLBoolean如果为 "true",容器内将不使用 HAMi-core,导致无资源隔离和限制(用于调试目的)。false