与 InferenceService 集成
本页展示了如何在 Alauda AI 中运行 inferenceService 时,利用 Alauda Build of Kueue 的调度和资源管理能力。
前提条件
- 您已安装 Alauda AI。
- 您已安装 Alauda Build of Kueue。
- 您已安装 Alauda Build of Hami(用于演示 vGPU)。
- Alauda Container Platform Web CLI 已与您的集群建立通信。
操作步骤
-
在 Alauda Container Platform 中创建项目和命名空间,例如,项目名称为
test,命名空间名称为test-1。 -
切换到 Alauda AI,点击 Admin > Management Namespace 中的 Namespace Manage,选择之前创建的命名空间完成管理。
-
通过运行以下命令创建资源:
-
在 Alauda AI UI 中创建带有标签
kueue.x-k8s.io/queue-name: test的InferenceService资源: -
观察
InferenceService的 pods:您会看到该 pod 处于
SchedulingGated状态: -
更新
nvidia.com/total-gpucores配额:您会看到该 pod 处于
Running状态: