logo
Alauda AI
  • 简体中文
    • English
    • 简体中文
  • 导航
    概览
    架构
    介绍
    快速开始
    发版日志
    安装
    安装前配置
    启用微调和训练功能
    安装 Workbench
    安装 Alauda AI Essentials
    安装 Alauda AI
    工具菜单配置
    升级
    升级 Alauda AI
    卸载
    卸载
    基础设施管理
    设备管理
    关于 Alauda Build of Hami
    关于 Alauda Build 的 NVIDIA GPU 设备插件
    多租户
    指南
    Namespace Management
    工作台
    概览
    介绍
    升级
    实用指南
    创建工作台
    模型部署与推理
    概览
    介绍
    特性
    推理服务
    介绍
    实用指南
    Extend Inference Runtimes
    Configure External Access for Inference Services
    Configure Scaling for Inference Services
    Configure Accurately Scheduling Inference Services based on the CUDA version
    故障排查
    使用 MLServer 运行时体验推理服务超时
    推理服务无法进入运行状态
    指导手册
    Inference Service
    模型管理
    介绍
    功能指南
    Model Repository
    实用指南
    使用 Notebook 上传模型
    Share Models
    微调
    介绍
    实用指南
    创建 Fine-tuning 任务
    开发自定义微调模板
    训练
    介绍
    实用指南
    创建训练任务
    开发自定义训练模板
    监控与运维
    概览
    介绍
    特性概述
    日志记录与跟踪
    介绍
    功能指南
    日志
    资源监控
    介绍
    实用指南
    添加监控面板
    故障排除
    监控面板卡在加载中
    功能指南
    资源监控
    Label Studio
    概览
    介绍
    主要功能
    安装 Label Studio
    快速开始
    Alauda 版 Kueue
    介绍
    安装
    实用指南
    设置 RBAC
    配置配额
    监控待处理的工作负载
    使用 cohorts
    配置公平共享
    Gang scheduling
    与 Alauda DevOps Pipelines 集成
    与 InferenceService 集成
    API 参考
    介绍
    Kubernetes APIs
    Inference Service APIs
    ClusterServingRuntime [serving.kserve.io/v1alpha1]
    推理服务 [serving.kserve.io/v1beta1]
    Workbench APIs
    Workspace Kind [kubeflow.org/v1beta1]
    Workspace [kubeflow.org/v1beta1]
    管理 API
    AmlNamespace [manage.aml.dev/v1alpha1]
    Operator APIs
    AmlCluster [amlclusters.aml.dev/v1alpha1]
    术语表

    #管理 API

    📝 编辑此页面
    上一页Workspace [kubeflow.org/v1beta1]下一页AmlNamespace [manage.aml.dev/v1alpha1]