验证

本文介绍如何验证已安装的 Alauda 版本的 Hami 及相关监控是否有效。

目录

验证 Hami

  1. 检查业务集群控制节点上的 GPU 节点是否有可分配的 GPU 资源。
    运行以下命令:
    kubectl get node  ${nodeName} -o=jsonpath='{.status.allocatable}'
    # 输出中包含:"nvidia.com/gpualloc":"10"(具体数值取决于 GPU 卡数量和安装参数)
  2. 部署一个 GPU 示例实例。
    检查是否有任何 GPU 相关的资源消耗。运行以下命令于业务集群的 GPU 节点上:
    nvidia-smi pmon -s u -d 1

如果 sm 和 mem 两项均有数据,说明 GPU 已准备就绪。您可以开始在 GPU 节点上开发 GPU 应用。
注意:部署 GPU 应用时,务必配置以下必填参数:

spec:
  containers:
    - image: your-image
      imagePullPolicy: IfNotPresent
      name: gpu
      resources:
        limits:
          cpu: '2'
          memory: 4Gi
          nvidia.com/gpualloc: 1     # 请求 1 个物理 GPU(必填)
          nvidia.com/gpucores: "50"  # 请求每个 GPU 50% 的计算资源(可选)
          nvidia.com/gpumem: 8000    # 请求每个 GPU 8000MB 的显存(可选)

验证 MonitorDashboard

HAMi vgpu 服务运行一段时间后,进入 Administrator -> Operations Center -> Monitor -> Dashboards 页面,切换到 Hami 下的 HAMi GPU Monitoring 图表面板。
您将看到相关的图表数据。

验证 Hami-WebUI

HAMi-WebUI 组件运行一段时间后,在浏览器中访问 http://{业务集群节点 IP}:NodePort