logo
Alauda Container Platform
English
简体中文
English
简体中文
logo
Alauda Container Platform
导航

概览

架构
发版日志

安装

概览

安装准备

前提条件
下载
节点预处理
安装
Global Cluster 灾难恢复

升级

概览
升级前准备
升级 global 集群
升级业务集群

用户界面

Web 控制台

概览
访问 Web 控制台
Customizing the Web Console
自定义左侧导航

CLI 工具

ACP CLI (ac)

使用 ACP CLI 入门
配置 ACP CLI
ac 和 kubectl 命令的使用
管理 CLI 配置文件
使用插件扩展 ACP CLI
AC CLI 开发者命令参考
AC CLI 管理员命令参考
violet CLI

配置

功能开关

集群

概览
不可变基础设施

节点管理

概览
向本地集群添加节点
管理节点
节点监控

托管集群

概述

导入集群

概览
导入标准 Kubernetes 集群
导入 OpenShift 集群
导入 Amazon EKS 集群
导入 GKE 集群
导入华为云 CCE 集群(公有云)
导入 Azure AKS 集群
导入阿里云 ACK 集群
导入腾讯云 TKE 集群
注册集群

公有云集群初始化

网络初始化

AWS EKS 集群网络初始化配置
AWS EKS 补充信息
华为云 CCE 集群网络初始化配置
Azure AKS 集群网络初始化配置
Google GKE 集群网络初始化配置

存储初始化

概览
AWS EKS 集群存储初始化配置
华为云 CCE 集群存储初始化配置
Azure AKS 集群存储初始化配置
Google GKE 集群存储初始化配置

如何操作

导入集群的网络配置
获取导入集群信息
信任不安全的镜像仓库
从自定义命名的网卡采集网络数据
创建本地集群
托管控制平面
集群节点规划
etcd 加密

如何操作

为内置镜像仓库添加外部访问地址
选择容器运行时
使用 Manager 策略优化 Pod 性能
更新公共仓库凭证

备份与恢复

概览
安装
备份仓库

备份管理

ETCD 备份
创建应用备份计划
钩子

恢复管理

运行应用恢复任务
镜像仓库替换

网络

操作指南

配置域名
创建证书
配置服务
配置 Ingresses
配置子网
配置 MetalLB
配置 GatewayAPI Gateway
配置 GatewayAPI 路由
配置 ALB
配置 NodeLocal DNSCache
配置 CoreDNS

实用指南

Ingress-Nginx 任务
Envoy Gateway 任务
软数据中心 LB 方案(Alpha)

Kube OVN

了解 Kube-OVN CNI
准备 Kube-OVN Underlay 物理网络
Underlay 和 Overlay 子网的自动互联
集群互联(Alpha)
配置 Egress Gateway
配置 IPPool
配置 Kube-OVN 网络以支持 Pod 多网卡(Alpha)
配置 Endpoint Health Checker

alb

Tasks for ALB

故障排除

如何解决 ARM 环境下的节点间通信问题?
查找错误原因

存储

介绍

核心概念

核心概念
Persistent Volume
访问模式和卷模式

操作指南

创建 CephFS 文件存储类型存储类
创建 CephRBD 块存储类
创建 TopoLVM 本地存储类
创建 NFS 共享存储类
部署 Volume Snapshot 组件
创建 PV
Creating PVCs
使用卷快照

实用指南

通用临时卷
使用 emptyDir
使用本地卷配置持久存储
使用 NFS 配置持久存储
第三方存储能力注解指南

故障排除

从 PVC 扩容失败中恢复

对象存储

介绍
核心概念
安装

操作指南

为 Ceph RGW 创建 BucketClass
为 MinIO 创建 BucketClass
创建 Bucket Request

实用指南

使用 CephObjectStoreUser(Ceph 驱动)控制 COSI 桶的访问权限和配额
机器配置

可扩展性与性能

评估业务集群资源
磁盘配置
评估 Global Cluster 的资源
提升大规模 Kubernetes 集群的稳定性

存储

Ceph 分布式存储

介绍

安装

创建标准型集群
创建 Stretch 类型集群
架构

核心概念

核心概念

操作指南

访问存储服务
存储池管理
节点特定组件部署
添加设备/设备类
监控与告警

实用指南

配置专用集群用于分布式存储
清理分布式存储

灾难恢复

文件存储灾备
块存储灾难恢复
对象存储灾备
更新优化参数
创建 Ceph 对象存储用户
设置存储池配额

MinIO 对象存储

介绍
安装
架构

核心概念

核心概念

操作指南

添加存储池
Monitoring & Alerts

实用指南

数据灾难恢复

TopoLVM 本地存储

介绍
安装

操作指南

设备管理
监控与告警

实用指南

使用 Velero 备份和恢复 TopoLVM 文件系统 PVC
配置条带逻辑卷

网络

概览

网络操作器

MetalLB Operator
Ingress Nginx Operator
Envoy Gateway Operator

ALB Operator

了解 ALB
Auth
为 ALB 部署高可用 VIP
在 ALB 中绑定网卡
ALB 性能选择的决策依据
ALB 中的负载均衡会话亲和策略
L4/L7 超时
HTTP 重定向
CORS
Header Modification
URL 重写
ModSecurity
OTel
TCP/HTTP Keepalive
ALB 与 Ingress-NGINX 注解兼容性
ALB 监控

网络安全

理解网络策略 API
管理员网络策略
网络策略

Ingress 和负载均衡

使用 Envoy Gateway 实现 Ingress 和负载均衡
网络可观测性

安全

Alauda Container Security

安全与合规

合规性

介绍
安装 Alauda Container Platform Compliance with Kyverno

使用指南

私有镜像仓库访问配置
镜像签名验证策略
使用 Secrets 的镜像签名验证策略
镜像仓库验证策略
容器逃逸防护策略
Security Context Enforcement Policy
网络安全策略
Volume Security Policy

API Refiner

介绍
安装 Alauda Container Platform API Refiner
关于 Alauda Container Platform Compliance Service

用户与角色

用户

介绍

操作指南

管理用户角色
创建用户
用户管理

组

介绍

操作指南

管理用户组角色
创建本地用户组
管理本地用户组成员

角色

介绍

操作指南

创建 Kubernetes 角色
RBAC 重构后的角色管理

IDP

介绍

操作指南

LDAP 管理
OIDC 管理

故障排除

删除用户

用户策略

介绍

多租户(项目)

介绍

操作指南

创建项目
管理项目配额
管理项目
管理项目集群
管理项目成员

审计

介绍

遥测

安装

证书

自动化 Kubernetes 证书轮换
cert-manager
OLM 证书
证书监控
轮换平台访问地址的 TLS 证书

虚拟化

虚拟化

概览

介绍
安装

镜像

介绍

操作指南

添加虚拟机镜像
更新/删除虚拟机镜像
更新/删除镜像凭据

实用指南

使用 KubeVirt 基于 ISO 创建 Windows 镜像
使用 KubeVirt 基于 ISO 创建 Linux 镜像
导出虚拟机镜像
权限

虚拟机

介绍

操作指南

创建虚拟机/虚拟机组
虚拟机批量操作
使用 VNC 登录虚拟机
管理密钥对
管理虚拟机
监控与告警
虚拟机快速定位

实用指南

配置 USB 主机直通
虚拟机热迁移
虚拟机恢复
在 KubeVirt 上克隆虚拟机
物理 GPU 直通环境准备
配置虚拟机高可用性
从现有虚拟机创建虚拟机模板

故障排除

Pod 迁移及虚拟机节点异常关闭恢复
热迁移错误信息及解决方案

网络

介绍

操作指南

配置网络

实用指南

通过网络策略控制虚拟机网络请求
配置 SR-IOV
配置虚拟机使用网络绑定模式以支持 IPv6

存储

介绍

操作指南

管理虚拟磁盘

备份与恢复

介绍

操作指南

使用快照
使用 Velero

开发人员

快速开始

Creating a simple application via image

构建应用

Build application architecture

核心概念

应用类型
Custom Applications
工作负载类型
理解参数
理解环境变量
理解启动命令
资源单位说明

命名空间

创建命名空间
导入 Namespace
资源配额
Limit Range
Pod Security Policies
UID/GID 分配
超售比
管理 Namespace 成员
更新命名空间
删除/移除命名空间

创建应用

Creating applications from Image
Creating applications from Chart
通过 YAML 创建应用
Creating applications from Code
Creating applications from Operator Backed
Creating applications by using CLI

应用的操作与维护

Application Rollout

安装 Alauda Container Platform Argo Rollouts
Application Blue Green Deployment
Application Canary Deployment
状态描述

KEDA(Kubernetes Event-driven Autoscaling)

KEDA 概览
Installing KEDA

实用指南

Integrating ACP Monitoring with Prometheus Plugin
在 KEDA 中暂停自动扩缩容
配置 HPA
启动和停止原生应用
配置 VerticalPodAutoscaler (VPA)
配置 CronHPA
更新原生应用
导出应用
更新和删除 Chart 应用
应用版本管理
删除原生应用
处理资源耗尽错误
健康检查

计算组件

Deployments
DaemonSets
StatefulSets
CronJobs
Jobs
Pods
Containers
使用 Helm Chart

配置

Configuring ConfigMap
Configuring Secrets

应用可观测

监控面板
Logs
Events

实用指南

设置定时任务触发规则
添加ImagePullSecrets到ServiceAccount

镜像

镜像概述

实用指南

Creating images
Managing images

镜像仓库

介绍

安装

通过 YAML 安装
通过 Web UI 安装

实用指南

Common CLI Command Operations
Using Alauda Container Platform Registry in Kubernetes Clusters

Source to Image

概览

介绍
架构
发版日志
生命周期策略

安装

Installing Alauda Container Platform Builds

升级

升级 Alauda Container Platform Builds

操作指南

Managing applications created from Code

实用指南

Creating an application from Code

节点隔离策略

介绍
架构

核心概念

Core Concepts

操作指南

创建节点隔离策略
权限
常见问题

Alauda Container Platform GitOps

关于 Alauda Container Platform GitOps

扩展

概览
Operator
集群插件
图表仓库
上架软件包

可观测性

概览

监控

介绍
安装

架构

Monitoring Module Architecture
Monitoring Component Selection Guide
监控组件容量规划
核心概念

操作指南

指标管理
告警管理
通知管理
监控面板管理
探针管理

实用指南

Prometheus 监控数据的备份与恢复
VictoriaMetrics 监控数据的备份与恢复
从自定义命名的网络接口采集网络数据

分布式追踪

介绍
安装
架构
核心概念

操作指南

Query Tracing
查询 Trace 日志

实用指南

Java 应用中追踪的非侵入式集成
业务日志与 TraceID 关联

故障排除

无法查询到所需的Tracing
不完整的追踪数据

日志

关于 Logging Service

事件

介绍
Events

检查

介绍
架构

操作指南

Inspection
Component Health Status

硬件加速器

关于 Alauda Build of Hami
关于 Alauda Build 的 NVIDIA GPU 设备插件

Alauda 服务网格

Service Mesh 1.x
Service Mesh 2.x

Alauda AI

关于 Alauda AI

Alauda DevOps

关于 Alauda DevOps

Alauda 成本管理

关于 Alauda 成本管理

Alauda 原生应用服务

概览

介绍
架构
安装
升级

Alauda Database Service for MySQL

About Alauda Database Service for MySQL-MGR
About Alauda Database Service for MySQL-PXC

Alauda Cache Service for Redis OSS

About Alauda Cache Service for Redis OSS

Alauda Streaming Service for Kafka

About Alauda Streaming Service for Kafka

Alauda Streaming Service for RabbitMQ

About Alauda Streaming Service for RabbitMQ

Alauda support for PostgreSQL

About Alauda support for PostgreSQL

运维管理

介绍

参数模板管理

介绍

操作指南

参数模板管理

备份管理

介绍

操作指南

外部 S3 存储
备份管理

检查管理

介绍

操作指南

创建巡检任务
Exec Inspection Task
更新和删除巡检任务

实用指南

如何设置巡检调度?

检查优化建议

MySQL

MySQL IO 负载优化
MySQL 内存使用优化
MySQL 存储空间优化
MySQL 活跃线程数优化
MySQL 行锁优化

Redis

Redis BigKey
Redis 中的高 CPU 使用率
Redis 中的高内存使用率

Kafka

Kafka 中的高 CPU 利用率
Kafka Rebalance 优化
Kafka 内存使用优化
Kafka 存储空间优化

RabbitMQ

RabbitMQ Mnesia 数据库异常处理

告警管理

介绍

操作指南

与平台能力的关系

升级管理

介绍

操作指南

实例升级

API 参考

概览

介绍
Kubernetes API 使用指南

Advanced APIs

Alert APIs

AlertHistories [v1]
AlertHistoryMessages [v1]
AlertStatus [v2]
SilenceStatus [v2]

Event APIs

Search

GitOps APIs

Core
Application
ApplicationSet

Log APIs

Aggregation
Archive
Context
Search

Monitoring APIs

Indicators [monitoring.alauda.io/v1beta1]
Metrics [monitoring.alauda.io/v1beta1]
Variables [monitoring.alauda.io/v1beta1]

Kubernetes APIs

Alert APIs

AlertTemplate [alerttemplates.aiops.alauda.io/v1beta1]
PrometheusRule [prometheusrules.monitoring.coreos.com/v1]

AutoScaling APIs

HorizontalPodAutoscaler [autoscaling/v2]

Configuration APIs

ConfigMap [v1]
Secret [v1]

Inspection APIs

Inspection [inspections.ait.alauda.io/v1alpha1]

MachineConfiguration APIs

MachineConfig [machineconfiguration.alauda.io/v1alpha1]
MachineConfigPool [machineconfiguration.alauda.io/v1alpha1]
MachineConfiguration [machineconfiguration.alauda.io/v1alpha1]

ModulePlugin APIs

ModuleConfig [moduleconfigs.cluster.alauda.io/v1alpha1]
ModuleInfo [moduleinfoes.cluster.alauda.io/v1alpha1]
ModulePlugin [moduleplugins.cluster.alauda.io/v1alpha1]

Namespace APIs

LimitRange [v1]
Namespace [v1]
ResourceQuota [v1]

Networking APIs

HTTPRoute [httproutes.gateway.networking.k8s.io/v1]
Service [v1]
VpcEgressGateway [vpc-egress-gateways.kubeovn.io/v1]
Vpc [vpcs.kubeovn.io/v1]

Notification APIs

Notification [notifications.ait.alauda.io/v1beta1]
NotificationGroup [notificationgroups.ait.alauda.io/v1beta1]
NotificationTemplate [notificationtemplates.ait.alauda.io/v1beta1]

Operator APIs

Operator [operators.operators.coreos.com/v1]

Workload APIs

Cronjob [batch/v1]
DameonSet [apps/v1]
Deployment [apps/v1]
Job [batch/v1]
Pod [v1]
Replicaset [apps/v1]
ReplicationController [v1]
Statefulset [apps/v1]
📝 在 GitHub 上编辑此页
上一页集群互联(Alpha)
下一页配置 IPPool

以 PDF 格式查看完整文档

#配置 Egress Gateway

#目录

#关于 Egress Gateway

Egress Gateway 用于控制 Pod 的外部网络访问,使用一组静态地址,具备以下特性:

  • 通过 ECMP 实现 Active-Active 高可用,支持水平吞吐量扩展
  • 通过 BFD 实现快速故障切换(<1秒)
  • 支持 IPv6 和双栈
  • 通过 NamespaceSelector 和 PodSelector 实现细粒度路由控制
  • 允许通过 NodeSelector 灵活调度 Egress Gateway

同时,Egress Gateway 存在以下限制:

  • 底层网络连接使用 macvlan,需底层网络支持 Underlay
  • 多实例 Gateway 模式下需要多个 Egress IP
  • 当前仅支持 SNAT,不支持 EIP 和 DNAT
  • 当前不支持记录源地址转换关系

#实现细节

每个 Egress Gateway 由多个拥有多个网络接口的 Pod 组成。 每个 Pod 有两个网络接口:一个加入虚拟网络,用于 VPC 内通信, 另一个通过 Macvlan 连接到底层物理网络,用于外部网络通信。 虚拟网络流量最终通过 Egress Gateway 实例内的 NAT 访问外部网络。

每个 Egress Gateway 实例在 OVN 路由表中注册其地址。 当 VPC 内的 Pod 需要访问外部网络时, OVN 使用源地址哈希将流量转发到多个 Egress Gateway 实例地址, 实现负载均衡。随着 Egress Gateway 实例数量增加, 吞吐量也能水平扩展。

OVN 使用 BFD 协议探测多个 Egress Gateway 实例。 当某个 Egress Gateway 实例故障时,OVN 将对应路由标记为不可用, 实现快速故障检测与恢复。

#注意事项

  • 仅 Kube-OVN CNI 支持 Egress Gateway。
  • Egress Gateway 依赖 Multus-CNI。

#使用方法

#创建 Network Attachment Definition

Egress Gateway 使用多网卡同时访问内外网, 因此需要创建 Network Attachment Definition 以连接外部网络。 以下示例展示了使用 macvlan 插件和 Kube-OVN 提供的 IPAM:

apiVersion: k8s.cni.cncf.io/v1
kind: NetworkAttachmentDefinition
metadata:
  name: eth1
  namespace: default
spec:
  config: '{
    "cniVersion": "0.3.0",
    "type": "macvlan",
    "master": "eth1",
    "mode": "bridge",
    "ipam": {
    "type": "kube-ovn",
    "server_socket": "/run/openvswitch/kube-ovn-daemon.sock",
    "provider": "eth1.default"
    }
    }'
---
apiVersion: kubeovn.io/v1
kind: Subnet
metadata:
  name: macvlan1
spec:
  protocol: IPv4
  provider: eth1.default
  cidrBlock: 172.17.0.0/16
  gateway: 172.17.0.1
  excludeIps:
    - 172.17.0.2..172.17.0.10
  1. 连接外部网络的宿主机接口。
  2. Provider 名称,格式为 <network attachment definition name>.<namespace>。
  3. 用于标识外部网络的 Provider 名称,必须与 NetworkAttachmentDefinition 中一致。
提示

你可以使用任意 CNI 插件创建 Network Attachment Definition 来访问对应网络。

#创建 VPC Egress Gateway

创建 VPC Egress Gateway 资源,示例如下:

apiVersion: kubeovn.io/v1
kind: VpcEgressGateway
metadata:
  name: gateway1
  namespace: default
spec:
  replicas: 1
  externalSubnet: macvlan1
  nodeSelector:
    - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
            - kube-ovn-worker
            - kube-ovn-worker2
  tolerations:
    - key: node-role.kubernetes.io/control-plane
      operator: Exists
      effect: NoSchedule
  selectors:
    - namespaceSelector:
        matchLabels:
          kubernetes.io/metadata.name: default
  policies:
    - snat: true
      subnets:
        - subnet1
    - snat: false
      ipBlocks:
        - 10.18.0.0/16
  1. 创建 VPC Egress Gateway 实例的命名空间。
  2. VPC Egress Gateway 实例副本数。
  3. 连接外部网络的子网。
  4. 用于调度 VPC Egress Gateway 实例的节点选择器。
  5. 用于调度 VPC Egress Gateway 实例的容忍度。
  6. 用于选择通过 VPC Egress Gateway 访问外部网络的 Pod 的命名空间选择器和 Pod 选择器。
  7. VPC Egress Gateway 的策略,包括是否启用 SNAT 以及应用的子网或 IP 段。
  8. 策略是否启用 SNAT。
  9. 策略应用的子网。
  10. 策略应用的 IP 段。

上述资源会在 default 命名空间下创建名为 gateway1 的 VPC Egress Gateway, 以下 Pod 将通过 macvlan1 子网访问外部网络:

  • default 命名空间内的 Pod
  • subnet1 子网下的 Pod
  • IP 属于 CIDR 10.18.0.0/16 的 Pod
注意

匹配 .spec.selectors 的 Pod 访问外部网络时将启用 SNAT。

创建完成后,查看 VPC Egress Gateway 资源:

$ kubectl get veg gateway1
NAME       VPC           REPLICAS   BFD ENABLED   EXTERNAL SUBNET   PHASE       READY   AGE
gateway1   ovn-cluster   1          false         macvlan1          Completed   true    13s

查看更多信息:

kubectl get veg gateway1 -o wide
NAME       VPC           REPLICAS   BFD ENABLED   EXTERNAL SUBNET   PHASE       READY   INTERNAL IPS     EXTERNAL IPS      WORKING NODES         AGE
gateway1   ovn-cluster   1          false         macvlan1          Completed   true    ["10.16.0.12"]   ["172.17.0.11"]   ["kube-ovn-worker"]   82s

查看工作负载:

$ kubectl get deployment -l ovn.kubernetes.io/vpc-egress-gateway=gateway1
NAME       READY   UP-TO-DATE   AVAILABLE   AGE
gateway1   1/1     1            1           4m40s

$ kubectl get pod -l ovn.kubernetes.io/vpc-egress-gateway=gateway1 -o wide
NAME                       READY   STATUS    RESTARTS   AGE     IP           NODE              NOMINATED NODE   READINESS GATES
gateway1-b9f8b4448-76lhm   1/1     Running   0          4m48s   10.16.0.12   kube-ovn-worker   <none>           <none>

查看 Pod 中的 IP 地址、路由和 iptables 规则:

$ kubectl exec gateway1-b9f8b4448-76lhm -c gateway -- ip address show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: net1@if13: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 62:d8:71:90:7b:86 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 172.17.0.11/16 brd 172.17.255.255 scope global net1
       valid_lft forever preferred_lft forever
    inet6 fe80::60d8:71ff:fe90:7b86/64 scope link
       valid_lft forever preferred_lft forever
17: eth0@if18: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1400 qdisc noqueue state UP group default
    link/ether 36:7c:6b:c7:82:6b brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 10.16.0.12/16 brd 10.16.255.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::347c:6bff:fec7:826b/64 scope link
       valid_lft forever preferred_lft forever

$ kubectl exec gateway1-b9f8b4448-76lhm -c gateway -- ip rule show
0:      from all lookup local
1001:   from all iif eth0 lookup default
1002:   from all iif net1 lookup 1000
1003:   from 10.16.0.12 iif lo lookup 1000
1004:   from 172.17.0.11 iif lo lookup default
32766:  from all lookup main
32767:  from all lookup default

$ kubectl exec gateway1-b9f8b4448-76lhm -c gateway -- ip route show
default via 172.17.0.1 dev net1
10.16.0.0/16 dev eth0 proto kernel scope link src 10.16.0.12
10.17.0.0/16 via 10.16.0.1 dev eth0
10.18.0.0/16 via 10.16.0.1 dev eth0
172.17.0.0/16 dev net1 proto kernel scope link src 172.17.0.11

$ kubectl exec gateway1-b9f8b4448-76lhm -c gateway -- ip route show table 1000
default via 10.16.0.1 dev eth0

$ kubectl exec gateway1-b9f8b4448-76lhm -c gateway -- iptables -t nat -S
-P PREROUTING ACCEPT
-P INPUT ACCEPT
-P OUTPUT ACCEPT
-P POSTROUTING ACCEPT
-N VEG-MASQUERADE
-A PREROUTING -i eth0 -j MARK --set-xmark 0x4000/0x4000
-A POSTROUTING -d 10.18.0.0/16 -j RETURN
-A POSTROUTING -s 10.18.0.0/16 -j RETURN
-A POSTROUTING -j VEG-MASQUERADE
-A VEG-MASQUERADE -j MARK --set-xmark 0x0/0xffffffff
-A VEG-MASQUERADE -j MASQUERADE --random-fully

在 Gateway Pod 中抓包验证网络流量:

$ kubectl exec -ti gateway1-b9f8b4448-76lhm -c gateway -- bash
nobody@gateway1-b9f8b4448-76lhm:/kube-ovn$ tcpdump -i any -nnve icmp and host 172.17.0.1
tcpdump: data link type LINUX_SLL2
tcpdump: listening on any, link-type LINUX_SLL2 (Linux cooked v2), snapshot length 262144 bytes
06:50:58.936528 eth0  In  ifindex 17 92:26:b8:9e:f2:1c ethertype IPv4 (0x0800), length 104: (tos 0x0, ttl 63, id 30481, offset 0, flags [DF], proto ICMP (1), length 84)
    10.17.0.9 > 172.17.0.1: ICMP echo request, id 37989, seq 0, length 64
06:50:58.936574 net1  Out ifindex 2 62:d8:71:90:7b:86 ethertype IPv4 (0x0800), length 104: (tos 0x0, ttl 62, id 30481, offset 0, flags [DF], proto ICMP (1), length 84)
    172.17.0.11 > 172.17.0.1: ICMP echo request, id 39449, seq 0, length 64
06:50:58.936613 net1  In  ifindex 2 02:42:39:79:7f:08 ethertype IPv4 (0x0800), length 104: (tos 0x0, ttl 64, id 26701, offset 0, flags [none], proto ICMP (1), length 84)
    172.17.0.1 > 172.17.0.11: ICMP echo reply, id 39449, seq 0, length 64
06:50:58.936621 eth0  Out ifindex 17 36:7c:6b:c7:82:6b ethertype IPv4 (0x0800), length 104: (tos 0x0, ttl 63, id 26701, offset 0, flags [none], proto ICMP (1), length 84)
    172.17.0.1 > 10.17.0.9: ICMP echo reply, id 37989, seq 0, length 64

OVN Logical Router 上自动创建路由策略:

$ kubectl ko nbctl lr-policy-list ovn-cluster
Routing Policies
     31000                            ip4.dst == 10.16.0.0/16   allow
     31000                            ip4.dst == 10.17.0.0/16   allow
     31000                           ip4.dst == 100.64.0.0/16   allow
     30000                              ip4.dst == 172.18.0.2  reroute  100.64.0.4
     30000                              ip4.dst == 172.18.0.3  reroute  100.64.0.3
     30000                              ip4.dst == 172.18.0.4  reroute  100.64.0.2
     29100                  ip4.src == $VEG.8ca38ae7da18.ipv4  reroute  10.16.0.12
     29100                   ip4.src == $VEG.8ca38ae7da18_ip4  reroute  10.16.0.12
     29000 ip4.src == $ovn.default.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000       ip4.src == $ovn.default.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000        ip4.src == $ovn.default.kube.ovn.worker_ip4  reroute  100.64.0.4
     29000     ip4.src == $subnet1.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000           ip4.src == $subnet1.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000            ip4.src == $subnet1.kube.ovn.worker_ip4  reroute  100.64.0.4
  1. VPC Egress Gateway 用于转发 .spec.policies 指定 Pod 流量的 Logical Router 策略。
  2. VPC Egress Gateway 用于转发 .spec.selectors 指定 Pod 流量的 Logical Router 策略。

如需启用负载均衡,修改 .spec.replicas,示例如下:

$ kubectl scale veg gateway1 --replicas=2
vpcegressgateway.kubeovn.io/gateway1 scaled

$ kubectl get veg gateway1
NAME       VPC           REPLICAS   BFD ENABLED   EXTERNAL SUBNET   PHASE       READY   AGE
gateway1   ovn-cluster   2          false         macvlan           Completed   true    39m

$ kubectl get pod -l ovn.kubernetes.io/vpc-egress-gateway=gateway1 -o wide
NAME                       READY   STATUS    RESTARTS   AGE   IP           NODE               NOMINATED NODE   READINESS GATES
gateway1-b9f8b4448-76lhm   1/1     Running   0          40m   10.16.0.12   kube-ovn-worker    <none>           <none>
gateway1-b9f8b4448-zd4dl   1/1     Running   0          64s   10.16.0.13   kube-ovn-worker2   <none>           <none>

$ kubectl ko nbctl lr-policy-list ovn-cluster
Routing Policies
     31000                            ip4.dst == 10.16.0.0/16    allow
     31000                            ip4.dst == 10.17.0.0/16    allow
     31000                           ip4.dst == 100.64.0.0/16    allow
     30000                              ip4.dst == 172.18.0.2  reroute  100.64.0.4
     30000                              ip4.dst == 172.18.0.3  reroute  100.64.0.3
     30000                              ip4.dst == 172.18.0.4  reroute  100.64.0.2
     29100                  ip4.src == $VEG.8ca38ae7da18.ipv4  reroute  10.16.0.12, 10.16.0.13
     29100                   ip4.src == $VEG.8ca38ae7da18_ip4  reroute  10.16.0.12, 10.16.0.13
     29000 ip4.src == $ovn.default.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000       ip4.src == $ovn.default.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000        ip4.src == $ovn.default.kube.ovn.worker_ip4  reroute  100.64.0.4
     29000     ip4.src == $subnet1.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000           ip4.src == $subnet1.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000            ip4.src == $subnet1.kube.ovn.worker_ip4  reroute  100.64.0.4

#启用基于 BFD 的高可用

基于 BFD 的高可用依赖 VPC BFD LRP 功能, 需要修改 VPC 资源以启用 BFD Port。 以下示例为默认 VPC 启用 BFD Port:

apiVersion: kubeovn.io/v1
kind: Vpc
metadata:
  name: ovn-cluster
spec:
  bfdPort:
    enabled: true
    ip: 10.255.255.255
    nodeSelector:
      matchLabels:
        kubernetes.io/os: linux
  1. 是否启用 BFD Port。
  2. BFD Port 使用的 IP 地址,必须是有效且不与其他 IP/子网冲突的地址。
  3. 用于选择运行 BFD Port 节点的节点选择器,BFD Port 绑定选中节点的 OVN HA Chassis Group,以 Active/Backup 模式工作。

启用 BFD Port 后,对应 OVN Logical Router 上会自动创建专用的 BFD LRP:

$ kubectl ko nbctl show ovn-cluster
router 0c1d1e8f-4c86-4d96-88b2-c4171c7ff824 (ovn-cluster)
    port bfd@ovn-cluster
        mac: "8e:51:4b:16:3c:90"
        networks: ["10.255.255.255"]
    port ovn-cluster-join
        mac: "d2:21:17:71:77:70"
        networks: ["100.64.0.1/16"]
    port ovn-cluster-ovn-default
        mac: "d6:a3:f5:31:cd:89"
        networks: ["10.16.0.1/16"]
    port ovn-cluster-subnet1
        mac: "4a:09:aa:96:bb:f5"
        networks: ["10.17.0.1/16"]
  1. OVN Logical Router 上创建的 BFD Port。

随后,在 VPC Egress Gateway 中将 .spec.bfd.enabled 设置为 true,示例如下:

apiVersion: kubeovn.io/v1
kind: VpcEgressGateway
metadata:
  name: gateway2
  namespace: default
spec:
  vpc: ovn-cluster
  replicas: 2
  internalSubnet: ovn-default
  externalSubnet: macvlan1
  bfd:
    enabled: true
    minRX: 100
    minTX: 100
    multiplier: 5
  policies:
    - snat: true
      ipBlocks:
        - 10.18.0.0/16
  1. Egress Gateway 所属的 VPC。
  2. Egress Gateway 实例连接的内部子网。
  3. Egress Gateway 实例连接的外部子网。
  4. 是否为 Egress Gateway 启用 BFD。
  5. BFD 最小接收间隔,单位毫秒。
  6. BFD 最小发送间隔,单位毫秒。
  7. BFD 乘数,决定丢包多少次后判定故障。

查看 VPC Egress Gateway 信息:

$ kubectl get veg gateway2 -o wide
NAME       VPC    REPLICAS   BFD ENABLED   EXTERNAL SUBNET   PHASE       READY   INTERNAL IPS                    EXTERNAL IPS                    WORKING NODES                            AGE
gateway2   vpc1   2          true          macvlan           Completed   true    ["10.16.0.102","10.16.0.103"]   ["172.17.0.13","172.17.0.14"]   ["kube-ovn-worker","kube-ovn-worker2"]   58s

$ kubectl get pod -l ovn.kubernetes.io/vpc-egress-gateway=gateway2 -o wide
NAME                       READY   STATUS    RESTARTS   AGE     IP            NODE               NOMINATED NODE   READINESS GATES
gateway2-fcc6b8b87-8lgvx   1/1     Running   0          2m18s   10.16.0.103   kube-ovn-worker2   <none>           <none>
gateway2-fcc6b8b87-wmww6   1/1     Running   0          2m18s   10.16.0.102   kube-ovn-worker    <none>           <none>

$ kubectl ko nbctl lr-policy-list ovn-cluster
Routing Policies
     31000                            ip4.dst == 10.16.0.0/16    allow
     31000                            ip4.dst == 10.17.0.0/16    allow
     31000                           ip4.dst == 100.64.0.0/16    allow
     30000                              ip4.dst == 172.18.0.2  reroute  100.64.0.4
     30000                              ip4.dst == 172.18.0.3  reroute  100.64.0.3
     30000                              ip4.dst == 172.18.0.4  reroute  100.64.0.2
     29100                  ip4.src == $VEG.8ca38ae7da18.ipv4  reroute  10.16.0.102, 10.16.0.103  bfd
     29100                   ip4.src == $VEG.8ca38ae7da18_ip4  reroute  10.16.0.102, 10.16.0.103  bfd
     29090                  ip4.src == $VEG.8ca38ae7da18.ipv4     drop
     29090                   ip4.src == $VEG.8ca38ae7da18_ip4     drop
     29000 ip4.src == $ovn.default.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000       ip4.src == $ovn.default.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000        ip4.src == $ovn.default.kube.ovn.worker_ip4  reroute  100.64.0.4
     29000     ip4.src == $subnet1.kube.ovn.control.plane_ip4  reroute  100.64.0.3
     29000           ip4.src == $subnet1.kube.ovn.worker2_ip4  reroute  100.64.0.2
     29000            ip4.src == $subnet1.kube.ovn.worker_ip4  reroute  100.64.0.4

$ kubectl ko nbctl list bfd
_uuid               : 223ede10-9169-4c7d-9524-a546e24bfab5
detect_mult         : 5
dst_ip              : "10.16.0.102"
external_ids        : {af="4", vendor=kube-ovn, vpc-egress-gateway="default/gateway2"}
logical_port        : "bfd@ovn-cluster"
min_rx              : 100
min_tx              : 100
options             : {}
status              : up

_uuid               : b050c75e-2462-470b-b89c-7bd38889b758
detect_mult         : 5
dst_ip              : "10.16.0.103"
external_ids        : {af="4", vendor=kube-ovn, vpc-egress-gateway="default/gateway2"}
logical_port        : "bfd@ovn-cluster"
min_rx              : 100
min_tx              : 100
options             : {}
status              : up

查看 BFD 连接状态:

$ kubectl exec gateway2-fcc6b8b87-8lgvx -c bfdd -- bfdd-control status
There are 1 sessions:
Session 1
 id=1 local=10.16.0.103 (p) remote=10.255.255.255 state=Up

$ kubectl exec gateway2-fcc6b8b87-wmww6 -c bfdd -- bfdd-control status
There are 1 sessions:
Session 1
 id=1 local=10.16.0.102 (p) remote=10.255.255.255 state=Up
注意

如果所有 Gateway 实例均不可用,应用了 VPC Egress Gateway 的出口流量将被丢弃。

#配置参数

#VPC BFD Port

字段类型可选默认值描述示例
enabledboolean是false是否启用 BFD Port。true
ipstring否-BFD Port 使用的 IP 地址。
不得与其他地址冲突。支持 IPv4、IPv6 及双栈。
169.255.255.255
fdff::1
169.255.255.255,fdff::1
nodeSelectormatchLabelsobject是-用于选择运行 BFD Port 的节点的标签选择器。
BFD Port 绑定选中节点的 OVN HA Chassis Group,以 Active/Backup 模式工作。
若未指定,Kube-OVN 会自动选择最多三个节点。
可通过执行 kubectl ko nbctl list ha_chassis_group 查看所有 OVN HA Chassis Group 资源。
键值对映射。-
matchExpressionsobject 数组是-标签选择器要求列表,要求之间为 AND 关系。-

#VPC Egress Gateway

字段类型可选默认值描述示例
vpcstring是默认 VPC 名称 (ovn-cluster)VPC 名称。vpc1
replicasinteger/int32是1副本数。2
prefixstring是-工作负载部署名称的不可变前缀。veg-
imagestring是-工作负载部署使用的镜像。docker.io/kubeovn/kube-ovn:v1 .14.0-debug
internalSubnetstring是默认 VPC 内的子网名称。用于访问内外网的子网名称。subnet1
externalSubnet否-ext1
internalIPsstring 数组是-

用于访问内外网的 IP 地址。支持 IPv4、IPv6 及双栈。
指定的 IP 数量不得少于 replicas。
建议设置为 <replicas> + 1,避免 Pod 创建异常。

10.16.0.101

fdff::1

169.255.255.255,fdff::1
externalIPs
bfdenabledboolean是falseBFD 配置。是否为 Egress Gateway 启用 BFD。-
minRXinteger/int32是1000BFD 的最小接收/发送间隔,单位毫秒。500
minTX
multiplierinteger/int32是3BFD 乘数。1
policiessnatboolean是false出口策略。是否启用 SNAT/MASQUERADE。true
ipBlocksstring 数组是-

应用网关的 IP 段。
支持 IPv4 和 IPv6。

192.168.0.1
192.168.0.0/24
fd00::1
fd00::/120
subnetsstring 数组是-

应用网关的 VPC 子网名称。
支持 IPv4、IPv6 及双栈子网。

subnet1
selectorsnamespaceSelectormatchLabelsobject是-

通过命名空间选择器和 Pod 选择器配置出口策略。
匹配的 Pod 会应用 SNAT/MASQUERADE。

命名空间选择器。空标签选择器匹配所有命名空间。

键值对映射。-
matchExpressionsobject 数组是-标签选择器要求列表,要求之间为 AND 关系。-
podSelectormatchLabelsobject是-

Pod 选择器。空标签选择器匹配所有 Pod。

键值对映射。-
matchExpressionsobject 数组是-标签选择器要求列表,要求之间为 AND 关系。-
nodeSelectormatchLabelsobject是-

用于选择运行工作负载部署的节点的节点选择器。
工作负载(Deployment/Pod)将在选中节点上运行。

键值对映射。-
matchExpressionsobject 数组是-标签选择器要求列表,要求之间为 AND 关系。-
matchFieldsobject 数组是-字段选择器要求列表,要求之间为 AND 关系。-
tolerationskeystring是-

用于调度 VPC Egress Gateway 实例的容忍度。

Key 是容忍的污点键,空表示匹配所有污点键。
如果 Key 为空,operator 必须为 Exists;该组合表示匹配所有值和所有键。

node-role.kubernetes.io/control-plane
operatorstring是Equal

Operator 表示键与值的关系。有效值为 Exists 和 Equal。
Exists 相当于值的通配符,允许 Pod 容忍某类所有污点。

Exists
valuestring是-

Value 是容忍的污点值。
如果 operator 是 Exists,value 应为空,否则为普通字符串。

-
effectstring是-

Effect 表示匹配的污点效果。空表示匹配所有效果。
允许值为 NoSchedule、PreferNoSchedule 和 NoExecute。

NoSchedule
tolerationSecondsinteger是-

TolerationSeconds 表示容忍污点的时间(仅对 effect 为 NoExecute 的容忍度有效,否则忽略)。
默认不设置,表示永久容忍(不驱逐)。
0 和负值视为 0(立即驱逐)。

-
trafficPolicystring是Cluster

仅在启用 BFD 时生效。
可选值:Cluster/Local。
设置为 Local 时,出口流量优先重定向到同节点运行的 VPC Egress Gateway 实例,若实例不可用,则重定向到其他实例。

Local

#相关资源

  • Egress Gateway - Kube-OVN 文档
  • RFC 5880 - 双向转发检测 (BFD)