容器引擎CCE

    创建VPC-CNI模式集群

    创建VPC-CNI模式集群

    VPC-CNI模式说明

    VPC-CNI 模式是百度云容器引擎CCE支持的扩展网络模式,基于百度云的弹性网卡产品,能够为集群内的 Pod 分配 VPC 内的 IP 地址。 由百度云 VPC 功能负责路由,打通容器网络的连通性,可实现 Pod 和 Node 的控制面和数据面完全在同一网络层面,该模式下的 Pod 能够复用百度云 VPC 所有产品特性。

    VPC-CNI 模式的集群一经创建,无法修改,请提前做好网络规划。

    由于 VPC-CNI 模式存在使用限制,建议您提前考虑是否适配您的业务场景。

    VPC-CNI模式应用场景

    采用 VPC-CNI 模式的集群,具有如下优势:

    1. 原生的百度云 VPC 网络性能。
    2. 整合百度云 VPC 的产品特性,例如您能够给 Pod 绑定单独安全组实现数据包过滤。

    VPC-CNI 模式使用说明

    1. VPC-CNI 模式支持 Node 分布在在不同可用区、不同子网。
    2. 当前 VPC-CNI 模式仅支持 Pod 与 Node 处于同一子网。
    3. 当前 VPC-CNI 模式下, Pod 与 Node 绑定同一个安全组。
    4. 当前 VPC-CNI 模式为每个 Node 只绑定 1 个弹性网卡,并预先分配最大数量的辅助IP用以分配给 Pod。
    5. 当前 VPC-CNI 模式支持的操作系统镜像包括centos6/7以及ubuntu16.04,不支持ubuntu18.04。
    6. 当前 VPC-CNI 模式下,每个 Node 的 Pod 数量上限由 Node 内存决定,其对应关系见下表。
    Node 内存 Pod 数量上限
    1G 5
    2-8G 11
    12-32G 19
    大于32G 23

    创建 VPC-CNI 模式集群方法

    1. 进入创建集群页面
    2. 在【容器网络模式】选项中选择【CNI插件】,如下图所示:
    3. 其余创建步骤与普通集群相同
    4. 若在创建过程中出现“ENI配额不足,无法使用CNI插件”提示,说明当前 VPC 内弹性网卡剩余配额不足以分配给每个 Node,请提交工单申请提高单个 VPC 内弹性网卡的配额数目。

    cni_mode.png

    上一篇
    在CCE集群中使用NetworkPolicy
    下一篇
    容器网段空间耗尽如何继续扩容