人工智能推理 针对深度学习的在线推理场景,相比训练负载,推理负载对GPU性能的要求降低,但对运行稳定性要求更高,对服务器响应延时也有了更高要求。 可选择NVIDIA Tesla A10、NVIDIA Tesla T4等GPU类型,在满足性能要求的同时,提供更具性价比的选择,同时支持GPU硬件级的解码功能并加速端到端的图片类推理性能。
Kubernetes 可以有效提升业务编排能力和资源利用率,但在创建 Kubernetes 工作负载时,通常需要为工作负载配置合适的资源 Request ,表示对资源的占用和限制。其中,对资源利用率影响最大的是 Request 。为防止自己的工作负载所用资源被其他工作负载占用,或者为了应对业务高峰时的资源消耗诉求,用户习惯于将 Request 设置得偏大。
该方案可根据实例规模、集群磁盘使用率、集群机器负载、集群机架位和集群机器所在交换机等因素进行管理,使存储资源得到充分利用,并满足高性能的存储需求。 然而,随着时间的推移和集群的扩容或缩容等操作,存储系统中的副本分布可能会出现不均衡的现象。为了解决这一问题,GaiaDB 的分布式多租户存储方案能够提供统一的资源均衡策略。
个 CPU 最近一分钟负载 60s CPU 最近五分钟负载 个 CPU 最近五分钟负载 60s CPU 最近十五分钟负载 个 CPU 最近十五分钟负载 60s 内存监控 内存总量 Bytes 内存总量 60s 内存可用量 Bytes 内存可用量 60s 内存缓存大小 Bytes 内存缓存大小 60s 内存缓冲大小 Bytes 内存缓冲大小 60s 内存使用量 Bytes 内存使用量 60s 内存使用率
使用免密组件提交工作负载 免密组件安装成功以后,在免密组件生效的命名空间下使用ServiceAccount创建工作负载时,会自动注入CCR实例的镜像访问凭据。
当前集群占用GPU的工作负载名称 类型 当前集群占用GPU的工作负载类型 命名空间 当前集群占用GPU的工作负载所在命名空间 开始时间 当前集群占用GPU的工作负载开始时间 运行时长 当前集群占用GPU的工作负载运行时长 GPU配给卡数 当前集群占用GPU的工作负载配给GPU卡数 显存平均利用率 当前集群占用GPU的工作负载内所有GPU卡显存平均利用率实时值 GPU平均利用率 当前集群占用GPU的工作负载内
当前集群占用GPU的工作负载名称 类型 当前集群占用GPU的工作负载类型 命名空间 当前集群占用GPU的工作负载所在命名空间 开始时间 当前集群占用GPU的工作负载开始时间 运行时长 当前集群占用GPU的工作负载运行时长 GPU配给卡数 当前集群占用GPU的工作负载配给GPU卡数 显存平均利用率 当前集群占用GPU的工作负载内所有GPU卡显存平均利用率实时值 GPU平均利用率 当前集群占用GPU的工作负载内
创建工作负载支持为容器配置临时存储资源 • 创建工作负载支持配置时区同步 • 工作负载新增重新部署操作 • 新增 CCE CSI RapidFS Plugin 组件 • 支持弹性RDMA全生命周期管理 2025-07 • 优化创建节点组的交互页面 • 升级集群审计组件,支持大规格集群能力 • 新增调整期望节点数二次确认信息 • 节点组扩容支持部分成功 • HPAS节点组支持本地盘自定义挂载 •
导航路径: 容器引擎 CCE->集群管理->集群列表->目标集群->工作负载->无状态 进入目标工作负载后,单击 【编辑 YAML】 ,在 spec.template.spec.containers[].securityContext.capabilities.drop 中添加 NET_RAW ,使容器启动时主动丢弃该能力;如工作负载包含多个容器,请按需对对应容器分别配置。
gt;,若不设置此标签,则会以工作负载的名称 metadata.name 上报指标至 APM。