云服务器BCC 专属服务器DCC GPU云服务器 弹性裸金属服务器 云手机 应用引擎 BAE 轻量应用服务器LS 弹性公网IP 私有网络 VPC 负载均衡 BLB 智能云解析 DNS 专线ET 云智能网 CSN 云防火墙 CFW 对象存储 BOS 文件存储 CFS 云磁盘 CDS 存储网关BSG 边缘计算节点 BEC 数据流转平台CloudFlow 内容分发网络 CDN 海外CDN 动态加速 DRCDN
核心概念 容器组 容器组的概念类似于Kubernetes中的Pod,是一组由用户定义的容器集合。容器组中的容器将被调度到同一台宿主机中,共享网络和存储资源。 容器组的生命周期由其中的所有容器决定,容器组可能出现以下几种状态之一: 挂起(pending):创建容器组的请求已经发起,但有一个或者多个容器镜像尚未创建。挂起状态通常包括包括调度 Pod 、通过网络下载镜像和启动容器的时间。
GPU资源调度-显存共享 功能说明 GPU显存共享功能主要是为了支持多个边缘AI服务可以运行在 多张GPU卡上 这个特性。当边缘节点上运行多个AI服务的时候,默认情况下,多个AI服务都会运行在GPU卡1上。这样即使边缘节点有多张AI计算卡,也无法动态调用到GPU卡2。使用GPU共享功能,通过设置边缘AI服务的显存容量需求,实现边缘AI服务在多卡之间的动态调度。
核心概念 伸缩组 一组具有自动弹性伸缩能力的BCC被称为伸缩组,您对弹性伸缩的使用通常是从创建伸缩组开始的。 节点 伸缩组中每个BCC都被称为一个节点,伸缩组的扩容或者缩容即是通过增加和减少节点数量进行。1个伸缩组中包含N个节点,用户可以为伸缩组配置最大和最小的节点数范围。 伸缩组配置 伸缩组配置用于定义伸缩组的基本属性,包括所在区域、网络、可伸缩的节点数范围等。
NVIDIA GPU资源监控 前言 本文介绍百度智能边缘BIE如何纳管使用NVIDIA GPU的边缘节点,并实现对NVIDIA GPU的资源监控。此处提到的 使用NVIDIA GPU的边缘节点 ,一般特指使用了NVIDIA GPU AI加速卡的x86架构的GPU服务器,GPU AI加速卡可以是NVIDIA T4/P4/V100/A100/3090等。
5.网关概念 流程引擎5_网关概念功能介绍 本视频主要介绍网关概念相关功能内容;
边缘服务调用 名词定义 容器应用:由容器服务配置和数据卷配置组成的应用。 函数应用:由函数服务配置和数据卷配置组成的应用。 功能简介 边缘服务调用 是指在边缘节点上,可以通过约定的域名地址访问到运行在边缘计算平台上的其他服务。
CA key : /var/lib/baetyl/testcert/client.key # 服务器的私钥 cert : /var/lib/baetyl/testcert/client.pem # 服务器的公钥 insecureSkipVerify : true # 是否跳过服务端证书校验 - name : http - client # 名称 kind : http # http类型(仅可配置为
核心概念 Modbus通讯协议: Modbus协议是应用于电子控制器上的一种通用语言。通过此协议,控制器相互之间、控制器经由网络(例如以太网)和其它设备之间可以通信。通过Modbus,不同厂商生产的控制设备可以连成工业网络,进行集中监控。 Modbus协议模式: 物接入按照Modbus协议支持3种模式,TCP, RTU, ASCII。目前物解析支持TCP和RTU两种模式。
在边缘计算场景下,要求边缘框架具有一定的自治能力,其中也包括对于端侧消息流具有一定的处理能力,可以实现消息的本地过滤、统计,再上传云端。边缘规则引擎可以实现端侧的消息路由能力,您可以设置边缘消息规则,控制本地消息在边缘计算节点中的流转,从而实现数据的安全可控。