应用场景 随着 万物互联 概念的提出,物联网设备逐渐成为数据生产的中心,其生产数据的增长速度也愈来愈快,且由于其在地理位置上的分散性,以及对响应时间、安全性的要求越来越高,导致现有的云计算平台也变得越来越不适配实际场景,数据计算的舞台中心正逐渐从云端计算向边缘计算靠拢。 这里以 IoT 场景和 AI 场景为例,分享两个典型解决方案。
打开浏览器,输入[边缘节点ip:8094],验证边缘服务是否正常启动,如下图所示: 可以看到边缘AI服务已经正常启动,点击 添加图片 按钮,上传一张 测试图片 ,查看推断结果,如下所示:
打开浏览器,输入[边缘节点ip:8093],验证边缘服务是否正常启动,如下图所示: 可以看到边缘AI服务已经正常启动,点击 添加图片 按钮,上传一张 测试图片 ,查看推断结果,如下所示:
需要激活的边缘服务器使用方法 百度智能云拥有多种型号的边缘服务器,部分边缘服务器在使用前,需要对服务器进行激活。 此处以ECS-N-B01边缘服务器为例,说明边缘服务器的激活方式。 准备工作 边缘服务器已经安装完成。 安装电源线,确认电源灯常亮。 注册百度智能云账号。 开通边缘服务器服务。 激活流程 边缘服务器的激活流程包含两个步骤:配置服务器网络、激活服务器。
远程SSH边缘节点 概述 本文介绍进程模式节点远程调试功能,用户可以通过BIE云端管理平台远程SSH链接边缘节点。该功能同时支持Windows和Linux操作系统。 使用该功能前,请确保边缘节点安装了openssh Server。 操作指南 创建进程模式节点 首先创建一个进程模式的节点,创建方式参考“节点管理->进程模式节点“章节。
GPU资源调度-显存共享 功能说明 GPU显存共享功能主要是为了支持多个边缘AI服务可以运行在 多张GPU卡上 这个特性。当边缘节点上运行多个AI服务的时候,默认情况下,多个AI服务都会运行在GPU卡1上。这样即使边缘节点有多张AI计算卡,也无法动态调用到GPU卡2。使用GPU共享功能,通过设置边缘AI服务的显存容量需求,实现边缘AI服务在多卡之间的动态调度。
BOS 文件存储 CFS 云磁盘 CDS 存储网关BSG 边缘计算节点 BEC 数据流转平台CloudFlow 内容分发网络 CDN 海外CDN 动态加速 DRCDN 并行文件存储PFS 数据库 云数据库 RDS 云数据库 Redis 云数据库 DocDB for MongoDB 云数据库 HBase 云数据库 GaiaDB 分布式数据库 GaiaDB-X 数据传输服务 DTS 云数据库 TableStorage
Item Id = group.datapath 部署软网关 查看测点值 点击部署软网关,将云端配置更新到边缘 修改服务配置 由于BIE服务默认以管理员运行,但若想要和opc server通信,client和server的用户必须保持一致,因此需要在修改软网关服务的登陆用户。 进入“services.msc”,找到软网关运行时服务“baetyl-gateway-xxxx”。
支持以下的消息流转方式: 消息源: 订阅来自MQTT的消息 接收来自HTTP的请求 消息处理: 调用函数计算(此步骤可以省略) 消息目的地: 将处理后的结果发送至mqtt 发送至http服务 发送至消息队列kafka 发送至rabbit mq 解析消息内容,发送本地文件至s3对象存储 其中 baetyl 支持 Python、Node、SQL 等多种运行时,可以配置相关的脚本函数对消息进行过滤、处理、
2、前提准备 2.1 安装进程模式边缘节点 参考文档: 在linux上安装进程模式边缘节点 2.2 获取Jetson类型SDK 点击 离线计算SDK ,进入模型SDK列表界面,下载Jetson模型至本地 将Jeston模型上传至对象存储,此处使用百度BOS,并设置为公有访问,记录模型SDK下载URL。 获取模型SDK的 序列号 。