远程调试 背景介绍 我们在边缘侧设备部署 BIE 边缘核心后,如果需要对边缘核心上所运行的各服务进行调试时,往往需要在设备侧操作,这给我们的使用带来了很大的不便。因此,设计推出了基于 Web Console 的边缘核心设备远程调试功能来满足远程对设备测应用查看交互的功能。 实现目标 可以从浏览器页面上接入指定边缘核心,并得到与本地命令行终端环境一致的使用体验。
将包含该子设备信息的驱动部署至边缘节点,即可采集到模拟器信号。
通过AI中台直接将模型下发至边缘 本文介绍如何在AI中台导入模型,然后在AI中台模型仓库直接下发模型至边缘节点。 前提条件 有一个可用的测试边缘节点设备,本案例使用一个2核8G的 BCC云服务器 作为测试边缘节点。 按照 快速入门 教程,将测试边缘节点连接云端。 该模型是CPU模型,边缘节点Docker Runtime不能使用 nvidia ,必须使用 runc 。
在BIE控制台部署从AI中台下载的模型 本文介绍如何将BML训练的模型,通过BIE下发至边缘节点。 前提条件 有一个可用的测试边缘节点设备,本案例使用一个2核8G的 BCC云服务器 作为测试设备。 按照 快速入门 教程,将测试边缘节点连接云端。 该模型是CPU模型,边缘节点Docker Runtime不能使用 nvidia ,必须使用 runc 。
昆仑芯片资源监控 前言 本文介绍百度智能边缘BIE如何纳管使用 百度昆仑加速卡 的边缘节点,并实现对昆仑加速卡的资源监控。 操作指南 创建一个边缘节点,AI加速卡选择 百度昆仑 ,如下图所示: 进入到节点详情界面,点击 安装 ,在弹出框当中复制 节点安装命令 ,然后在边缘节点上运行。 如果边缘节点没有安装docker+k3s,请先安装docker+k3s。
NVIDIA GPU资源监控 前言 本文介绍百度智能边缘BIE如何纳管使用NVIDIA GPU的边缘节点,并实现对NVIDIA GPU的资源监控。此处提到的 使用NVIDIA GPU的边缘节点 ,一般特指使用了NVIDIA GPU AI加速卡的x86架构的GPU服务器,GPU AI加速卡可以是NVIDIA T4/P4/V100/A100/3090等。
昇腾310资源监控 前言 本文介绍百度智能边缘BIE如何纳管使用 华为昇腾加速卡 的边缘节点,并实现对华为昇腾加速卡的资源监控。 操作指南 创建一个边缘节点,AI加速卡选择 华为昇腾310 ,如下图所示: 进入到节点详情界面,点击 安装 ,在弹出框当中复制 节点安装命令 ,然后在边缘节点上运行。 如果边缘节点没有安装docker+k3s,请先安装docker+k3s。
边缘节点在拿到文件下载地址后,去指定地址进行下载,即可引入文件。文件引入有两种方式: 1. http文件直接下载 填写文件在云端的下载地址,边缘节点可直接从地址下载。 2. 从对象存储引入文件 若文件没有对外暴露的下载地址,可将文件上传至对象存储服务中,作为对象引入边缘节点。
MLU270资源监控 前言 本文介绍百度智能边缘BIE如何纳管使用 MLU270-S4智能加速卡 的边缘节点,并实现对MLU270-S4智能加速卡的资源监控。 操作指南 创建一个边缘节点,AI加速卡选择 寒武纪思元270 ,如下图所示: 进入到节点详情界面,点击 安装 ,在弹出框当中复制 节点安装命令 ,然后在边缘节点上运行。
驱动管理 驱动管理 简介 驱动用于连接边缘网关代理与其所管理的子设备。边缘网关接入不同类型子设备时会涉及各种各样的协议,需要使用不同的驱动去处理连接。简单来说,驱动是一种特殊的应用,具有应用的一般属性,并负责边缘网关和子设备的数据传输。 目前,BIE提供了针对Modbus协议的官方Modbus驱动,可以使用该驱动接入使用Modbus协议传输数据的子设备。