容器模式:会从AI中台获取部署包相关的信息,包括镜像地址、启动参数等等,并自动填充到BIE的应用配置 进程模式:会自动创建sdk对应的配置项,并加载平台内置脚本来启动应用 用户也可以在这一步骤自行去修改一下相关的参数,比如启动端口等等 部署到节点,并运行
3.创建AI应用并部署到边缘节点 进入 应用部署 界面,点击 创建应用 ,按照提示以此填写: ①基本信息->②服务配置->③目标节点 。
需要注意的,w,h设得越大,模型在预测过程中所需要的耗时和内存/显存占用越高;设得太小,会影响模型精度 更多模型转换详情参考PaddleX官方文档: https://paddlex.readthedocs.io/zh_CN/develop/deploy/export_model.html 模型部署 基于Edgeboard 1.8.0示例模型部署 上传模型 模型训练完成后,将模型文件上传到Edgeboard
每次更新到最新版的Sugar BI时, 注意: 一定要用最新版的镜像完整的进行一遍上节中的 「私有部署的安装」 整个流程,特别是同步最新版的数据库结构部分(即使用浏览访问 http://部署的机器 ip:8000/migration ),这样才能正常运行最新版的Sugar BI。
点击 训练 ,选择上述导入的数据集 训练配置选择如下: 部署方式: EasyEdge本地部署 选择设备:可以服务器、通用小型设备、专项适配硬件全部都做一次训练 选择算法:通用算法,精度使用默认即可 训练环境:可以使用免费的GPU T4算力,免费算力训练时间比较长,可能超过3个小时,需要耐心等待。
视觉任务LinuxSDK集成文档-Python 简介 本文档介绍 EasyDL 的 Linux Python SDK 的使用方法,适用于 EasyDL 通用版和BML。
configs/detection/yolov3/image.json 基于EdgeBoard1.5.1示例版本模型部署 部署步骤: 1、将模型上传至系统自带的sample的不同示例工程中; EdgeBoard支持图像分类和物体检测两类模型 1)如果是图像分类模型,模型需上传到 /home/root/workspace/PaddleLiteSample/classification/models
如果您需要使用集群方式部署或需要做负载均衡,可以使用 Nginx 来做反向代理。反映在 License 中的「访问域名/IP」同样是用户从浏览器访问 Sugar BI 时使用的域名/IP,也即访问 Nginx 的域名/IP,不是集群中部署 Sugar BI 的服务器的 IP。
测试前的准备 Linux x86 GPU的硬件及开发环境 详情参考下方文档 EasyDL平台的Linux x86 GPU 加速版服务器端SDK&激活序列号 以经典版图像分类为例,在 操作台 训练「私有服务器部署-服务器端SDK」下的模型后,前往 控制台 申请发布Linux x86 GPU的服务器端SDK,发布成功后即可同时获得加速版SDK和序列号 首次使用SDK或者更换序列号、更换设备时,
Linux集成文档-C++ 简介 本文档介绍EasyEdge/EasyDL的Linux CPP SDK的使用方法。