发布模型 发布模型 训练作业训练完成后支持直接发布模型到模型仓库。 模型列表中,训练完成模型支持『发布』操作,点击『发布』进入发布界面 在发布界面,完成相关配置,如下所示: 2.1 填写下图所示基本信息。『模型类型』和『版本』由系统自动生成,不支持修改。重新发布时,『模型名称和『模型描述』会自动填充,无需再次填写。 2.2 根据算法框架的不同,您还需要在发布界面填写响应的额外配置项信息 算法框架
C++开发示例 我们在写下边的示例代码时,为了简单清楚,便于理解,忽略了一些错误处理,用户基于以下示例开发的时候,可以自行补齐。 一些公共函数 首先我们这里定义一个 HttpRequest 结构,后续的 demo 中我们会使用到这个结构。
整体说明 训练完成后,可将模型部署在公有云服务器上,通过API进行调用。当前表格预测模型仅支持公有云部署,即将模型部署在BML提供的云端机器资源中,您可以通过访问在线API实时获取模型结果。模型部署在BML提供的云端机器资源中,您可以通过访问在线API实时获取模型结果。 公有云API 训练完成的模型存储在云端,可通过独立Rest API调用模型,实现AI能力与业务系统的无缝集成。 具有完善的鉴权、
查看模型 对于来自预置模型调参任务的模型,在导入模型仓库后可以查看其评估报告。 前提条件 已成功导入来自预置模型调参任务的模型。 操作步骤 在左侧导航栏中选择“模型仓库”>“模型管理”。 在模型列表页中,单击已创建的模型“Demo”所在行的“版本列表”,进入“Demo”模型的版本列表页面,如下所示。 在版本列表中,单击“评估报告”即可对应版本的详情页面。 只有来自预置模型调参的模型才具有评估报告。
校验模型 通过校验功能,可以快速查看模型的评估效果。 从训练任务导入的模型支持模型校验;对于导入的模型,只有PaddlePaddle、TensorFlow、PyTorch以及Sklearn、XGBoost框架/库的模型支持校验,其它框架的不支持校验。 前提条件 已成功导入模型。 操作步骤 在左侧导航栏中选择“模型仓库”>“模型管理”。 在模型列表页中,单击已创建的模型“Demo”所在行的“新建版本
001-概述 概述 您可在可视化建模面板中执行以下操作: 运行 AutoML 运行记录
镜像使用 镜像构建后,可以在作业建模、在线服务、批量预测中使用。 作业建模中使用 创建作业建模任务,选择用户资源池时,可以选择自定义镜像。 选择预置镜像: 选择自定义镜像,可以看到可使用的镜像列表。其中自定义镜像需要按照镜像规范进行构建。 其中,可选择的自定义镜像,是和选择的用户资源池中的区域相同的镜像仓库中的镜像。 在线服务中使用 部署在线服务时,资源池类型选择用户资源池后,可选择自定义镜像。
错误码 若请求错误,服务器将返回的JSON文本包含以下参数: error_code: 错误码。 error_msg: 错误描述信息,帮助理解和解决发生的错误。 例如Access Token失效返回: { "error_code": 110, "error_msg": "Access token invalid or no longer valid&
创建模型 在模型仓库中,一个模型可以包含多个版本。从训练任务中导入模型或是直接导入本地模型,都对应于一个模型版本,在导入模型前应先创建模型。 前提条件 无。 操作步骤 在左侧菜单栏中单击“模型仓库”>“模型管理”,进入模型管理页面。 单击“新建”,系统显示“新建模型”弹出框。 在“新建模型”弹出框中填写模型信息。 在新建模型过程中可以直接从训练任务导入模型,也可以在创建后再从本地或训练任务导入模型
训练模型 BML上提供了预置模型调参、NoteBook建模、自定义作业三种开发模式,开发难度和开发的灵活性程度不一,分别满足不同水平和需求的开发者。 当前NLP方向仅支持使用者最多的预置模型调参,后续将陆续支持NoteBook建模、自定义作业开发模式。 本文将采用预置模型调参开发模式示意训练模型的基本步骤。