上传数据集 上传视频分类数据集 已标注数据上传 目前支持本地导入、BOS目录导入、分享链接导入、平台已有数据集导入,4种导入方式。 支持的标注格式有文件夹命名分类和json平台通用两种。
获取单个工作流实例 接口描述 根据工作流实例ID以及工作空间ID获取单个工作流实例的详情 权限说明 用户获取 工作空间 下特定工作流 WORKFLOW 特定工作流实例的详情,需具有以下任一权限 查看工作流的权限: 查看 VIEW 运行工作流的权限: 运行 EXECUTE 编辑工作流的权限:编辑 MODIFY 管理工作流
获取下载任务链接 接口描述 获取下载任务状态和链接 权限说明 用户获取 工作空间 下特定工作流 WORKFLOW 特定工作流实例的下载日志连接,需具有以下任一权限 查看工作流的权限: 查看 VIEW 运行工作流的权限: 运行 EXECUTE 编辑工作流的权限:编辑 MODIFY 管理工作流的权限:管理 MANAGE 请
停止工作流定时调度 接口描述 为已经启动了定时调度工作流停止定时调度任务 权限说明 用户停止 工作空间 下特定工作流 WORKFLOW 的定时调度任务,需具有以下任一权限 运行工作流的权限: 运行 EXECUTE 编辑工作流的权限:编辑 MODIFY 管理工作流的权限:管理 MANAGE 注意事项 用户没有权限,则启动
数据筛选 数据筛选 数据筛选是规则对进入的消息进行的处理,规则对消息进行过滤、格式转换,得到预期的输出结果。 在规则「编辑调试」页面设置数据筛选条件,规则将按设置的条件进行数据处理。 规则引擎支持对接收到的任意格式数据进行转发,但是 仅支持对JSON格式数据进行过滤、查询,非JSON格式数据只支持透传 。
同时,PALO能够保证物化视图和基础表之间的数据一致性,从而使得物化视图会查询和导入完全透明。PALO内部会自动根据用户的查询语句,选择合适的物化视图进行数据摄取。 丰富的数据导入功能和导入事务保证 PALO支持多种导入方式。不仅支持近实时的流式导入,也支持大批量的数据导入。同时还可以直接订阅和消费kafka中的数据。
专线迁移MySQL迁移到云数据库RDS-数据校验 创建数据校验任务 接口说明 创建数据校验任务。
检查当前实例是否已开启数据开发功能。 进入 “数据开发” 页面后会进入到 DBSC 数据开发的SQL 窗口模块,用户即可在此页面便捷管理向量数据库数据。 DBSC 数据开发中的 SQL 窗口具体操作及其指引文档,请参见下表。
8 9 4.6,3.1,1.5,0.2,setosa 前提条件 在创建表格预测任务前,需满足如下条件: 必须已成功创建“表格”类数据,数据集导入状态为“已完成” 数据集中行数必须大于0,即必须是非空数据集 操作步骤 在BML操作台的左侧导航菜单上单击“脚本调参”,进入脚本调参列表页面。
8 9 4.6,3.1,1.5,0.2,setosa 前提条件 在创建表格预测任务前,需满足如下条件: 必须已成功创建“表格”类数据,数据集导入状态为“已完成” 数据集中行数必须大于0,即必须是非空数据集 操作步骤 在BML操作台的左侧导航菜单上单击“脚本调参”,进入脚本调参列表页面。