日期聚合类型字段下钻和联动 比如我们需要展示每月的销售数量,但是希望通过点击每个月去查看这个月每天的详细销售数量,此时我们可以通过绑定日期字段或时间字段并设置日期数据聚合类型为【年-月】然后打开下钻,默认绑定下钻字段为日期字段(或者选择具体的设置了聚合类型的日期字段),此时点击下钻就可以查看每日的详细数据。 同理,可以通过绑定日期聚合类型字段作为联动字段,去联动其它图表展示详细数据。
Python SDK:可以将Databuilder的数据集版本读成huggingface的Dataset和IterableDataset;也可以将huggingface的Dataset和IterableDataset写到Databuilder的数据集版本。
图谱支持操作: 节点查看详情:用户选择任意一个数据表/数据路径节点,右侧展开节点详细信息。数据表信息包括名称、创建人、数据源格式、字段信息和血缘信息。数据路径包括名称、创建人、具体文件路径和血缘信息。 单击连线查看血缘链路详情:用户点击连线,右侧展开血缘链路详细信息。展示源对象、目标对象、最近活跃时间和血缘采集来源。 单击表字段现实字段级血缘:单击表字段,展开字段列表并高亮当前字段的上下游链路。
导入已标注数据 目录 导入已标注数据方式说明 从已有数据集导入已标注数据 查看已标注数据 导入已标注数据方式说明 如果您已有标注好的数据,支持快速导入到BML,方便直接进入后续训练环节。 实例分割任务向选定的数据集导入已标注好的数据目前支持一种方式: 将其他数据集已经标注好的数据导入 从已有数据集导入已标注数据 从已有数据集导入已标注数据,支持选择数据集及导入的具体标签进行导入。
目标端插件 将上游处理好的数据写入到目标端插件。且目标端插件需要作为流水线的最后节点。 实时作业支持目标端。用户可以将实时作业,处理加工的数据流接入到目标端。目标端可以是另一个kafka消息队列,也可以是Hive等数据库。 可视化作业配置 可视化作业配置位于整个页面右侧,单击不同的配置可查看具体配置详情。
绑定后端密钥 应用通过API网关进行调用 DataBuilder 查询数据时,需要通过后端密钥进行认证,因此还需要为API绑定后端密钥。 操作步骤: 登录并进入 API 网关 API GW。 在左侧导航栏,单击 API网关>后端密钥管理 , 后端密钥管理文档 。 选择创建好的后端密钥,单击 绑定API 。 在对话框中选择发布的 API,并单击确定。
元数据发现任务详情 在元数据发现任务列表界面单击任务名称进入任务详情界面,用户可以在详情界面展示任务信息、数据源信息、目标信息和高级配置。
修改数据复制方式 概述 您可以根据自身业务需求,设置RDS MySQL主备实例之间的数据复制方式,以提高云数据库可用性。 复制方式介绍 MySQL 实例支持 异步和半同步 两种数据复制方式,复制方式的原理如下: 异步: 应用发起更新请求,即进行增加、删除、修改数据的操作时,主实例完成操作后会立即响应应用,同时主实例向备实例异步复制数据。
源端迁移服务搭建费用 :若您采用半托管迁移发起第三方云迁移,您需要在源端搭建迁移服务,即在源端购买云服务器、公网带宽等产品资源(或利用您在源端的空闲服务器和公网带宽资源),因此源端会产生服务器购买费用。当您采用全托管迁移时候,不会产生该费用。关于半托管迁移和全托管迁移的介绍和对比,请您参考 产品简介 。 专线费用 :若您的数量比较大,一般需要在源端和目的端间通过专线方式进行迁移。