数据建模 概述 数据建模是一种分析与设计方法,用于定义分析数据需求,设计满足需求的数据结构,是反应数据需求和设计的数据说明与相关模型图的集合。大数据的数仓建模正是通过建模的方法,更好的组织、存储数据,以便在性能、成本、效率和数据质量之间找到最佳平衡点。
数据模型管理 简述 数据模型用于独立定义API操作中的一个对象,当多个API使用相同对象时,使用数据模型可以有效减少配置工作量 创建数据模型 引用数据模型
目录为空指的是该目录下即没有数据,也没有子目录。 数据标准管理 新建数据标准 进入 数据标准 模块,在上方的标签页中选择 标准管理 ,选中目录后,即可在该目录下创建数据标准(选中 “全部” 根目录时除外,该目录下不允许创建数据标准,此时 添加标准 按钮置灰。 在编辑页面中,配置相关参数,参数说明如表二。
数据指标 概述 功能介绍 EDAP提供数据指标功能,帮助企业建立统一的指标体系,对企业数据指标进行集中管理,避免多方操作导致指标混乱、口径不一致等问题。 核心概念 原子指标:原子指标中的度量和属性来源于多维模型中的维度表和事实表,与多维模型所属的业务对象保持一致,与多维模型中的最细数据粒度保持一致。用于明确业务的统计口径和计算逻辑,是基于用户的业务活动创建的,用于统计业务活动中某一业务状况的数值。
2、运行成功后,可进入“数据质量-运维管理”中查看质量作业的探查结果。包括告警状态、告警登记、异常数据明细等。用户可针对问题数据进行清洗、整改。
管理迁移任务 任务创建完成后,您可以在任务列表查看迁移任务。 查看任务列表 您可以登录 控制台 对任务列表进行查看和管理。迁移开始后,CloudFlow 会为您展示迁移进度,您可以下拉任务进行查看迁移进度。 任务状态说明 迁移任务在运行中会产生不同的状态,不同状态的含义如下: 状态名称 状态含义 待迁移 当您设置了定期迁移时间的话,任务在创建后处于待迁移的状态。当任务开始迁移后,讲变更为迁移中。
数据开发 新建项目 进入“数据加工-我的项目”菜单,创建项目“产品体验测试”,并为项目绑定计算资源。 数据开发 进入项目“产品体验测试”,创建一个脚本作业,脚本类型HiveSQL、SparkSQL均可。将1.1中的示例数据写入表test_stu,并点击执行。 作业运维 执行通过的作业,点击“发布”后将进入运维阶段,在“任务运维”中,可以对该作业进行调度配置、查询运行实例等。
错误返回 错误码格式 当用户访问API出现错误时,会返回给用户相应的错误码和错误信息,便于定位问题,并做出适当的处理。请求发生错误时通过Response Body返回详细错误信息,遵循如下格式: 参数名 类型 说明 status Int 错误码。 message String 错误原因。 result String 返回结果。 例如: { "status" : 4006, &q
通过大数据 BMR 服务使用 RapidFS MapReduce(简称“BMR”)是托管的一站式大数据平台,提供高可靠、高安全性、高性价比、易运维的分布式计算服务,涵盖 Hadoop、Spark、Hive、Flink、Presto、Druid等多种开源组件,并与百度智能云对象存储无缝衔接,助力企业轻松高效地处理海量数据。