可以获取该区间数据,说明: 需传入2个日期的时间戳,单位毫秒,分别是开始日期时间戳、结束日期时间戳 annoTime int[] 否 标注日期区间,可以获取该区间数据,说明: 需传入2个日期的时间戳,单位毫秒,分别是开始日期时间戳、结束日期时间戳 tabType int 否 可选值如下: · 1:已标注 · 2:未标注 · 0:全部 labelId string 否 标签id,说明: · 多个labelId
PALO内部会自动根据用户的查询语句,选择合适的物化视图进行数据摄取。 丰富的数据导入功能和导入事务保证 PALO支持多种导入方式。不仅支持近实时的流式导入,也支持大批量的数据导入。同时还可以直接订阅和消费kafka中的数据。PALO自身提供导入事务支持,配合导入Label机制,可以保证导入数据的不丢不重和原子一致性。
接口使用规范 API认证机制 所有API的安全认证一律采用Access Key与请求签名机制。 Access Key由Access Key ID和Secret Access Key组成,均为字符串。 对于每个HTTP请求,使用下面所描述的算法生成一个认证字符串。提交认证字符串放在Authorization头域里。服务端根据生成算法验证认证字符串的正确性。
日期与时间的表示有多种方式。
这个 Label 是在一个数据库(Database)下唯一的,用于唯一标识一个导入作业。Label 可以由用户指定,部分导入功能也会由系统自动生成。 Label 是用于保证对应的导入作业,仅能成功导入一次。一个被成功导入的 Label,再次使用时,会被拒绝并报错 Label already used 。通过这个机制,可以在 PALO 测做到 At-Most-Once 语义。
API认证机制 所有API的安全认证一律采用Access Key与请求签名机制。 Access Key由Access Key ID和Secret Access Key组成,均为字符串。 对于每个HTTP请求,使用下面所描述的算法生成一个认证字符串。提交认证字符串放在Authorization头域里。服务端根据生成算法验证认证字符串的正确性。
API认证机制 所有API的安全认证一律采用Access Key与请求签名机制。 Access Key由Access Key ID和Secret Access Key组成,均为字符串。 对于每个HTTP请求,使用下面所描述的算法生成一个认证字符串。提交认证字符串放在Authorization头域里。服务端根据生成算法验证认证字符串的正确性。
将Kafka作为DTS目标端的限制 增量同步不支持同步关系型数据库的DDL语句 。 DTS向Kafka发送消息满足At-Least-Once约束(消息不丢但可能重复),重启任务等行为会导致下游Kafka出现少量重复数据(建议使用每条数据的GLOBAL_ID做去重) 。 3. 将Kafka作为DTS目标端的前置条件 3.1 环境要求 已创建作为迁移目标端的Kafka集群或百度消息服务主题。
API认证机制 所有API的安全认证一律采用Access Key与请求签名机制。 Access Key由Access Key ID和Secret Access Key组成,均为字符串。 对于每个HTTP请求,使用下面所描述的算法生成一个认证字符串。提交认证字符串放在Authorization头域里。服务端根据生成算法验证认证字符串的正确性。
HBase 爱速搭低代码平台 智能边缘 私有网络 应用引擎 文件存储 智能云解析 MapReduce 简单消息服务 轻量应用服务器 智能视联网平台 云数据库GaiaDB-X 日志服务 消息服务 负载均衡 对象存储 云虚拟主机 数据仓库Palo 容器镜像服务 云数据库DocDB 超级链BaaS平台 云原生微服务应用平台 解决方案 智慧城市 智慧金融 智能制造 智慧能源 智慧媒体 智慧水务 智能图云 企业上云