固定值 从0开始的table序号 用户指定的起始时间戳 用户指定的截止时间戳 写入时间戳 field_key对应的field_value field_key 只有一个 具体measurement 跟表头的tagkey一一对应,可多个 示例: ,result,table,_start,_stop,_time,_value,_field,_measurement,cpu ,_result,5,2023
全局概览 TableStorage 全局概览 进入到云数据库TableStorage控制台,可在左侧导航栏点击 全局概览 来查看全局概览数据。概览数据包括: 用量统计 :展示所有地域下实例(仅宽表模式)的汇总数据,包括存储总用量、高性能型存储用量、容量型存储用量、本月下行流量、本月总请求吞吐、本月高性能型读请求吞吐、本月高性能型写请求吞吐、本月容量型读请求吞吐、本月容量型写请求吞吐。
创建AK/SK 新建TableStorageClient TableStorageClient是与Table Storage服务交互的方法类,为开发者提供了与TableStorage交互的一系列方法。
写入和查询数据 写入数据 bulk写入 用户创建向量索引后,即可使用ES BULK API写入数据。不同的 index_type 与 space_type ,在数据写入时没有区别。 在以下示例中,我们向 my_index 索引的 field_hnsw 和 field_linear 字段分别写入样例向量数据。
创建实例 进入 云数据库 TableStorage 控制台 ,点击【新建实例】。 在弹出的浮层中按照提示填写实例名称、选择存储类型、选择数据存储模式,填写实例描述。
使用CopyTable工具进行数据迁移 CopyTable工具介绍 CopyTable工具是HBase自带的一个数据迁移工具,可以帮助用户在集群间进行数据迁移。 迁移优势 CopyTable工具是HBase内建工具,可以很好地支持用户在自建HBase集群与云数据库HBase产品间的数据迁移。 CopyTable工具底层使用Hadoop MapReduce进行数据迁移,速度较快。
unauthorized 鉴权失败,在此表示IAM认证鉴权失败 403 AccessDenied 请求受限,message按具体错误来定 500 internal error 服务器内部错误,message按具体错误来定 请求示例 POST /api/v2/buckets HTTP/1.1 HOST: bts.bd.baidubce.com Authorization: bce-auth-v1/{table-access-key
conflict database/instance已存在 500 internal error 服务器内部错误,message按具体错误来定 请求示例 (1) 未设置 database 存储类型(默认使用高性能型存储类型) PUT /api/v2/database/ins1 HTTP/1.1 HOST: bts.bd.baidubce.com Authorization: bce-auth-v1/{table-access-key
409 InstanceAlreadyExist Instance已存在 400 InvalidInstanceName Instance名称不合法 请求示例 (1) 未设置 Instance 表格存储类型(默认使用高性能型存储类型) PUT /v1/instance/ins1 HTTP/1.1 HOST: bts.bd.baidubce.com Authorization: bce-auth-v1/table-access-key
EDAP资源组FlinkSQL作业读取Kafka维表关联MySQL写入EDAPDatalake表 首先,在【元数据管理】界面创建如下图的EDAPDataLake表,用来作为待写入的flink作业sink端。 在FlinkSQL作业中写入如下SQL,实现读取Kafka维表关联MySQL写入EDAPDatalake表。需要保证Kafka、MySQL服务与资源组网络联通,例如均处于同一个VPC内。