数据预处理 新建预处理规则 当TSDB中存储的数据量较大时,将数据按照用户指定的规则筛选出来需要较长的等待时间,有可能请求导致超时,造成查询失败。 针对这种情况,用户可以配置数据预处理,提前将相关数据过滤、聚合好,实现快速返回查询结果。 注意: 免费数据库无法创建预处理规则。 每个付费数据库只能创建2个预处理规则。 预处理规则标签个数上限5个。 预处理规则多选metric上限10个,仅支持单选或全
概述 本文档主要介绍TSDB Java SDK的安装和使用。在使用本文档前,您需要先了解TSDB的一些基本知识,并已经开通了TSDB服务同时创建了数据库。若您还不了解TSDB,可以参考 产品描述 和 操作指南 。
产品优势 高性能读写 每秒千万级数据点写入,亿级数据点聚合结果秒级返回 低成本存储 高效压缩算法,大大节省存储空间 强计算能力 提供插值、预处理等多种计算方式;支持15种聚合函数 多生态支持 支持SQL查询、主流Hadoop/spark等大数据分析平台、多种可视化工具 高可靠服务 三副本、分布式部署,保证数据可靠性
写入操作 写入单域数据点 用户可参考如下代码写入单域数据点: 注意:当写入的metric、field、tags、timestamp都相同时,后写入的value会覆盖先写入的value。 #构建要写入的数据点数据点对象数组 datapoints = [{ "metric": "wind", "tags": { "city"
安装SDK工具包 运行环境 Java SDK工具包可在jdk1.7、jdk1.8环境下运行。 方式一:使用Maven安装 在Maven的pom.xml文件中添加bce-java-sdk的依赖: <dependency> <groupId>com.baidubce</groupId> <artifactId>bce-java-sdk</artif
写入数据点的Gzip压缩说明 写入数据点默认开启Gzip压缩,如果想要关闭此功能,可以在调用 write_datapoints 方法时,传入参数 use_gzip=False 。 可以参考如下代码: response = tsdb_client.write_datapoints(datapoints, use_gzip=False)
数据点写入 时序数据库的数据如何导入? 目前有两种方式导入时序数据库,一种通过调用open API写入数据点;一种可以将BOS里的数据导入时序数据库,导入的文件类型为csv,具体操作请查看 连接数据库
支持MySQL协议 介绍 TSDB现已正式支持Mysql协议,可为用户提供更加便捷的SQL使用体验。用户可通过控制台创建Mysql协议账号后,利用Mysql JDBC、以及支持Mysql JDBC的各类工具查询访问TSDB数据。 Mysql账号管理 创建账号 使用Mysql协议连接TSDB数据库实例时需要提供Mysql协议账号信息(包括用户名、密码),用户可通过TSDB控制台创建Mysql协议账号
安装SDK工具包 版本检测 $ npm -v // 查看npm是否正确安装 $ node -v // 检查node版本 支持的Node.js版本 4.x 5.x 安装SDK工具包 JavaScript包已经上传npm管理器,直接使用npm安装SDK的开发包。 npm install @baiducloud/sdk 然后在程序中使用: import {TsdbDataClient} from
对接hive-sql Tsdb storage handler TSDB对接hive是通过实现一个TSDB的HiveStorageHandler,支持对tsdb数据的读取。 Jar下载地址: https://sdk.bce.baidu.com/console-sdk/hive-tsdb-handler_all.jar 如果是本地hive集群,请下载jar到本地;如果使用bmr,则上传到bos或者直