写入数据点的gzip压缩说明 v0.10.10版本的sdk中,写入数据点默认开启gzip压缩。如果不需要使用gzip压缩,可参考如下代码: String METRIC = "cpu_idle"; // metric String TAG_KEY = "server"; // 标签名称 String TAG_VALUE = "server1"
安装SDK工具包 环境准备 运行环境 Python SDK工具包支持在Python 2.7 以上环境运行。 安装pycrypto依赖 安装SDK之前,需要先执行命令 pip install pycrypto 安装pycrypto依赖。 如果安装失败,请执行 pip install pycryptodome 下载和安装 方式一:通过pip安装 您可以通过pip安装的方式将百度智能云Python SD
申请成为邀测用户 邀测功能: 支持长数据格式存储 如果您需要使用TSDB存储String超过256字符、Byte类型超过200字节、或者试用BigDecimal类型,请 申请试用 。
写入操作 写入单域数据点 用户可参考如下代码写入单域数据点: 注意:当写入的metric、field、tags、timestamp都相同时,后写入的value会覆盖先写入的value。 #构建要写入的数据点数据点对象数组 datapoints = [{ "metric": "wind", "tags": { "city"
查询操作 获取度量(Metric) 如下代码可以获取metric列表: // 获取Metric GetMetricsResponse response = tsdbClient.getMetrics(); // 打印结果 for(String metric : response.getMetrics()) { System.out.println(metric); } 获取Field 如下代码可以
写入数据点的gzip压缩说明 基本流程 创建TsdbDataClient。 执行writeDatapoints()方法,您需要提供要写入的数据点。 写入数据点默认开启gzip压缩。如果不需要使用gzip压缩,可参考如下代码: var useGzip = false; // 构建想要查询的queryList var datapoints = [ { "metric": "
对接hive-sql Tsdb storage handler TSDB对接hive是通过实现一个TSDB的HiveStorageHandler,支持对tsdb数据的读取。 Jar下载地址: https://sdk.bce.baidu.com/console-sdk/hive-tsdb-handler_all.jar 如果是本地hive集群,请下载jar到本地;如果使用bmr,则上传到bos或者直
数据点查询 为什么查询面板中生成图表仍为空? 原因1:时间范围设置错误。 图表的横轴是指数据库实例中的存储点数的timestamp字段的值,而不是导入的时间。出现这种情况,很有可能是timestamp字段的值与导入时间不一致而导致的。 原因2:数据点的类型为string类型。 如下例所示,原始数据如下: { "time": 1465376157007, "name&q
插值查询 在查询时可以将数据进行插值,即使没有数据写入,也可以将数据按照一定的插值算法查询出来。目前支持Linear(线性插值)、Previous(按前一个值插值)、Fixed(固定值插值)三种插值算法。 Linear: Previous: Fixed: 查询时,需要设定最大写入间隔,如15min,即一个时间序列数据的最大写入间隔,TSDB认为在此间隔内必然有值。系统会尝试查找从(start -
查询操作 获取度量(Metric) 如下代码可以获取metric列表: # 获取metric列表 result = tsdb_client.get_metrics() print result.metrics 返回结果: [u'wind'] 获取域(Field) 如下代码可以获取field对象: metric = 'wind' # 要获取field所属的metric