string 否 - 查询区间的起始时间,使用任务的创建时间来过滤,例如:YYYY-MM-DDTHH:MM:SS+08:00或YYYY-MM-DDTHH:MM:SSZ --end-time string 否 - 查询区间的截止时间,使用任务的创建时间来过滤,例如:YYYY-MM-DDTHH:MM:SS+08:00或YYYY-MM-DDTHH:MM:SSZ 输出参数 字段 说明 NAME 任务名称
请求参数 参数名称 类型 是否必须 参数位置 说明 orderBy String 否 Query 参数 集群查询排序字段,可选 [clusterName, clusterID, createdAt],默认值为 clusterAt order String 否 Query 参数 排序方式,可选 [asc, desc],asc 为升序,desc 为降序,默认值为 desc pageNo Integer
查询指定缩略图任务 如果需要获取一个已创建的缩略图任务的信息,可以参考如下代码: job_id = "your jobId" response = client.get_thumbnail_job(job_id) print response 查询指定队列的缩略图任务信息 如果需要获取一个队列里的全部缩略图任务的信息,可以参考如下代码: pipeline_name = "
30:00Z', end='2016-03-31T15:00:00Z') for job in response.jobs: print job 查询指定的Job信息 用户可以通过如下代码通过jobId读取某个Job: job_id = "your_job" response = client.get_job(job_id) print response
各组件在日志系统中的职责与关系如下所示: Filebeat:采集原始日志数据,输出数据到Kafka; Kafka:作为消息队列,存储原始日志数据; Logstash:消费Kafka中数据,解析过滤后,将其存储到Elasticsearch中; Elasticsearch:存储用于分析的日志数据,并提供查询、聚合的底层能力; Kibana:提供日志分析的可视化界面; 操作流程: 环境准备 包括:创建百度
作为示例,以下是一个标准的用户查询队列时的完整的请求返回: HTTP/1.1 200 OK Transfer-Encoding: chunked x-bce-request-id: 47281222-f0ff-4f80-9a4d-0140ff77dcd0 Cache-Control: no-cache Server: BWS Date: Tue, 24 Mar 2015 13:04:27 GMT Content-Type
占用的资源超过了资源队列限制 当用户执行的 SQL 超过了资源队列限制的大小,会报如下的错误: statement require more resource than resource queue allows 此时 SQL 不能执行,出现这个报错一般是 SQL 写的有问题,检查下是否 SQL 过于复杂,或者产生了笛卡尔积,解决方法如下: 增加该用户所在的资源队列的大小限制 使用超级用户执行该 SQL
Y +queueSize Int 队列长度,达到并发处理上线后,后续提交任务进入该队列 Y 返回示例: // 成功返回 { "data":{ "queueSize":0, "taskId":"16293673898580002" }, "logId":16293673898580002, "
快速开始 从这里选择您需要的操作系统和CPU架构下载: Windows amd64 : intel、AMD的64位x86_84 CPU Linux amd64 : intel、AMD的64位x86_84 CPU Linux arm : 树莓派等32位的ARM CPU Linux arm64 : RK3399、飞腾等64位的ARM CPU 或者从纯离线服务管理页可下载智能边缘控制台 您也可以通过先安装多节点版本
点击菜单 全局设置 --> 通知管理 ,新建通知,如下图所示,若视频处理任务的结果想采用查询的方式获取,不需要回调,则略过这步。 处理设置 点击菜单 处理设置 --> 转码队列 ,新建队列,如下图所示,若MCP里已有相应的队列,则略过这步。 点击菜单 处理设置 --> 转码模板 ,新建转码模板,如下图所示,若MCP里已有相应的转码模板,则略过这步。