日志集管理 概述 日志集是日志数据采集、存储、检索和分析的基本单元,一个日志集通常对应某一个应用/服务(具备类似的日志结构)。还可以使用日志组对日志集进行分组管理! 日志组和日志集列表 默认展示全部日志集列表,左侧可切换日志组查看具体日志组下的日志集列表。
创建日志集 日志组管理 新增日志组管理能力,使用日志组对日志集进行分组管理,最多支持创建100个。 说明: 新建并使用日志组采集日志时需要绑定的收集器升级到1.6.0及以后版本,否则会导致无法采集日志(default日志组无影响),可参考 帮助文档 进行升级 创建日志集 日志集是日志数据的存储单元。用户可以使用采集器Agent或者API方式把日志数据写入到指定的日志集中。
Kafka日志导入 概述 日志服务支持将百度智能云kafka和自建kafka的数据导入到日志服务,实现数据集中存储、查询分析等,挖掘日志数据价值。本文档介绍从Kafka中导入数据到日志服务的操作步骤。 费用说明 从 Kafka导入数据涉及日志服务的写流量、日志存储等计费项。具体的价格信息请参考 日志服务计费说明 。
日志投递概述 概述 日志服务BLS提供日志投递的功能,可以概括为将日志集中内容以用户指定的格式转储到云上其他存储服务中的过程,进一步满足后续的数据复杂处理、分析以及归档存储的需求。仅需在日志服务控制台进行简单配置,即可完成数据投递。
推送日志PushLogRecord 描述 支持批量推送日志记录到 BLS 平台,日志记录的格式可以是 TEXT,也可以是 JSON 格式。如果是 TEXT,则不对日志进行解析;如果是 JSON 格式,可以自动发现 JSON 字段(仅支持首层字段发现,暂不支持嵌套类型字段的自动发现)。
使用Kafka协议上传日志 日志服务支持通过Kafka协议上传日志数据到服务端,即可以使用Kafka Producer SDK来采集日志数据,并通过Kafka协议上传到日志服务。文本介绍通过采集工具采集到日志后,使用Kafka协议将日志上传到日志服务的操作步骤 背景信息 Kafka 作为高吞吐量的消息中间件,常用于自建日志采集场景中的消息管道。
日志集LogStore操作 创建LogStore 创建日志集,命名日志组时,需遵循以下准则: 每个账户每个区域日志集名称不能重复 日志集名称长度不能超过 128 个字符 日志集名称包含的字符仅限于: a-z, A-Z, 0-9, '_', '-', '.' 日志集租期,最大3650天,表示永久保存。单位:天数 通过以下代码,创建一个LogStore并指定其存储期限。
删除日志组DeleteProject 描述 删除指定的日志组,只有当日志组中没有日志集时才可以删除 请求 请求语法 Text 复制 1 DELETE /v1/project/{uuid} HTTP/1.1 2 Host: <Endpoint> 3 Authorization: <Authorization String> 请求头域 除公共请求头域外,无其它特殊头域。
请求参数 参数名称 类型 是否必须 参数位置 描述 uuid String Yes RequestBody 日志组UUID description String No RequestBody 日志组描述 description Boolean No RequestBody 日志组是否置顶 响应 响应头域 除公共响应头域外,无其它特殊头域。
日志流LogStream操作 LogStream会在推送日志时自动创建,目前暂不支持对LogStream的删除操作 获取LogStream列表 通过以下代码,获取指定日志集的日志流列表。