消息推送 用途 通过回调地址进行消息推送。
需求场景 所有的 CDN 接口调用日志通过 flume 直接推送到 百度消息服务 (BKAFKA)中作为流式计算 source , 在我们 BSC 中创建 SPARK_STREAM/SQL 类型的作业用于 CDN 接口调用日志的聚合统计,并实时将聚合结果写到 百度数据仓库 (Palo)当中,用户可以利用 数据可视化工具(如 Sugar BI)等调用 Palo 的 API 完成数据展示。
日志信息 是指我们的服务器所自动记录最终用户在访问实时音视频RTC SDK时所发出的请求,例如最终用户的IP 地址、浏览器的类型和使用的语言、硬件设备信息、操作系统的版本、网络运营商的信息、最终用户访问服务的日期、时间、时长等最终用户在使用我们的产品或服务时提供、形成或留存的信息。
需求场景 所有机器的 API 调用日志通过 自定义日志采集程序 进行日志采集后推送到 百度消息服务 (KAFKA)中作为流式计算 source , 在我们 BSC 中创建 FLINK_STREAM/SQL 类型的作业用于 API 日志的聚合统计,并实时将聚合结果写到 时序时空数据库 (TSDB)当中,用户可以通过 TSDB 的可视化面板或者利用 数据可视化工具 (如 Sugar BI)等调用 TSDB
日志采集 开启日志采集功能后,可以对业务日志进行推送,并基于日志内容做指标监控 日志推送:开启后,会将日志推送到指定的外部存储,目前支持推送到ES 日志监控:开启后,会基于特定规则进行内容提取并转换为metric指标,并绘制监控趋势图 开启日志采集 开启日志采集的方法有: 新建边缘服务时,在“日志采集”模块,选择“开启”。
请确保用户同意《隐私政策》后再进行start/autoTrace采集配置,方可采集用户个人信息并上报数据。
创建定时SQL分析任务 概述 定时SQL分析模块(原监控报警模块)目前支持日志转指标能力,可配置日志生成监控指标推送到BCM自定义监控,在BCM侧可查看监控指标,后续该模块会往定时SQL分析能力上发展,支持日志聚合,日志定时报表等能力 任务信息 在日志服务页面中点击“定时SQL分析”,进入“定时SQL分析列表”页面,点击“创建任务”,进入创建任务页面,填写配置信息。
需求场景 所有的 CDN 接口调用日志通过 flume 直接推送到 百度消息服务 (KAFKA)中作为流式计算 source , 在我们 BSC 中创建 SPARK_STREAM/SQL 类型的作业用于 CDN 接口调用日志的聚合统计,并实时将聚合结果写到 百度数据仓库 (Palo)当中,用户可以利用 数据可视化工具(如 Sugar BI)等调用 Palo 的 API 完成数据展示。
配置 日志归档服务 简介 日志归档服务默认为关闭状态,若您有流量日志归档等合规需求,开启服务后,我们会将您的原始流量日志推送至您选择的bucekt,计费参照 BOS计费规则 ,BOS存储可以保证您的日志永久性存储并方便你进行日志的管理、下载与分析。 操作步骤 导航栏选择“产品服务>云安全>流量审计>配置”,并在配置页面选择 日志归档服务 。
日志调试 java-tomcat类型应用支持如下系统日志: stdout.log: tomcat标准输出日志 stderr.log: tomcat错误日志 supervisord.log: tomcat supervisor管理/保护日志 access.log: lighttpd访问日志 catalina.log: tomcat catalina日志 appconf.log: 应用异常及错误日志