支持小写字母、数字以及 - 且开头必须是小写字母,结尾必须是小写字母或数字,长度1-50字符 资源池 选择任务部署的百舸资源池,支持通用资源池和托管资源池 队列 选择任务需要部署在资源池关联的队列 优先级 选择任务优先级,支持设置为高、中、低 训练框架 当前支持PyTorch和MPI训练框架 日志持久化 开启日志持久化功能会将您的任务日志持久化保存到日志服务(BLS)中,日志存储、读取、写入和索引会产生费用
这样,后端在接收到请求时,可以根据这两个头信息记录和分析来访客户端的特征。 本文将基于CentOS BCC上配置Nginx服务器为例,演示如何获取客户端信息。
应用日志 展示本服务器的应用日志。边缘控制台自动保留本服务器的应用日志,并存储7天。 用户在查询日志时,需要选择:应用类型、应用名称、容器名称,并设置查询的时间范围。 条件设置完成后,点击查询按钮,即可进行日志查询。 同时,也支持 重置筛选条件 、 清空日志 等操作。
注意:增量同步使用物化视图日志(mlog)方案时,不支持无主键表的迁移。 增量同步使用物化视图日志(mlog)方案时:若需要同时选择全量和增量迁移,源端不可存在迁移表相关的物化视图日志;若只选择增量迁移,需要提前在源端创建迁移表相关的物化视图日志。 增量同步使用归档日志(logminer)方案时:需按要求开启归档模式和Supplemental Logging,详情可见下文: 对象映射配置 。
或者达到该值后超时(ms) 静态模式 5000 否 log.retention.check.interval.ms 日志清理器检查是否有日志符合删除条件的频率(ms) 静态模式 300000 否 log.segment.delete.delay.ms 日志文件被标记删除后,还需等待多久才会被真正的删除(ms) 动态模式 60000 否
pattern => "^\[" negate => true what => previous } } } 配置filter 针对采集的日志,数据需要解析出日志时间 time 、日志级别 level 、日志所在类 class 、节点名称 node 、日志详细信息 log_data ,则可以使用grok插件配置filter,使用方式如下: filter { grok
FLINK:作业重启信息、Checkpoint统计、Task背压情况、作业每秒吞吐量(条数与流量) SPARK:Task成功/失败率、作业每秒吞吐量(条数)、处理延迟 运行日志 作业日志现阶段仅保留最后一次提交的运行日志,根据不同作业类型会分为 Driver/Executor 及 JobManager/TaskManager。具体日志内容分node保存,按小时进行切分。
3.1 通过应用日志文件查看 在 进程模式节点 的节点日志查看章节,有详细说明边缘应用日志查看方法。
查看鉴权请求日志 从/home/baidu/work/c-offline-security-server/log/aipe info 日期.log查看鉴权日志。根据应用里鉴权失败的时间或者根据产品名查找日志。
如过 coredns pod 状态正常,则可以进一步排查 coredns pod 的日志。 CoreDNS pod 日志排查 命令如下: kubectl -n kube-system logs <pod-name> 这里,因为集群中服务通过 ClusterIP 负载均衡到多个 pod,可以抽查 coredns pod 日志。