模型效果评估报告
简介
模型训练完成后,模型列表中可以看到模型的结果,包括两个指标:top1准确率和top5准确率,也可以点击「完整评估报告」查看更为详细的模型表现,包括准确率、F1-score、精确率和召回率,本文档会介绍如何解读模型的各项指标。
模型训练结果
模型的训练结果是如何得到的?
所有训练数据中,系统会随机抽取70%的标注数据作为训练数据,剩余的30%作为测试数据,训练数据训练出的模型去对测试数据进行检测,检测得到的结果跟人为标注的结果进行比对,得到准确率、F1-score、精确率和召回率。
提示:训练数据,即上传的视频越接近真实业务里需要预测的视频,模型训练结果越具有参考性。
在查看模型评估结果可能需要思考在当前业务场景精确率与召回率更关注哪个指标,是更希望减少误识别,还是更希望减少误召回。前者更需要关注召回率的指标,后者更需要关注精确率的指标。同时F1-SCORE可以有效关注精确率和召回率的平衡情况,对于希望召回与识别效果兼具的场景,F1-Score越接近1效果越好。
完整评估报告
如果需要了解更为详细的模型效果表现,可以在模型列表中点击三项指标下方的「完整评估报告」,完整评估报告页面如下图所示:
评估报告
如下图所示:
在这部分可以选择模型的版本,以及看到每个版本参与训练的视频数和分类数。
整体评估
如下图所示:
在这部分,四项指标的含义如下:
- 准确率
准确率 Accuracy = 模型正确预测所有分类的数量/所有分类客观存在的数据总数
对于一个分类模型而言,准确率表示这个模型中所有分类的综合识别效果。如果准确率为1,说明所有分类在测试数据中都被正确识别
- F1-score
F1-score是模型中一个分类的精确率和召回率的调和平均数,对于希望召回与识别效果兼具的场景,F1-Score越接近1效果越好。
- 精确率
精确率 Precision = 模型正确预测为该分类的数量/模型预测为该分类的总数
对于一个分类而言,精确率越高,说明模型识别出是这个分类的所有结果中,正确数量的占比越高。如果精确率为1,说明识别出的所有结果都是对的,但不说明该分类全部都被识别出来了,可能会存在漏识别。
- 召回率
召回率 Recall = 模型正确预测为该分类的数量/该分类客观存在的数据总数
对于一个分类而言,召回率越高,说明模型越完整地识别出这个分类。如果召回率为1,说明这个分类全部都别模型识别出来了,但不表示识别出是这个分类的结果都是对的,可能会存在误识别。
如果对模型的效果有疑问,可以点击「如何优化效果」查看模型效果不佳的原因,如下图所示:
将您想咨询的问题描述填写后提交,我们线下会有专员联系到您帮您解决问题。
详细评估
如下图,这里可以看到所有评估报告的数据是基于什么量级的数据进行计算的,当整体参与评估的数量较少时,所有数值可能无法真实反映模型效果。同时,可以看到模型多个识别结果时的准确率。