接口说明
更新时间:2020-12-18
内容审核平台-图像
为用户提供色情识别、暴恐识别、政治敏感人物识别、广告识别、图像垃圾文本识别(反作弊)、恶心图像识别等一系列图像识别接口的一站式服务调用,并且支持用户在控制台中自定义配置所有接口的报警阈值和疑似区间,上传自定义文本黑库和敏感人物名单等。相比于组合服务接口,本接口除了支持自定义配置外,还对返回结果进行了总体的包装,按照用户在控制台中配置的规则直接返回是否合规,如果不合规则指出具体不合规的内容。
var image = File.ReadAllBytes("图片文件路径");
var result = client.UserDefined(image);
Console.WriteLine(result);
result = client.UserDefinedUrl(imageUrl);
Console.WriteLine(result);
请求参数详情
参数名称 | 数据类型 | 是否必须 | 备注 | 样例 |
---|---|---|---|---|
image | String | N (和imgUrl二选一) |
待审核图像Base64编码字符串, 以图像文件形式请求时必填 |
/9j/4AAQSkZJRgABAQAASABIAAD/4 QBYRXhpZgAATU0AKgAAAAgAAgESAAMAAAABAAYAAIdp |
imgUrl | String | N (和image二选一) |
网图URL地址, 以网图形式请求, 图像Url需要做UrlEncode |
https://ai-solution-admin.cdn.bcebos.com/audit%2F demo%2Fcensoring-demo.jpg |
imgType | uint64 | N | 图片类型0:静态图片,1:gif动态图片 | 1 |
返回数据参数详情
参数名称 | 数据类型 | 是否必须 | 备注 |
---|---|---|---|
log_id | Long | Y | 请求唯一id,用于问题排查 |
error_code | Long | N | 错误提示码,失败才返回,成功不返回 |
error_msg | String | N | 错误提示信息,失败才返回,成功不返回 |
conclusion | String | N | 审核结果,可取值描述:合规、不合规、疑似、审核失败 |
conclusionType | uint64 | N | 审核结果类型,可取值1、2、3、4,分别代表1:合规,2:不合规,3:疑似,4:审核失败 |
data | Array | N | 不合规/疑似/命中白名单项详细信息。响应成功并且conclusion为疑似或不合规或命中白名单时才返回,响应失败或conclusion为合规且未命中白名单时不返回。 |
+error_code | uint64 | 否 | 内层错误提示码,底层服务失败才返回,成功不返回 |
+error_msg | string | 否 | 内层错误提示信息,底层服务失败才返回,成功不返回 |
+type | Integer | N | 结果具体命中的模型:0:百度官方违禁图库、1:色情识别、2:暴恐识别、3:恶心图识别、4:广告监测、5:政治敏感识别、6:图像质量检测、7:用户图像黑名单、8:用户图像白名单、9:图文审核、11:百度官方违禁词库、12:文本反作弊、13:自定义文本黑名单、14:自定义文本白名单、15:EasyDL自定义模型 |
+subType | Integer | N | 审核子类型,此字段需参照type主类型字段决定其含义: 当type=0时subType取值含义 : 0:百度官方违禁图 当type=1时subType取值含义: 0:一般色情、1:卡通色情、2:SM、3:低俗、4:儿童裸露、5:艺术品色情、6:性玩具、7:男性性感、8:自然男性裸露、9:女性性感、10:卡通女性性感、11:特殊类、12:亲密行为、13:卡通亲密行为 当type=2时subType取值含义: 0:警察部队、1:血腥、2:尸体、3:爆炸火灾、4:杀人、5:暴乱、6:暴恐人物、7:军事武器、8:暴恐旗帜、9:血腥动物或动物尸体、10:车祸 当type=3时subType取值含义: 0:恶心图 当type=4时subType取值含义:0:水印、1:二维码、2:条形码 当type=5时subType取值含义:0:政治敏感、1:公众人物、2:自定义敏感人物 当type=6时subType取值含义: 0:图像清晰度、1:图像美观度 当type=7时subType取值含义: 0:用户自定义图像黑名单 当type=8时subType取值含义: 0:用户自定义图像白名单 当type=9时subType取值含义: 0:图像中必须是真人脸 1:人脸必须为正脸 2:左右旋转角度 3:俯仰角度 4:歪头角度 5:人脸不能有遮挡 6:不能遮挡眼睛 7:不能遮挡鼻子 8:不能遮挡嘴 9:不能遮挡下巴 10:不能遮挡脸颊 11:人脸不能佩戴墨镜 12:人脸占比 13:人脸必须清晰 当type=11时subType取值含义: 0:百度官方默认违禁词库 当type=12时subType取值含义: 0:低质灌水、1:暴恐违禁、2:文本色情、3:政治敏感、4恶意推广、5:低俗辱骂 当type=13时subType取值含义: 0:自定义文本黑名单 当type=14时subType取值含义: 0:自定义文本白名单 |
+msg | String | N | 不合规项描述信息 |
+probability | Float | N | 不合规项置信度 |
+datasetName | Float | N | 违规项目所属数据集名称 |
+stars | Array | N | 敏感人物列表数组,只有敏感人物审核不通过才有 |
++name | String | N | 敏感人物名称 |
++probability | Float | N | 人脸相似度 |
++datasetName | Float | N | 人脸所属数据集名称 |
+hits | Array | N | 命中关键词信息 |
++words | String | N | 违规文本关键字 |
+codes | Array | N | (如果您在策略配置中勾选了二维码识别)二维码或者条形码识别结果 |
++modelName | String | N | (如果您勾选了EasyDL的模型)命中自定义模型名称 |
++score | Float | N | (如果您勾选了EasyDL的模型)命中自定义模型置信度 |
++modelId | Array | N | (如果您勾选了EasyDL的模型)命中自定义模型ID |
++label | String | N | (如果您勾选了EasyDL的模型)命中自定义模型标签名称 |
+type | int | N | 原生结果的类型1:色情识别、2:暴恐识别、3:恶心图识别、4:广告监测、5:政治敏感识别、6:图像质量检测、7:用户图像黑名单、8:用户图像白名单、9:图文审核 |
+results | JSONArray | N | 每个type可能会调用多个底层服务,此处可能有多个结果 |
返回示例
// 失败返回示例
{
"log_id": 149319909347709,
"error_code": 282800,
"error_msg":"configId param is error or null"
}
// 成功返回示例-合规
{
"log_id": 123456789,
"conclusion": "合规"
}
// 成功返回示例-不合规
{
"log_id": 123456789,
"conclusion": "不合规",
"data": [
{
"msg": "存在色情内容",
"probability": 0.94308,
"type": 1
},
{
"msg": "存在性感内容",
"probability": 0.94308,
"type": 2
},
{
"msg": "存在暴恐内容",
"probability": 0.94308,
"type": 3
},
{
"msg": "存在恶心内容",
"probability": 0.9688154,
"type": 4
},
{
"msg": "存在政治敏感内容",
"stars": [
{
"probability": 0.94308,
"name": "习近平"
},
{
"probability": 0.44308,
"name": "彭丽媛"
}
],
"type": 8
},
{
"msg": "存在二维码内容",
"probability": 0.94308,
"type": 6
},
{
"msg": "存在水印码内容",
"probability": 0.94308,
"type": 5
},
{
"msg": "存在条形码内容",
"probability": 0.94308,
"type": 7
},
{
"msg": "包含联系方式",
"probability": 0.94308,
"words": "包含联系方式",
"type": 8
}
]
}
内容审核平台-文本
result = client.TextCensorUserDefined("审核文本");
Console.WriteLine(result);
请求参数详情
参数名称 | 数据类型 | 是否必须 | 备注 | 样例 |
---|---|---|---|---|
text | String | N | 待审核文本字符串 | "测试文本" |
返回数据参数详情
参数名称 | 数据类型 | 是否必须 | 备注 | 样例 |
---|---|---|---|---|
log_id | Long | Y | 请求唯一id | |
error_code | Long | N | 错误提示码,失败才返回,成功不返回 | |
error_msg | String | N | 错误提示信息,失败才返回,成功不返回 | |
conclusion | String | N | 审核结果,可取值:合规、不合规、疑似、审核失败 | |
conclusionType | uint64 | N | 审核结果类型,可取值1.合规,2.不合规,3.疑似,4.审核失败 | |
data | Array | N | 不合规/疑似/命中白名单项详细信息。响应成功并且conclusion为疑似或不合规或命中白名单时才返回,响应失败或conclusion为合规且未命中白名单时不返回。 | |
+error_code | uint64 | 否 | 内层错误提示码,底层服务失败才返回,成功不返回 | |
+error_msg | string | 否 | 内层错误提示信息,底层服务失败才返回,成功不返回 | |
+type | Integer | N | 审核主类型,11:百度官方违禁词库、12:文本反作弊、13:自定义文本黑名单、14:自定义文本白名单 | |
+subType | Integer | N | 审核子类型,此字段需参照type主类型字段决定其含义: 当type=11时subType取值含义: 0:百度官方默认违禁词库 当type=12时subType取值含义: 0:低质灌水、1:暴恐违禁、2:文本色情、3:政治敏感、4:恶意推广、5:低俗辱骂 当type=13时subType取值含义: 0:自定义文本黑名单 当type=14时subType取值含义: 0:自定义文本白名单 |
|
+msg | String | N | 不合规项描述信息 | |
+probability | Float | N | 不合规项置信度 | |
+datasetName | Float | N | 违规项目所属数据集名称 | |
++probability | Float | N | 人脸相似度 | |
++datasetName | Float | N | 人脸所属数据集名称 | |
+hits | Array | N | 命中关键词信息 | |
++words。 | String | N | 违规文本关键字 |
返回示例
// 成功返回示例-合规
{
"log_id": 15556561295920002,
"conclusion": "合规",
"conclusionType": 1
}
或者
{
"log_id": 15572142621780024,
"conclusion": "合规",
"conclusionType": 1,
"data": [{
"type": 14,
"subType": 0,
"conclusion": "合规",
"conclusionType": 1,
"msg": "自定义文本白名单审核通过",
"hits": [{
"datasetName": "SLK-测试-自定义文本白名单",
"words": ["习大大"]
}]
}]
}
// 成功返回示例-不合规
{
"log_id": 123456789,
"conclusion": "不合规",
"conclusionType": 2,
"data": [{
"type": 11,
"subType": 0,
"conclusion": "不合规",
"conclusionType": 2,
"msg": "存在百度官方默认违禁词库不合规",
"hits": [{
"datasetName": "百度默认黑词库",
"words": ["免费翻墙"]
}]
}, {
"type": 12,
"subType": 2,
"conclusion": "不合规",
"conclusionType": 2,
"msg": "存在文本色情不合规",
"hits": [{
"datasetName": "百度默认文本反作弊库",
"probability": 1.0,
"words": ["电话 找小姐"]
}]
}, {
"type": 12,
"subType": 3,
"conclusion": "不合规",
"conclusionType": 2,
"msg": "存在政治敏感不合规",
"hits": [{
"probability": 1.0,
"datasetName": "百度默认文本反作弊库",
"words": ["江泽民"]
}]
}, {
"type": 12,
"subType": 4,
"conclusion": "不合规",
"conclusionType": 2,
"msg": "存在恶意推广不合规",
"hits": [{
"probability": 1.0,
"datasetName": "百度默认文本反作弊库",
"words": [""]
}]
}, {
"type": 13,
"subType": 0,
"conclusion": "不合规",
"conclusionType": 2,
"msg": "存在自定义文本黑名单不合规",
"hits": [{
"datasetName": "SLK-测试-自定义黑名单",
"words": ["我是你爹", "他妈的"]
}]
}]
}
// 失败响应示例
{
"log_id": 149319909347709,
"error_code": 0,
"error_msg":"configId error"
}
图像审核反馈接口
新增效果反馈接口,用于用户反馈模型的效果,用户必须至少反馈一个 true/false 来表示对该结果是否满意,同时可选择反馈详细的评价。
var result = client.Report(new []
{
new Dictionary<string, object>()
{
{"api_url", "https://aip.baidubce.com/rest/2.0/antiporn/v1/detect"},
{"log_id", 123456},
{"level", 1},
{"correct", 1}
},
});
Console.WriteLine(result);
请求参数详情
参数名 | 取值 | 是否必选 | 说明 |
---|---|---|---|
api_url | 与数据库中取值一致 | Y | 所调用的API |
correct | int | Y | 结果是否正确,正确:1,错误:0 |
image | string | N(image/image_md5/log_id三选一) | 图像BASE64编码数据 |
image_md5 | string | N(image/image_md5/log_id三选一) | 原请求的图像的MD5值 |
log_id | long | N(image/image_md5/log_id三选一) | 原请求返回的log_id |
level | int | N(该字段仅适用于色情识别结果反馈) | 填写您认为的正确结果,色情:1,性感:2,正常:3,难以判断:4 |
watermark | int | N(该字段仅适用于广告检测结果反馈) | 不包含水印:0, 包含:1 |
qr_code | int | N(该字段仅适用于广告检测结果反馈) | 不包含二维码:0, 包含:1 |
bar_code | int | N(该字段仅适用于广告检测结果反馈) | 不包含条形码:0, 包含:1 |
clarity | int | N(该字段仅适用于图像质量检测结果反馈) | 0: 不清晰, 1: 清晰 |
aesthetic | int | N(该字段仅适用于图像质量检测结果反馈) | 0: 不美观,1:美观 |
extra | string | N | 备注,扩展字段 |
返回示例
{
"log_id": 234232235,
"result": [
{
"error_code": 0,
//成功
"error_msg": ""
},
{
"error_code": 282004,
// image_logid 或者 image_md5 或者 image 不存在
// 三者必选其一
"error_msg": "params error"
},
{
"error_code": 0,
"error_msg": ""
}
]
}