在线活体检测 人脸识别接口分为V2和V3两个版本,本文档为V2版本接口的说明文档,请确认您在百度云后台获得的是V2版本接口权限,再来阅读本文档。 辨别接口版本的方法是:在百度云后台进入【应用列表】,点击【应用名称】,在【API列表】中可以看到【请求地址】,若请求地址中带有【v2】标识,则您具有的是v2权限,可以阅读本文档;若请求地址中带有【v3】标识,则您具有的是v3权限,应该去阅读v3文档。
炫瞳活体检测 如果您对文档内容有任何疑问,可以通过以下几种方式联系我们: 在百度云控制台内 提交工单 ,咨询问题类型请选择 人工智能服务 ; 炫瞳活体检测: 基于屏幕颜色打光的方式,通过面部反光和 瞳孔反光 对核验人员进行活体判断。相比于行业内传统的动作活体和视频活体检测方式,通过率大大提升,核验过程更加流畅便捷,有效拦截视频、图片伪造、3D面具、合成图等黑产攻击。
Python 复制 1 # encoding:utf-8 2 3 import requests 4 import json , base64 5 6 ''' 7 人脸检测与关键点检测 8 ''' 9 10 request_url = https://aip.baidubce.com/rest/2.0/face/v1/landmark 11 filename = '[输入图片路径]' 12 file
2D图像跟踪 2D图像跟踪 2D图像跟踪指通过扫描识别图调起AR,并使AR场景跟踪在识别图上的功能。 若您不需要跟踪功能,也可以关闭跟踪,只通过2D图像识别调起AR。 2D图像识别分为两种类型—本地图像检索和云端图像检索: 本地图像检索 是指在客户端进行图像的特征计算和检索匹配,匹配成功后调起相应的AR内容。
FaceSDKManager sharedInstance] canWork]){ 2 NSLog(@"授权失败,请检测ID 和 授权文件是否可用"); 3 return; 4 } 3.2 FaceSDK 功能初始化 3.2.1 SSFaceSDKManager参数配置 具体方法详见如下: Objective-c 复制 1 /** 2 * 获取版本号 3 */ 4 - (NSString
2D图像跟踪 简介 AR场景开发专题-编辑器版详解了如何使用AR场景编辑器以及AR能力接口开发复杂AR场景,熟悉以下内容有助于您实现复杂的交互效果和炫酷的渲染特效。 2D图像跟踪 2D图像跟踪指通过扫描识别图调起AR,并使AR场景跟踪在识别图上的功能。 想要在AR场景中使用2D图像跟踪能里,需在创建项目时将技术类型选择为【2D跟踪】。
2D材质渲染 2D材质渲染 目前百度AR 2D方面支持plane、序列帧、视频。 图片 2D图片渲染效果图 需要在AR场景中使用自定义图片时,首先需要跳转至【素材中心】页面,使用自定义图片资源创建素材,创建流程如下图: 完成图片素材的上传后,在编辑器页面将新建的图片素材拖拽到【场景】中即可。 序列帧图片 序列帧图片,一般适用于一些动态按钮的设置,如有涉及序列帧帧数过多时,请转用蒙板视频实现。
2D材质渲染 2D材质渲染 目前百度AR 2D方面支持plane、序列帧、视频,每一种类型都有对应的shader文件。 shader库下载见: GitHub链接 图片 2D图片渲染效果图 2D图片的渲染,在simple_scene.json文件中设置visible:1即可显示,无需在lua文件中写入更多的逻辑代码。
4.2.2 人脸图像采集 方法 Plain Text 复制 1 void detectStrategy(byte[] imageData) 参数 Plain Text 复制 1 imageData 图片信息 返回 Plain Text 复制 1 无 说明 Plain Text 复制 1 检测图片中的人脸信息,完成人脸图像采集,返回检测状态和结果。
FaceSDKManager sharedInstance] canWork]){ 2 NSLog(@"授权失败,请检测ID 和 授权文件是否可用"); 3 return; 4 } 3.2 FaceSDK 功能初始化 3.2.1 FaceSDK 参数配置 具体方法详见如下: Objective-c 复制 1 /** 2 * 设置预测库耗能模式 3 * 默认 LITE_POWER_NO_BIND