4.3 身份证信息录入配置 非大陆数据源 :默认不使用。配置打开后支持对大陆居民二代身份证、港澳居民往来内陆通行证、外国人永久居住证及定居国外的中国公民护照的验证。若不打开则只支持大陆居民二代身份证的验证。 身份信息录入方式 :支持身份证识别OCR、手动输入、指定用户身份核验三种。
人脸实名认证(必选) :基于姓名和身份证号,调取公安权威数据源人脸图,将当前获取的人脸图片,与公安数据源人脸图进行对比,得出比对分数,并基于此进行业务判断是否为同一人。由于公安数据源人脸图具有最权威的身份证明作用,故对用户本人的验证结果可信度也最为合理。
Formats BSC 目前支持三种 format:JSON、CSV、TXT 支持的数据源 编码类型 Source Sink CSV KAFKA、BOS、MQTT KAFKA、BOS、MQTT JSON KAFKA、BOS、MQTT KAFKA、BOS、MQTT TXT PALO Format 相关参数 公共参数 名称 简称 用例 SPARK FLINK 说明 format.encode encode
物可视 物接入 超级链Baas平台 API入门指南 发票 数据湖管理与分析平台EasyDAP 智能对话 视频类型 全部类型 产品描述 操作指导 故障处理 技术讲解 收起选项 综合排序 最热 最新 Sugar BI产品介绍 Sugar BI添加数据源操作指导 Sugar BI创建数据模型操作指导 Sugar BI报表制作操作指导 Sugar BI自助BI分析操作指导 Sugar BI制作可视化大屏操作指导
name : srcConnect , status : ready , message : 源库无法连接, 请确认配置信息和源库状态是否正常 , subscription : 检查数据传输服务是否能连通源数据源 } ] , negCheckResults : [ //反向数据流 { name : dstConnect , status : ready
关于core节点数目,如果使用集群内的hdfs,需要根据hdfs中的数据大小规划core节点数量(一般常驻集群是这样的);如果不使用集群内的hdfs,而是使用bos作为数据源,可以使用最少的core节点数量(一般按需启动的集群是这样的)。以上只是一个例子,仅供参考。 VPC未增加域名解析导致集群创建失败,如何处理?
删除、复制 数据校验 数据校验功能指数据迁移完成后,在不停服的情况下对源库和目标库进行数据校验,帮助您及时发现数据和结构不一致的问题。 支持的链路 注意 : 源库和目标库间的双向同步任务也支持校验功能。 源库和目标库支持百度智能云和自建数据库实例。 源库 目标库 MySQL MySQL MongoDB MongoDB Redis Redis
ROUTINE-LOAD ROUTINE LOAD Description 例行导入(Routine Load)功能,支持用户提交一个常驻的导入任务,通过不断的从指定的数据源读取数据,将数据导入到 PALO 中。 目前仅支持通过无认证或者 SSL 认证方式,从 Kakfa 导入 CSV 或 Json 格式的数据。
LogStream LogStream(日志流)用于标识数据来源,它代表日志记录是由某个数据源持续不断产生的,可以使用主机名、IP、域名、虚机实例 ID 等作为 LogStream,一个 LogStore 可以包含任意多个 LogStream。
由类似 SQL 的语言 Pig Latin 操作,允许用户构建、汇总和查询数据。 与 SQL 操作类似,Pig Latin 也支持一流的 map/reduce 函数及复杂的由用户定义的可扩展数据类型。该功能能够处理复杂的非结构化的数据源,如文本文档和日志文件。另外Pig 支持通过 Java 中编写的用户定义函数使用用户扩展名。在BMR中支持pig 0.11版本。