产品介绍 简介 OCR 私有化部署服务 支持将 OCR 识别模型部署至本地服务器或私有云环境,为企业提供 高隐私性 和 强实时性 的内网 API 服务,可供局域网内的设备进行调用。 70+ 款标准模型及自定义平台可供选择,可满足 手写/印刷文本、各类卡证票据 等不同类型文字识别需求,同时可提供 自定义/自训练平台 的本地化部署,助您快速搭建企业 AI 中台。
etc/mpi/hostfile /etc/mpi/hostfile OMPI_MCA_plm_rsh_args 训练节点之间ssh连接使用的参数配置 -o ConnectionAttempts=10 -o ConnectionAttempts=10 NVIDIA_VISIBLE_DEVICES 训练节点可见的gpu卡设备 GPU-ae58e6cc-1dec-bcb9-820c-e433d01afda6
2 12 80 400 NVIDIA 深度学习开发卡 4 24 160 800 2.
将加速卡连接宿主机 请使用质量合规的usb线连接。
云服务器BCC 专属服务器DCC GPU云服务器 弹性裸金属服务器 云手机 应用引擎 BAE 轻量应用服务器LS 弹性公网IP 私有网络 VPC 负载均衡 BLB 智能云解析 DNS 专线ET 云智能网 CSN 云防火墙 CFW 对象存储 BOS 文件存储 CFS 云磁盘 CDS 存储网关BSG 边缘计算节点 BEC 数据流转平台CloudFlow 内容分发网络 CDN 海外CDN 动态加速 DRCDN
例如,如果你的每台服务器有4个GPU,那么这个值应该是4。 $NNODES: 设置为总的节点数量。如果你有两台服务器参与训练,此值应为2。 $RANK: 每个节点需要一个唯一的序号。一般来说,你可以在启动脚本中为每个节点分配一个序号,从0开始。例如,如果有两个节点,一个节点的rank为0,另一个为1。 $MASTER_ADDR: 这是主节点的IP地址。
产品性能 1、单GPU支持QPS调用量 图片长宽在600像素x600像素情况下,单张P4/GTX系列、T4、RTX系列显卡上最多支持50QPS;对最新推出的RTX系列显卡进行了性能优化提升,单张显卡最多可以达到80QPS,理论横向扩展无限制 注: 推荐单机4卡的方式进行部署,单机6卡或更多的情况下,GPU利用率会下降 2、人脸库查询速度 比对速度和查找速度,可以实现1s以内返回。
NodeCount 资源池节点状态,被如下接口引用: 资源池详情 、 资源池列表 参数名称 类型 说明 total Number 节点总数 used Number 已分满节点 GPUCount 资源池计算卡状态,被如下接口引用: 资源池详情 、 资源池列表 参数名称 类型 说明 total Number 计算卡总数 used Number 已分配 ResourcePoolListResult 资源池列表信息
节点查看 在节点详情页可以看到节点已连接,显示了节点的详细信息与资源使用情况。 点击左边栏应用部署菜单可以查看已部署的应用相关信息和资源使用情况。 如果在创建节点时选择了NVIDIA GPU加速卡,可在节点详情页查看设备的GPU使用情况 点击节点详情页的AI加速卡栏,可以查看设备GPU更详细的信息,包括GPU卡名称,当前温度,能耗等。
一般只有运维人员有该环境的超管权限 物理架构拓扑图 文字识别私有化部署产品包含鉴权服务和应用服务,其中 鉴权服务通过客户网关系统连接到应用服务器为应用服务提供鉴权认证 应用服务部分直接或通过生产级网关被客户业务场景直接使用 鉴权应用 规划原则 鉴权服务是是您运行文字识别应用服务的基础,如果鉴权异常,将直接导致模型的API接口不可用。