请求http服务 开发者可以打开浏览器, http://{设备ip}:24401 ,选择图片来进行测试。
性能表现 在TCP-30Gbps-1NIC 场景下,2台单机8卡提升85.5%,4台单机8卡提升43.7%。 在TCP-100Gbps-1NIC 场景下,2台单机卡提升85.5%,4台单机8卡提升52.1%。 在RDMA-100Gbps-1NIC场景下,2台单机8卡提升8.5%,4台单机8卡提升11.4%。
操作步骤 2.1 获取上级平台配置信息 智能视联网平台作为下级平台,需要获取上级平台的SIP国标服务编码、SIP服务国标域、SIP服务IP、SIP服务端口、设备用户名、设备用户密码等信息,并填写至国标级联上级平台。
TCP发送包数 个 InstanceId TcpInSegs TCP接收包数 个 InstanceId TcpRetranSegs TCP重传数 次 InstanceId SwapUsedBytes 交换分区使用量 Bytes InstanceId SwapTotalBytes 交换分区总量 Bytes InstanceId SwapFreeBytes 交换分区空闲量 Bytes InstanceId
响应参数说明 接口说明: 接口响应时间=用户传输/解析文档耗时+模型处理耗时+返回结果耗时,其中模型处理耗时依据您具体勾选的维度多少略有波动 全部响应参数: 参数名称 数据类型 描述 是否必须 logId Long 请求唯一id,用于问题排查 Y msg String 详细描述结果 Y ret String 响应状态码,可取值:0处理成功,其他为处理失败 Y data JSONObject 结果详情
Protocol 为mqtt/tcp,订阅主题为test(主题在配置文件中定义)。该broker应用不需要用户名和密码。
init 接口会根据此值预分配 GPU 资源,建议结合实际使用控制此值,使用多少则设置多少。注意:此值的增加会降低单次 infer 的速度,建议优先考虑 batch inference 和 multi predictor。 PREDICTOR_KEY_GTURBO_FP16 :默认是 fp32 模式,置 true 可以开启 fp16 模式预测,预测速度会有所提升,但精度也会略微下降,权衡使用。
init 接口会根据此值预分配 GPU 资源,建议结合实际使用控制此值,使用多少则设置多少。注意:此值的增加会降低单次 infer 的速度,建议优先考虑 batch inference 和 multi predictor。 PREDICTOR_KEY_GTURBO_FP16 :默认是 fp32 模式,置 true 可以开启 fp16 模式预测,预测速度会有所提升,但精度也会略微下降,权衡使用。
init 接口会根据此值预分配 GPU 资源,建议结合实际使用控制此值,使用多少则设置多少。注意:此值的增加会降低单次 infer 的速度,建议优先考虑 batch inference 和 multi predictor。 PREDICTOR_KEY_GTURBO_FP16 :默认是 fp32 模式,置 true 可以开启 fp16 模式预测,预测速度会有所提升,但精度也会略微下降,权衡使用。
参考 容器引擎CCE-操作指南-存储管理 一节。 选取任意一种方式部署生成 PVC ,记录下 PVC 的名字。 2.