代码示例: 在注册千帆大模型后,我体验了一下此平台,以下是一个简单的代码示例,展示了如何使用文心千帆平台进行基于深度学习的图像分类任务。
检查服务器GPU识别情况 安装GPU驱动之前需要在操作系统下查看GPU卡是否能够完全识别,如不能识别需要进行重新插拔、对调测试等步骤进行硬件排查。
手动安装GPU驱动以及Cuda(Windows) 背景 GPU的驱动和CUDA是使用GPU的必备环境。如果您在创建实例时,没有自动安装驱动以及CUDA版本,则需要在创建实例后手动安装。本页面介绍如何在Windows环境中手动安装GPU驱动和CUDA。 前提条件 已创建GPU计算型实例且实例可访问公网,例如GN5规格族。本流程不适合需要安装GRID驱动的vGPU规格族。
镜像使用 GPU专用镜像使用说明 GPU专用镜像中,会集成GPU驱动、CUDA、cuDNN、主流深度学习框架等,具体信息如下: GPU专用镜像 CUDA版本 cuDNN 深度学习框架版本 Ubuntu 16.04 LTS amd64 (64bit)-CUDA9.2 CUDA 9.2 cuDNN 7.1.4 无 Ubuntu 16.04 LTS amd64 (64bit)-CUDA8.0 CUDA 8.0
Plain Text 复制 1 cat /root/install_info.log GPU镜像:由百度智能云官方提供,包含主流的基础操作系统环境和固定的GPU驱动及CUDA版本,使用此类型的镜像可以快速获取运行GPU的必备环境,以下为镜像版本详情 支持的GPU专用镜像 CUDA版本 深度学习框架版本 支持的GPU规格族 Ubuntu 16.04 LTS amd64 (64bit)-CUDA8.0
GPU卡详情 GPU服务器使用的NVIDIA GPU卡基本参数信息如下表所示: GPU卡型号 CUDA Cores Tensor Cores 显存容量 FP64浮点性能 FP32浮点性能 FP16浮点性能 INT8性能 NVIDIA Tesla H800 16896 528 80GB -- 60 Tflops 989 Tflops 1978 Tops NVIDIA Tesla A800 6912 432
应用场景 GPU的主流应用场景包含计算型应用和渲染型应用。 计算型应用可按照业务负载类型按以下分类。 人工智能训练 针对深度学习的训练负载,有大批量的数据,例如图片、语音、文本等,需要不断更新、迭代神经网络中的参数以满足业务对预测精度的要求。 可选择高性能的GPU型号来缩短网络模型的收敛时间,深度学习中存在大量矩阵计算,建议选择支持Tensor Core功能的GPU做计算加速。
GPU Kernel性能优化 伐谋赋能GPU计算体系,Kernel性能显著提升 相关产品 百度伐谋 相关案例 金融风控 交通信控 能源需求预测 场景背景 在大规模并行计算与深度学习推理场景中,GPU内核(Kernel)的性能优化是提升整体算力利用率和降低计算成本的关键环节。
GPU计算型 GPU计算型面向复杂的高密度计算类业务场景,例如人工智能计算,高性能计算等。 GPU计算型按照GPU虚拟化形态分为两种: 透传GPU实例:将整张GPU卡透传给实例使用,性能等同于物理GPU的性能。例如计算型GN5、GN3等都属于透传GPU实例。 vGPU实例:将分片后的GPU卡分配给实例使用,具有更好的性价比,例如vGN3-C属于vGPU类实例。
GPU渲染型 渲染型vGN3-Q 该规格族目前以白名单形式开放,如有需要可以提交 工单 搭配NVIDIA主流数据中心GPU T4以及license vDWS授权,支持3D内容创作应用例如OpenGL图形显示、DirectX等图形功能,方便用户使用GPU的全部功能 适用场景: 图形图像处理,例如3D渲染,光线追踪,云游戏,图形数据库,视频编解码等场景。