产品架构
飞桨一体机基于飞桨深度学习框架搭建,深度适配飞腾、鲲鹏等主流CPU处理器和麒麟、统信等国内操作系统,集成百度自研昆仑AI加速卡、同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡;实现高性能AI计算、支撑多场景AI模型研发应用,加速AI行业共同发展。

飞桨一体机-通用版
整机配置Nvidia Tesla A100/Nvidia Tesla T4 GPU,满足训练和推理的不同应用场景; 使用Intel CascadeLake系列CPU,配有内置英特尔® Deep Learning Boost,可针对 AI 工作负载提供高性能推断处理; 模型训练和预测场景可通过vGPU 技术提高资源利用率,vGPU支持显存隔离和共享调度,可按任意比例和数值进行隔离。

-
预置BML全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
配置A100高性能GPU算力
Nvidia Tesla A100-40G-PCIE高性能GPU算力 2/4/8卡灵活配比满足不同规模业务需求

-
预置BML全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
配置T4高性价比GPU算力
Nvidia Tesla T4-16G-PCIE高性价比GPU算力 2/4/8卡灵活配比满足不同规模业务需求

-
预置推理引擎全部功能
模型管理 推理预测 运维管理
-
配置T4高性价比GPU算力
Nvidia Tesla T4-16G-PCIE高性价比GPU算力 2/4/8卡灵活配比满足不同规模业务需求
飞桨一体机-飞腾版
全面适配飞腾、鲲鹏等主流CPU处理器和麒麟、统信等国内操作系统; 集成百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡; 内置飞桨企业版BML全功能AI开发平台,具有自主研发、功能全面、技术领先、开箱即用等核心优势。

-
预置BML全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
国内主流AI加速卡适配
1)最多支持2块全高全长双宽AI加速卡 2)集成百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡 3)内置50+与芯片深度适配的算法模型,精度无损的情况下其推理性能持平或优于Tesla T4,可支撑多场景高效应用

-
预置BML全部功能
数据管理 模型训练 模型管理 推理预测 运维管理
-
国内主流AI加速卡适配
1)2/4/8卡灵活配比 2)最多支持8块全高全长双宽AI加速卡 3)集成百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡 4)内置50+与芯片深度适配的算法模型,精度无损的情况下其推理性能持平或优于Tesla T4,可支撑多场景高效应用
产品优势
-
飞桨深度学习平台
百度飞桨集深度学习核心框架、模型库、开发套件、工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台;预装飞桨企业版BML,内置百度超大规模预训练模型和飞桨模型库,提供模型开发与推理预测全流程功能支撑
-
高性能AI加速芯片
全面支持语音、图像、NLP模型的训练、推理;通用版配置Nvidia Tesla T4或Nvidia Tesla A100加速卡;飞腾版配置百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡
-
专用AI服务器设计
高可靠CPU与AI加速卡异构融合;基于国内外主流CPU架构,可配置2/4/8块 AI加速卡,支持多种数据精度的训练和推理
-
开箱即用的AI能力
预置飞桨算法库和超大规模预训练模型,与芯片深度适配,支撑多场景高效应用;推理服务实现与20+国内外芯片与硬件适配,提供完备的模型端到端部署能力