飞桨一体机基于飞桨深度学习框架搭建,深度适配飞腾、鲲鹏等主流CPU处理器和麒麟、统信等国内操作系统,集成百度自研昆仑AI加速卡、同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡;实现高性能AI计算、支撑多场景AI模型研发应用,加速AI行业共同发展。
整机配置Nvidia Tesla A100/Nvidia Tesla T4 GPU,满足训练和推理的不同应用场景; 使用Intel CascadeLake系列CPU,配有内置英特尔® Deep Learning Boost,可针对 AI 工作负载提供高性能推断处理; 模型训练和预测场景可通过vGPU 技术提高资源利用率,vGPU支持显存隔离和共享调度,可按任意比例和数值进行隔离。
数据管理 模型训练 模型管理 推理预测 运维管理
Nvidia Tesla A100-40G-PCIE高性能GPU算力 2/4/8卡灵活配比满足不同规模业务需求
全面适配飞腾、鲲鹏等主流CPU处理器和麒麟、统信等国内操作系统; 集成百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡; 内置飞桨企业版BML全功能AI开发平台,具有自主研发、功能全面、技术领先、开箱即用等核心优势。
数据管理 模型训练 模型管理 推理预测 运维管理
1)最多支持2块全高全长双宽AI加速卡 2)集成百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡 3)内置50+与芯片深度适配的算法模型,精度无损的情况下其推理性能持平或优于Tesla T4,可支撑多场景高效应用
百度飞桨集深度学习核心框架、模型库、开发套件、工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台;预装飞桨企业版BML,内置百度超大规模预训练模型和飞桨模型库,提供模型开发与推理预测全流程功能支撑
全面支持语音、图像、NLP模型的训练、推理;通用版配置Nvidia Tesla T4或Nvidia Tesla A100加速卡;飞腾版配置百度自研昆仑AI加速卡,同时可扩展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡
高可靠CPU与AI加速卡异构融合;基于国内外主流CPU架构,可配置2/4/8块 AI加速卡,支持多种数据精度的训练和推理
预置飞桨算法库和超大规模预训练模型,与芯片深度适配,支撑多场景高效应用;推理服务实现与20+国内外芯片与硬件适配,提供完备的模型端到端部署能力
客户服务分级和问题分类,提供7×24小时1对1电话支持服务, 根据故障情况以最快的方式协调资源提供远程或现场支持。
与硬件厂商保持高度战略协作, 需求评估、计划及订单管理等方面丰富经验,核心组件提供三年现场服务,非核心硬件故障提供送修服务。
提供远程或现场平台软件安装部署服务、产品软件升级服务、软件使用问题咨询、系统巡检服务、故障问题现场处理支持服务、产品培训服务。
产品交付采用专项专人管理机制。专业的项目管理人才和团队,丰富的项目实施交付经验,保障项目完整顺利交付。
与全业务数据中心复用训练平台、感知层和认知层AI能力,为电力服务应用提供全面支撑。自动展现新事件与热点分析,减少信息筛选成本,显著提升素材搜索效率,减少文档编写负担。
飞桨一体机助力江苏银行进行证照识别能力的建设,探索国产化AI服务器在金融生产环境的落地应用,江苏银行也成为了国内首个使用国产化AI服务器进行实际业务应用的金融机构。
助力光大银行建设机器学习平台,将2个开发工程师3个月的人工成本压缩到一个工程师五天的研发时间,在模型识别正确性持平的情况下,建模效率提升数十倍。
飞桨一体机助力浦发信用卡中心使用AI技术在金融风控、反欺诈等领域的探索,构建浦发信用卡中心的AI大脑。
飞桨一体机帮助中国人寿完成了深度学习软硬一体机平台的搭建,为中国人寿利用AI提供更好的保险服务提供了保障。