百度智能云

新闻资讯

关注百度智能云最新动态,了解产业智能化最新成果。

百度百舸CCE Stack智算版发布

2022-11-02 12:59:34

百度百舸·AI 异构计算平台,是百度智能云将百度内部强大的 AI 工程能力面向市场推出的解决方案,支持了百度集团内部各类 AI 项目的落地,比如文心大模型、自动驾驶等。百度百舸能够构建超大规模的 AI 集群,提供长期稳定的任务运行环境,配置最佳的软硬一体解决方案,加速训练和推理任务的快速进行。


今年9月的智能经济高峰论坛上,百度智能云正式发布了百度百舸·AI 异构计算平台2.0。


此次发布的2.0版本在 AI 计算、AI 计算等模块能力上进行了全面增强,同时推出了全新的 AI 加速套件,数据湖存储加速提升训练效率5~10倍,分布式训练加速提升训练吞吐50%~150%,推理加速降低时延40%~60%。


在公有云和专有云场景,百度百舸2.0最大提供单集群 EFLOPS 级别的算力,支持万卡规模的集群训练任务。

为了方便用户能够以更轻量敏捷的方式构建自己的 AI 基础设施,百度智能云推出了 CCE Stack 智算版。相比容器引擎 CCE Stack 标准版,智算版特别增加了支持 AI 应用的能力。


这个版本可以轻便地部署在已有的基础设施上——直接部署在客户的物理机,或者部署在已有的私有云平台上,实现快速交付百度百舸·AI 异构计算平台。


CCE Stack 智算版包含了 AI 容器、AI 加速等百度百舸2.0的核心模块,包括异构资源调度、GPU 容器虚拟化、AI 任务管理、训练、推理和数据集加速等能力,并可按需选配 AI 存储和 RDMA 网络等模块。


-业界首推的双引擎 GPU 容器虚拟化模式,提供用户态和内核态两种实现。用户态能够实现进程融合、显存交换、编解码实例等,性能更好;内核态隔离性强,可以实现算力隔离以及显存隔离。

-支持共享混部,拓扑感知以及亲和调度等策略,让用户实现极致的 AI 资源利用率。

-AI 加速套件通过数据集加速、训练加速和推理加速等,使得模型迭代效率和模型性能都得到进一步提升。

-提供多元芯片,支持昆仑芯等各类国产芯的虚拟化和资源调度。


CCE Stack 智算版的推出将帮助更多传统企业快速建设 AI 基础设施,获得 AI 工程能力,加速智能化升级步伐。