百度百舸 · AI异构计算平台
包含AI计算、AI存储、AI加速、AI容器四大核心套件,具有高性能、高弹性、高速互联、高性价比等特性。为AI场景提供软硬一体解决方案,充分汲取百度异构计算平台多年的技术沉淀和实践经验,深度融合推荐、无人驾驶、生命科学、NLP场景。 了解详情
AI大底座帮助企业从上云,进入到用数、赋智的快车道,降低AI产业应用的门槛,提升效率让企业可以把精力聚焦在业务上,充分挖掘智能化带来的价值,实现产业与技术融合创新
百度AI大底座由AI IaaS层(百舸AI异构计算平台),AI PaaS层(AI中台)两大部分组成
基于新一代自研架构昆仑芯XPU-R而设计,是国内首款采用GDDR6显存的通用AI芯片。昆仑芯2代AI芯片聚焦高性能、通用性和易用性。相比1代产品,昆仑芯2代AI芯片的通用计算核心算力提升2-3倍,可为数据中心高性能计算提供强劲AI算力。
采用XPU-R架构,通用性和性能显著提升
256 TOPS@INT8,128 TFLOPS@FP16
7nm先进工艺,GDDR6高速显存
支持虚拟化,芯片间互联和视频编解码
飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。目前,飞桨已凝聚535万开发者,基于飞桨创建67万个模型,服务20万家企事业单位。飞桨助力开发者快速实现AI想法,创新AI应用,作为基础平台支撑越来越多行业实现产业智能化升级。
业内首个动静统一的框架,动态图编程调试转静态图预测部署
业内首个通用异构参数服务器架构,端到端自适应分布式训练架构
即训即用,支持端边云多硬件和多操作系统
算法总数超过600个,包含领先的预训练模型
文心大模型源于产业、服务于产业,是产业级知识增强大模型,涵盖基础大模型、任务大模型、行业大模型,大模型总量达36个,并构建了业界规模最大的产业大模型体系。文心大模型配套了丰富的工具与平台层,包括大模型开发套件、API以及内置文心大模型能力的EasyDL和BML开发平台,大幅降低了AI开发和应用的门槛,已广泛应用在百行千业。
学习少量数据应对待业务场景
AIGC助力内容规模化生产
各场景效果均优于普通模型
通过“举例子”定制海量应用场景
AI大底座面向企业AI开发的全生命周期提供的完整解决方案。百度在AI生产全要素的各层都具有自主可控的核心技术和产品。只有具备全要素的核心技术,才能面向真实业务场景进行端到端的全流程调优,为企业提供极致效能。
在面向实际业务场景时,AI生产全要素中的每一层能力都会得到很多真实业务的反馈,百度AI大底座基于大模型特性,形成平台化反馈闭环机制,通过反馈闭环,持续迭代优化,继而不断提升应用效果。
配备GPU的云端服务器,可以为机器学习、高性能计算、图形图像渲染等计算密集型应用提供加速处理能力。根据需求场景的不同,既可提供弹性的GPU云服务器,也可提供高性能的GPU裸金属服务器,助力您的业务创新,提升竞争优势。
百度智能云PFS提供完全托管、简单可扩展的并行文件存储服务,针对高性能计算场景提供亚毫秒级的访问能力、高IOPS及高吞吐的数据读写请求能力,适用于AI训练、自动驾驶、大数据分析、视频渲染等高性能计算场景。 申请开通
云原生AI基于百度智能云容器引擎(CCE)支持GPU显存和算力的共享与隔离,同时集成多种主流深度学习框架,通过对AI任务的编排、管理,提供深度学习训练服务,帮助企业客户提高GPU资源使用效率和提升AI训练速度,快速降本增效。