唯有让超节点的部署和运行体验达到「和单机 8 卡机一样」高效、顺畅与稳定,才能尽早且持久兑现性能红利
百度百舸新一代大规模分布式推理基础设施,以三大核心支柱破解大模型部署困局!
提升超长上下文本推理吞吐,百度百舸 ESS 技术报告新鲜奉上
百度百舸助力北京人形打造开源具身多模态大脑模型 Pelican-VL1.0
在 25 年 8 月百度百舸将 Token 双流核心代码正式贡献至 SGLang 开源社区。
百度百舸助力北京人形打造开源具身多模态大脑模型 Pelican-VL1.0
AI 计算首席科学家王雁鹏与十字路口主播 Koji 杨远骋展开一场深度对谈
2 天速通小米 MiMo Flash V2,vLLM-Kunlun Plugin 助力昆仑芯高效适配
开发者和用户在模型上线第一时间就能切实享受到国产 AI 芯片带来的高效加速体验。
百度百舸基于昆仑芯 XPU 完成 GLM-4.x 在 SGLang 与 vLLM 上的适配落地