功能发布记录
更新时间:2026-04-08
| 发布时间 | 功能概述 |
|---|---|
| 2026-03 | - 新增快速开始搭建Libero、Simpler 仿真环境并调用 - 快速开始新增LingBot-Depth、LingBot-World、LingBot-VLA、LingBot-VA系列LingBot模型 - 新增支持GPU卡部署GLM-5、MiMo-V2-Flash、MiniMax-M2.5、InternVL3-38B、DeepSeek-Coder-V2-Instruct、Qwen3-Coder-Next、Qwen3-30B-A3B-x-2507等模型 - 支持P800部署BEVformer、DeepSeek-V3.2(W8A8)、DeepSeek-V3.2-Exp(W8A8)、GLM-5、Qwen3-Coder-Next等模型 - 全托管资源池的资源队列支持空闲资源出借功能 - 全托管资源池增加资源报表功能 - 排队中的任务增加排队诊断功能 - 支持RapidFS推理模型缓存加速相关配置功能 - 支持预留实例券功能 - 制作镜像支持免密到推送CCR - WebIDE中支持实时查看CPU、内存、GPU、CDS资源利用率 - 开发机内执行 top、free 等命令调试时支持查看开发机容器的资源使用情况 - 资源池开发机全局配置中支持关闭制作镜像功能 - 开发机内置Tensorboard快速启动 - P800的开发机支持低利用率关机 - 支持推理服务在线调试 - 部署的公共模型权重加载加速 - 存储挂载支持Alluxio存储 - 支持使用YAML方式编排工作流 - 支持串行、并行、菱形任务编排 - pytorch、sglang等多个预置镜像新增社区最新版本 - 新增ray-cpu、ray-gpu预置镜像 |
| 2026-02 | - 新增基于RLinf的Pi0.5模型强化学习训练与评测的最佳实践 - 支持快速部署Mixtral-8x22B、MiMo-VL-7B、Baichuan2、GLM-4.6、GLM-4.7、Kimi-K2.5等模型 - 全托管资源池的队列支持负载类型的配置,提升精细化管理能力 - 全托管&自运维资源池支持虚拟化的物理队列的碎片治理功能 - WebIDE中支持查看历史执行命令的操作时间 - WebIDE提供vim、bash默认配置文件 - WebIDE新增Code Spell Checker、Markdown Editor 等插件 - 开发机中的进程OOM不会重启开发机 - 资源池全局配置支持关闭创建开发机时申请共享CPU/内存 - 支持在创建开发机时不申请百舸云盘 - 公共数据集上线RoboMIND2.0系列数据集 |
| 2026-01 | - 快速在百舸部署apollo 智驾BEV模型全流程仿真验证环境(BEV模型训练、训练模型导出、推理),快速部署无缝对接 Apollo 自动驾驶系统 - 支持快速部署Qwen3-VL、GLM-4、GLM-Z1、PaddleOCR-VL、gemma-3等系列模型 - 新增 NVIDIA Isaac GR00T Blueprint 和 NVIDIA Isaac GR00T-Dreams的最佳实践,支持用户在百舸快速构建 - 全托管资源池队列支持多种不同套餐规格同时添加到同一物理队列中 - MIG产品化能力的持续升级,支持控制台开启、变更、关闭MIG模式。 - 资源视图升级:增加节点可挂载云磁盘数的视图,并增加相关的事前诊断能力。 - 支持配置资源规格模板,负载侧根据资源规格模板配置资源。 - 新增训练任务优先级规则配置功能。队列管理员可在队列详情中为不同用户或角色设定可使用的最高任务优先级,从而保障高优任务优先获得资源。 - 分布式训练任务,支持使用 eRDMA 加速训练 - 分布式训练任务日志查询,支持同时查询全部实例的日志 - 新增Cosmos-Transfer 2.5模型的训练模版,可一键发起模型训练 - 支持设置Pod长时间未成功调度的告警通知策略 - 服务调用信息优化,按模型类型提供调用示例 - 流量策略支持关闭平台提供的默认鉴权 - 在开发机使用Podman打镜像支持 - isaac RDP 可视化方案支持 linux 远程客户端 - 支持本地IDE连接百舸开发机实例 - 支持查看制作镜像失败的记录 - 支持在指定的节点创建开发机实例 - 预置镜像管理优化按模块显示等多项使用体验优化 |
| 2025-12 | - 新增基于 RDP协议 的 Isaas Sim 的可视化方案,相比已有的VNC 方案,性能和使用体验更优 - 新增 Isaac Lab 快速开始卡片,指导客户使用 Isaac lab 搭建遥操系统采集数据 - 支持在Nvidia GPU 单机部署推理加速的Wan2.1模型 - 支持Qwen3 系列模型在昆仑芯P800快速部署 - 自运维资源池支持节点管理,方便用户查看节点的资源信息; - 全托管资源池MIG队列支持监控; - 全托管资源池支持A100和A800的混合调度; - 监控整体优化升级; - 训练对接 BOS 对象存储的组件升级至 2.0, 相比 1.0 提供更稳定、更高性能的存储体验 - 训练任务列表支持定时刷新能力 - 新增Qwen2.5VL模型(P800芯片)、Wan2.1 训练模版,可一键发起模型训练 - 在线服务部署提供开源模型单机、分布式、PD分离部署模版,降低模型部署的复杂度 - 部署推理服务时支持部署推理调度器,指定调度策略 - pip、apt替换百度软件源 - 支持通过PFS持久化安装conda和pip包在模型训练时共享数据 - WebIDE加载速度提速 - 支持指定工作目录 - 支持WebIDE探活、保活 - 支持查看云磁盘/百舸云盘用量,仅扩容云磁盘/百舸云盘 - 支持非root用户登录WebIDE - 新增镜像管理模块,可视化展示平台预置镜像,优化预置镜像选择体验 |
| 2025-11 | - 新增RoboTwin2.0 工具的一键部署,快速构建具身开发环境 - Pelican-VL1.0多模态模型,内置开发教程指导客户快速启动开发 - 新增Qwen2.5VL、Qwen2.5模型的训练模版,可一键发起模型训练 - 支持广州地域使用百舸平台 - 全托管资源池能力增强:新增对队列中各类工作负载(包括开发机、训练任务、推理服务)的统一视图,提升资源使用透明度与可预期性。 - 遍历策略优化,支持超时重排,解决已入队大任务阻塞后续小任务入队调度问题 - 任务提交前,自动检查任务申请的资源是否满足当前队列的资源容量,给出可调度性提示 - TFJob类型的任务支持设置告警 - 任务Tensorboard日志存储,新增支持对接CFS文件存储 - 支持MIG虚拟化队列部署推理服务 - 服务列表支持导出 - 支持调用自定义域名的服务 - 支持批量管理服务实例 - 支持MIG虚拟化队列创建开发机 - WebIDE增加守护进程,自动恢复机制提升稳定性 - 支持免释放重启 |
| 2025-10 | - 一键部署isaac sim/lab开发环境支持可视化 - Qwen3-8B、Qwen3-14B模型支持使用P800加速芯片快速部署推理服务 - 全托管资源池的队列支持GPU虚拟化能力,用户开启GPU虚拟化后,可以申请0——1小数卡的任务,提升资源利用率。 - 训练模版新增具身模型RDT2训练模版,可一键发起模型训练 - 提交任务选择队列时,可直观查看队列资源使用情况,快速选择合适的队列进行任务提交。当前支持全托管资源池队列和自运维资源池物理队列 - 服务支持开启删除保护,防止在线服务被误操作删除 - 支持在全托管资源池虚拟化部署推理服务 - 支持为服务设置标签,用于服务筛选和统计 - 新增PhysicalAI系列具身智能公共数据集,支持在平台加速下载到自有BOS存储桶 |
| 2025-9 | - 支持DeepSeek-V3.2-Exp、Kimi-K2-Instruct-0905、Qwen3系列模型在线服务快速部署 - 支持Isaac Lab 2.2.0、Isaac Sim 5.0 开发环境新版本部署支持一键部署Label Studio标注平台开发环境,降低数据管理和数据标注成本 - 支持云盘配额管理 - 全托管资源池:新增队列规格限制策略——队列限制“单芯单可用区” - 全托管与自运维资源池、队列与节点:优化资源视图展示逻辑,综合纳入系统预留、组件占用及故障节点的资源核算,提升资源数据准确性与可观测性 - 训练模版新增具身模型pi0.5、OpenVLA的训练模版,可一键发起模型训练 - 训练任务存储,支持对接数据湖存储加速工具RapidFS,依靠对象存储BOS作为数据湖存储底座,加速模型的训练 - Pytorch分布式训练框架,新增自动注入NPROC_PER_NODE环境变量,用户可在容器内直接引用 - 日志查询页面,支持单次加载最多1000条日志,提升日志查询体验 - 训练任务名称最多支持255字符 - 支持流量策略功能,多个服务按比例分流,满足灰度发布、异构资源部署等场景需求 - 发布多角色服务功能,支持在多角色服务组中部署PD分离服务 - PD分离部署DeepSeek服务支持根据Kv Cache感知调度 - 实例新增“排队中”状态,服务列表可查看不同状态的实例数信息 - 推理监控支持查看服务Token调用量 - 大盘监控上线磁盘和共享存储监控指标,新增开发机资源相关环境变量,大大提升资源可观测能力,资源用量更清晰 - 全托管资源池开发机上线百舸云盘,服务更稳定,客户对资源的管理更统一 - 网关升级为云原生网关,统一托管,降低客户资源占用的同时,更加稳定、安全、可靠 - 提升BLB IP组配额至50,更多开发机能同时复用一个BLB,降低客户资源成本 - 开发机创建、更新支持设置环境变量和启动脚本,支持更多开发方式的同时,提升开发效率和开发体验 - 镜像管理支持镜像地址和拉取命令一键复制,镜像管理更高效 - 百舸平台IAM系统策略更新:新增CFS、RapidFS、BLS相关权限策略 - 提供具身智能、LLM等场景30+热门开源数据集快速下载 - 新增BOS类型与PFS L2类型数据集相互转储 - PFS L2类型数据集支持生命周期管理,支持按周期和路径条件自动化管理PFS中文件生命周期,提升PFS存储利用率 |
| 2025-08 | - 新增DeepSeek-V3.1快速部署 - 具身智能场景新增Isaac Lab、Isaac Sim快速开始应用在开发机一键启用 - 全托管资源池新增队列工作负载tab页面(仅支持训练任务) - 训练任务列表页面,支持展示任务运行期间GPU利用率指标,快速查看当前任务资源使用情况 - 训练任务名称支持重名 - 提供镜像是否支持RDMA的验证文档,可参考验证镜像是否支持RDMA - 训练任务支持挂载BOS对象存储类型的数据集 - 云原生网关升级,部署服务前需创建网关实例,网关实例支持多个服务复用 - 使用云原生网关部署的服务支持设置IP黑白名单、QPS限流 - 多个服务支持复用四层传输负载均衡BLB实例 - 部署服务支持查看所选队列的总卡数和当前剩余可用卡数 - 支持免CDS方案 - 支持共享CPU/内存 - 预置镜像全面支持RDMA - 支持ccr免密拉取、提前校验密码推送 |
| 2025-07 | - 新增面向具身智能、自动驾驶场景的8个快速开始应用,包括:模型SparseDrive/Uniad、工具Maniskill/LeRobot等 - 新增ERNIE-4.5系列0.3B/0.3B-Base/21B-A3B/21B-A3B-Base模型、ERNIE-4.5-VL系列28B-A3B、28B-A3B-Base模型快速部署 - Qwen2.5 系列大语言模型、 Qwen2.5 vl 模型在昆仑芯资源中快速部署 - 全托管资源池支持队列节点转让 - 自运维资源池队列开启GPU虚拟化后支持创建子队列 - 训练任务支持挂载BOS类型的数据集 - 部署在线服务时支持CCR免密登录 - 在线服务日志持久化默认前60天免费 - 在线服务支持查看文心系列模型的推理性能和流量监控 - 支持CDS扩容 - 预置镜像新增CUDA最新版本 - webIDE支持tensorboard profiler能力 - 10余项细节体验优化 - 自运维资源池:队列管理员&队列开发成员对于节点管理、全局配置、资源池拓扑、监控、事件不可见;队列管理只能看到自己所在的队列 - 全托管资源池:队列管理员&队列开发成员对于节点管理、全局配置、监控、变更记录不可见。 |
| 2025-06 | - 自运维资源池:节点批量操作(封锁、解除封锁、移出集群)、物理队列筛选 - 全托管资源池:队列批量移出节点/封锁节点、节点管理筛选优化、列表字段补全(可用区/ID)、支持编辑【备注】字段;全局配置:CCR免密镜像、推理服务公网访问开关、开发机全局配置 |
| 2025-05 | |
| 2025-04 | |
| 2025-03 | |
| 2025-02 | |
| 2025-01 | |
| 2024-12 | |
| 2024-11 | |
| 2024-10 | |
| 2024-09 | |
| 2024-08 | |
| 2024-07 | |
| 2024-06 | |
| 2024-05 | |
| 2024-04 | |
| 2024-03 | |
| 2024-02 | |
| 2024-01 | |
| 2023-12 | |
| 2023-11 | |
| 2023-10 | |
| 2023-09 | |
| 2023-08 | |
| 2023-07 | |
| 2023-06 | |
| 2023-05 |
评价此篇文章
