d3jsarc  内容精选
  • aiak-inference-llm - 百度百舸 · AI计算平台 | 百度智能云文档

    aiak-inference-llm AIAK-LLM 是百舸异构计算平台的核心组件之一,专为大模型推理加速打造的一站式高性能推理引擎。它深度集成百度自研软硬件技术栈,旨在解决大模型在高并发、低延迟、高吞吐场景下的部署效率与成本难题。 是百度自研深度定制版,支持NVIDIA、昆仑芯等多种算力。支持 Hugging Face 生态模型格式,可零代码或少量配置完成模型迁移与加速

    查看更多>>

  • 功能发布记录 - 百度百舸 · AI计算平台 | 百度智能云文档

    2024-05 新增AI加速套件,整合AIAK训练、推理加速镜像及训推加速过程中所需的一系列工具,轻松一键获取。 推理服务支持实例反亲和部署,避免单节点故障导致服务不可用。 推理服务实例弹性伸缩,在业务负载出现波峰或波谷时,可以根据业务流量自动调整实例数量,实现动态管理线上服务的计算资源,从而保障业务平稳运行并提高资源利用率。 推理服务支持设置防抢占策略,开启后实例不会被训练任务抢占。

    查看更多>>

d3jsarc  更多内容