接口概览
更新时间:2025-02-27
千帆ModelBuilder提供了丰富的推理服务API能力。且平台提供了不同版本内容,供开发者使用。
对话Chat V2
为提升使用体验,平台新增支持V2版本模型服务API,完全兼容OpenAI标准(包含身份认证、接口协议)。V2版本接口调用文档可以查看对话Chat V2,支持以下模型。
模型名称 | 模型版本 | 介绍 |
---|---|---|
ERNIE 4.0 | ERNIE-4.0-8K | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。 |
ERNIE 4.0 | ERNIE-4.0-8K-Preview | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 |
ERNIE 4.0 | ERNIE-4.0-8K-Latest | ERNIE-4.0-8K-Latest相比ERNIE-4.0-8K能力全面提升,其中角色扮演能力和指令遵循能力提升较大;相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。 |
ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K是模型的一个版本。 |
ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K-Preview | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Preview是模型的一个版本。 |
ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-8K-Latest | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K-Latest是模型的一个版本。 |
ERNIE 4.0 Turbo | ERNIE-4.0-Turbo-128K | ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-128K是模型的一个版本。 |
ERNIE 3.5 | ERNIE-3.5-8K | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 |
ERNIE 3.5 | ERNIE-3.5-8K-Preview | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。此版本为ERNIE-3.5-8K模型的预览版本,指向最新版本模型。 |
ERNIE 3.5 | ERNIE-3.5-128K | ERNIE 3.5是百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-3.5-128K是模型的一个版本,2024年5月16日发布,提升上下文窗口长度至128K。 |
ERNIE Speed | ERNIE-Speed-Pro-128K | 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年8月30日发布的初始版本,支持128K上下文长度,效果比ERNIE-Speed-128K更优。 |
ERNIE Speed | ERNIE-Speed-8K | 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年2月5日发布的初始版本,支持8K上下文长度。 |
ERNIE Speed | ERNIE-Speed-128K | 百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。2024年3月14日发布版本,提升上下文窗口长度至128K。 |
ERNIE Character | ERNIE-Character-8K | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 |
ERNIE Character | ERNIE-Character-Fiction-8K | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 |
ERNIE Lite | ERNIE-Lite-8K | 百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。 |
ERNIE Lite | ERNIE-Lite-Pro-128K | 百度自研的轻量级大语言模型,效果比ERNIE Lite更优,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。该版本优化模型效果,支持128K上下文长度,效果比ERNIE-Lite-128K更优。 |
ERNIE Tiny | ERNIE-Tiny-8K | 百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。 |
ERNIE-Novel-8K | ERNIE-Novel-8K | 百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。2024年8月2日首次发布的版本,百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。 |
DeepSeek-V3 | DeepSeek-V3 | 由杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,在百科知识、数学推理等多项任务上优势突出,评测成绩在主流榜单中位列开源模型榜首。 |
DeepSeek-R1 | DeepSeek-R1 | 由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qwen-32B | 基于 DeepSeek-R1 生成的样本数据对 Qwen2.5-32B 模型进行微调得到的新模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qwen-14B | 基于 DeepSeek-R1 生成的样本数据对 Qwen2.5-14B 模型进行微调得到的新模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qwen-7B | DeepSeek-R1-Distill-Qwen-7B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qwen-1.5B | DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Llama-70B | DeepSeek-R1-Distill-Llama-70B是DeepSeek-R1基于Llama3.3-70B-Instruct的蒸馏模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Llama-8B | DeepSeek-R1-Distill-Llama-8B是DeepSeek-R1基于Llama3.1-8B-Base的蒸馏模型。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qianfan-Llama-70B | 本模型是由千帆大模型研发团队以 Llama3_70B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。 |
DeepSeek-R1-Distill | DeepSeek-R1-Distill-Qianfan-Llama-8B | 本模型是由千帆大模型研发团队以 Llama3_8B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。 |
向量Embeddings V2
V2版本接口调用文档可以查看向量Embeddings V2,支持以下模型。
大模型 | 介绍 |
---|---|
tao-8k | 是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 |
Embedding-V1 | Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。 |
bge-large-zh | 由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 |
bge-large-en | 由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 |
重排序Reranker V2
V2版本接口调用文档可以查看重排序Reranker V2,支持以下模型。
大模型 | 介绍 |
---|---|
bce-reranker-base_v1 | 由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。 |
图像生成
V2版本接口调用文档可以查看图像生成文档,支持以下模型。
大模型 | 介绍 |
---|---|
ERNIE-iRAG-1.0 | 百度自研的iRAG(image based RAG),检索增强的文生图技术,将百度搜索的亿级图片资源跟强大的基础模型能力相结合,就可以生成各种超真实的图片,整体效果远远超过文生图原生系统,去掉了AI味儿,而且成本很低。iRAG具备无幻觉、超真实、立等可取等特点。 |
图像理解
V2版本接口调用文档请查看图像理解文档,支持以下模型。
大模型 | 介绍 |
---|---|
DeepSeek-VL2 | DeepSeek-VL2是基于 DeepSeekMoE-27B 构建,总激活参数为 45 亿,序列长度为 4096。 |
DeepSeek-VL2-Small | DeepSeek-VL2-Small是基于 DeepSeekMoE-16B 构建,总激活参数为 28 亿,序列长度为 4096。 |
阅读助手插件
API名称 | 介绍 |
---|---|
阅读助手插件 | 主要进行文档分析、网页解析,支持长传文档、网页,对其内容做摘要、分析、整理等任务。常见场景有论文综述、问题分析、论文精读、数据整理、会议纪要整理、文档总结、网页新闻精度等。 |