百度智能云千帆大模型平台
一站式企业级大模型平台,提供先进的生成式AI生产及应用全流程开发工具链
百度智能云千帆大模型平台现已正式面向企业和个人开放使用。
立即使用
使用文档
常见概念、使用指导
定价说明
定价、计费方式、计量说明
千帆社区
大模型开发学习、交流社区
丰富的产品功能
多样的交付方案与服务
公有云
适合需要快速获取定制大模型服务的企业
公共资源服务推理,超高性价比
私有资源服务托管,保障请求并发
7 × 24 小时工单支持,在线技术服务
私有化部署
适合对数据私密性和控制性要求较高的企业
纯软件平台交付,灵活组合部署
软硬一体交付,高可用保证
全面领先的平台功能
覆盖大模型全生命周期
更全面
更全面
提供数据标注,模型训练与评估,推理服务与应用集成的全面功能服务
训练与推理性能大幅提升
更高效
更高效
MLPerf榜单训练性能世界领先,千亿模型分布式并行训练加速能力和算力利用率大幅提升
快速应用编排与插件集成
更开放
更开放
预置百度文心大模型与第三方大模型,支持插件与应用灵活编排,助力大模型多场景落地应用
自带敏感词过滤
更安全
更安全
完善的鉴权与流控安全机制,自带问答内容审核与敏感词过滤,多重安全机制护航企业应用
内置丰富优质的大模型能力
StableLM-Alpha-7B
模型由StabilityAI开源,
了解更多
StabilityAI (开源)
文本生成
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
支持部署调用
快速部署
API文档
ERNIE-Bot
百度文心
文本生成
百度⾃⾏研发的⼤语⾔模型,覆盖海量中⽂数据,具有更强的对话问答、内容创作⽣成等能⼒。
百度⾃⾏研发的⼤语⾔模型,覆盖海量中⽂数据,具有更强的对话问答、内容创作⽣成等能⼒。
支持部署调用
在线测试
快速部署
API文档
ERNIE-Bot-turbo
百度文心
文本生成
百度自行研发的高效语言模型,基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。
百度自行研发的高效语言模型,基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。
支持训练调优与部署调用
在线测试
快速部署
API文档
Embedding-V1
百度文心
文本表示
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
支持部署调用
API文档
BLOOMZ-7B
模型由BigScience开源,
了解更多
BigScience (开源)
文本生成
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
支持训练调优与部署调用
在线测试
快速部署
API文档
Qianfan-BLOOMZ-7B-compressed
模型基于BigScience开源模型增强,
了解更多
百度千帆 (增强)
BigScience (开源)
文本生成
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
支持部署调用
在线测试
快速部署
API文档
Llama-2-7b-chat
模型由Meta开源,
了解更多
Meta (开源)
文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
支持部署调用
在线测试
快速部署
API文档
Llama-2-13b-chat
模型由Meta开源,
了解更多
Meta (开源)
文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。
支持部署调用
在线测试
快速部署
API文档
Llama-2-70b-chat
模型由Meta开源,
了解更多
Meta (开源)
文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果的原生开源版本。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果的原生开源版本。
支持部署调用
在线测试
快速部署
API文档
Qianfan-Chinese-Llama-2-7B
模型基于Meta开源模型增强,
了解更多
百度千帆 (增强)
BigScience (开源)
文本生成
千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
支持部署调用
在线测试
快速部署
API文档
Linly-Chinese-LLaMA-2-7B
模型由深圳大学开源,
了解更多
深圳大学(开源)
文本生成
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 7b参数版本。
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 7b参数版本。
支持部署调用
快速部署
API文档
Linly-Chinese-LLaMA-2-13B
模型由深圳大学开源,
了解更多
深圳大学(开源)
文本生成
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 13b参数版本。
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 13b参数版本。
支持部署调用
快速部署
API文档
ChatGLM2-6B
模型由智谱AI开源,
了解更多
智谱AI (开源)
文本生成
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
支持部署调用
快速部署
API文档
ChatGLM2-6B-32K
模型由智谱AI开源,
了解更多
智谱AI (开源)
文本生成
在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
支持部署调用
在线测试
快速部署
API文档
ChatGLM2-6B-INT4
模型由智谱AI开源,
了解更多
智谱AI (开源)
文本生成
在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
支持部署调用
快速部署
API文档
VisualGLM-6B
模型由智谱AI开源,
了解更多
智谱AI (开源)
图像生成
智谱AI与清华KEG实验室发布的多模态对话语言模型,支持图像、中文和英文。语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。
智谱AI与清华KEG实验室发布的多模态对话语言模型,支持图像、中文和英文。语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。
支持部署调用
申请体验
API文档
Stable-Diffusion-XL
模型由StabilityAI开源,
了解更多
Stability AI (开源)
图像生成
业内知名的跨模态大模型,由StabilityAI研发并开源,有着业内领先的图像生成能力。
业内知名的跨模态大模型,由StabilityAI研发并开源,有着业内领先的图像生成能力。
支持部署调用
申请体验
API文档
Falcon-7B
模型由OpenBuddy开源,
了解更多
OpenBuddy (开源)
文本生成
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
支持部署调用
快速部署
API文档
Falcon-40B-Instruct
模型由TII开源,
了解更多
TII (开源)
文本生成
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
支持部署调用
快速部署
API文档
Falcon-180B-Chat
模型由TII开源,
了解更多
TII (开源)
文本生成
由TII研发的仅使用解码器的180B模型,在Ultrachat, Platypus和Airoboros的混合数据集上进行微调,具备优异的推理效果。
由TII研发的仅使用解码器的180B模型,在Ultrachat, Platypus和Airoboros的混合数据集上进行微调,具备优异的推理效果。
支持部署调用
申请体验
API文档
AquilaChat-7B
模型由智源研究院开源,
了解更多
智源研究院 (开源)
文本生成
由智源研究院研发,基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
由智源研究院研发,基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
支持部署调用
在线测试
快速部署
API文档
AquilaCode-multi
模型由智源研究院开源,
了解更多
智源研究院 (开源)
代码生成
由智源研究院研发,基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
由智源研究院研发,基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
支持部署调用
快速部署
API文档
bge-large-zh
模型由智源研究院开源,
了解更多
智源研究院 (开源)
文本表示
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
支持部署调用
API文档
bge-large-en
模型由智源研究院开源,
了解更多
智源研究院 (开源)
文本表示
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
支持部署调用
API文档
XVERSE-13B
模型由元象科技开源,
了解更多
元象科技 (开源)
文本生成
由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。
由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。
支持部署调用
申请体验
API文档
RWKV-4-World
模型由RWKV(BlinkDL)开源,
了解更多
RWKV (开源)
文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-World在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-World在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。
支持部署调用
快速部署
API文档
RWKV-4-pile-14B
模型由RWKV(BlinkDL)开源,
了解更多
RWKV (开源)
文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-pile-14B为在 Pile 数据集上训练的 L40-D5120 因果语言模型。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-pile-14B为在 Pile 数据集上训练的 L40-D5120 因果语言模型。
支持部署调用
快速部署
API文档
RWKV-5-World
模型由RWKV(BlinkDL)开源,
了解更多
RWKV (开源)
文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
支持部署调用
申请体验
API文档
RWKV-Raven-14B
模型由RWKV开源,
了解更多
RWKV (开源)
文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-Raven-14B为在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调的Chat版本。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-Raven-14B为在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调的Chat版本。
支持部署调用
快速部署
API文档
OpenLLaMA-7B
模型由OpenBuddy开源,
了解更多
OpenBuddy (开源)
文本生成
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
支持部署调用
快速部署
API文档
Dolly-12B
模型由Databricks开源,
了解更多
Databricks (开源)
文本生成
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
支持部署调用
快速部署
API文档
MPT-7B-Instruct
模型由MosaicML开源,
了解更多
MosaicML (开源)
文本生成
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
支持部署调用
快速部署
API文档
MPT-30B-instruct
模型由MosaicML开源,
了解更多
MosaicML (开源)
文本生成
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
支持部署调用
快速部署
API文档
Flan-UL2
模型由Google开源,
了解更多
Google (开源)
文本生成
由Google研发并开源,基于T5架构的tranformer模型,使用UL2模型相同的配置,在“Flan”数据集上进行微调,在少样本上下文学习中具有优秀的表现。
由Google研发并开源,基于T5架构的tranformer模型,使用UL2模型相同的配置,在“Flan”数据集上进行微调,在少样本上下文学习中具有优秀的表现。
支持部署调用
申请体验
API文档
Cerebras-GPT-13B
模型由Cerebras开源,
了解更多
Cerebras (开源)
文本生成
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
支持部署调用
快速部署
API文档
Cerebras-GPT-6.7B
模型由Cerebras开源,
了解更多
Cerebras (开源)
文本生成
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的6.7B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的6.7B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
支持部署调用
申请体验
API文档
Pythia-12B
模型由EleutherAI开源,
了解更多
EleutherAI (开源)
文本生成
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
支持部署调用
快速部署
API文档
Pythia-6.9B
模型由EleutherAI开源,
了解更多
EleutherAI (开源)
文本生成
由EleutherAI研发并开源,在Pile数据集上训练的6.9B参数transformer语言模型。
由EleutherAI研发并开源,在Pile数据集上训练的6.9B参数transformer语言模型。
支持部署调用
申请体验
API文档
GPT-J-6B
模型由EleutherAI开源,
了解更多
EleutherAI (开源)
文本生成
EleutherAI开发的6B参数transformer模型,基于 Mesh Transformer JAX 训练。
EleutherAI开发的6B参数transformer模型,基于 Mesh Transformer JAX 训练。
支持部署调用
快速部署
API文档
GPT-NeoX-20B
模型由EleutherAI开源,
了解更多
EleutherAI (开源)
文本生成
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
支持部署调用
快速部署
API文档
OA-Pythia-12B-SFT-4
模型由OpenAssistant开源,
了解更多
OpenAssistant (开源)
文本生成
基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在 https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在 https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
支持部署调用
快速部署
API文档
GPT4All-J
模型由Nomic AI开源,
了解更多
Nomic AI (开源)
文本生成
由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
支持部署调用
快速部署
API文档
StarCoder
模型由BigCode开源,
了解更多
BigCode(开源)
代码生成
由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
支持部署调用
快速部署
API文档
StableLM-Alpha-7B
模型由StabilityAI开源,
了解更多
StabilityAI (开源)
文本生成
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
支持部署调用
快速部署
API文档
ERNIE-Bot
百度文心
文本生成
百度⾃⾏研发的⼤语⾔模型,覆盖海量中⽂数据,具有更强的对话问答、内容创作⽣成等能⼒。
百度⾃⾏研发的⼤语⾔模型,覆盖海量中⽂数据,具有更强的对话问答、内容创作⽣成等能⼒。
支持部署调用
在线测试
快速部署
API文档
ERNIE-Bot-turbo
百度文心
文本生成
百度自行研发的高效语言模型,基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。
百度自行研发的高效语言模型,基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。
支持训练调优与部署调用
在线测试
快速部署
API文档
Embedding-V1
百度文心
文本表示
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
支持部署调用
API文档
BLOOMZ-7B
模型由BigScience开源,
了解更多
BigScience (开源)
文本生成
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
支持训练调优与部署调用
在线测试
快速部署
API文档
Qianfan-BLOOMZ-7B-compressed
模型基于BigScience开源模型增强,
了解更多
百度千帆 (增强)
BigScience (开源)
文本生成
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
支持部署调用
在线测试
快速部署
API文档
Llama-2-7b-chat
模型由Meta开源,
了解更多
Meta (开源)
文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
支持部署调用
在线测试
快速部署
API文档
预置典型的应用范式
域内知识检索
通过输入关键词或问题,从包含大量专业领域知识的数据库或文档中检索相关信息,并生成准确的回答或相关信息。
立即体验
客服问答
理解意图并给出回答
文档分析
自动阅读和理解文档内容
数据分析
提取有价值的信息,辅助企业决策
办公助手
提供管理日程安排、会议预约等
代码助手
支持代码编写、调试和优化建议
网页浏览
分析网页内容生成个性化推荐
创意营销
提供创意想法和内容建议
商品导购
根据用户要求找到符合偏好的产品
教育问答
为学生提供个性化学习和教育支持
文档校对
识别并纠正常见的语言错误
凝聚文心大模型最佳实践
技术领先
知识增强大模型,统一范式支持多类下游任务
先进并行策略支撑大模型训练、压缩与部署
可控可信的语言理解和生成能力
全场景覆盖
支持对话互动,自由问答,文案创作等能力
覆盖能源、金融、航天、工业、媒体等领域
低门槛使用便捷
一行代码调用服务
一键自动模型微调
少量数据完成多场景AI应用落地
真实可落地
提供企业级一站式客户服务
打通芯片+平台+模型+应用的四层架构
联合多家合作伙伴实现端到端应用落地
使用方式
使用千帆推理服务
在线快速测试服务效果,便捷调用智能云推理服务
创建应用获取密钥
调用推理服务进行业务集成
流控面板监控输入输出流量,保障服务稳定
使用推理服务
大模型Post-pretrain
一站式模型定制,全流程可视化操作
上传泛文本无标注数据集
根据页面提示完成模型训练
完成SFT,并一键部署至百度云在线服务
申请体验
定制微调大模型
一站式模型定制,全流程可视化操作
上传已标注的训练数据
根据页面提示启动模型训练
完成模型训练,一键部署至百度云在线服务
开始训练
插件集成
支持三方插件集成。快速落地应用
选择大模型服务
按照业务需求选择并配置业务插件
完成插件集成调试,一键部署集成插件应用服务
插件编排
广泛成熟的实践落地,构建下一代智能应用
相关产品
EasyDL零门槛AI开发平台
面向AI应用开发者,基于文心大模型零代码定制文本类与图像类模型,可在模型训练页面选择对应的判别式大模型算法进行模型训练
BML全功能AI开发平台
面向AI算法开发者,通过交互式开发环境使用大模型开发套件,使用内置的文心大模型完成一站式AI开发。可在预制模型调参中选择对应判别式大模型算法进行模型训练
开始体验定制大模型
立即使用