• 产品架构
  • 产品功能
  • 大模型服务
  • 应用范式
  • 应用场景
  • 使用方式
  • 产品优势
  • 服务模式
  • 支持交流
  • 相关产品
丰富的产品功能
全面领先的平台功能
覆盖大模型全生命周期
更全面更全面
提供数据标注,模型训练与评估,推理服务与应用集成的全面功能服务
训练与推理性能大幅提升
更高效更高效
MLPerf榜单训练性能世界领先,千亿模型分布式并行训练加速能力和算力利用率大幅提升
快速应用编排与插件集成
更开放更开放
预置百度文心大模型与第三方大模型,支持插件与应用灵活编排,助力大模型多场景落地应用
自带敏感词过滤
更安全更安全
完善的鉴权与流控安全机制,自带问答内容审核与敏感词过滤,多重安全机制护航企业应用
内置丰富优质的大模型能力

StableLM-Alpha-7B
模型由StabilityAI开源, 了解更多

StabilityAI (开源)文本生成
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
支持部署调用

ERNIE 4.0

百度文心文本生成
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
支持部署调用

ERNIE 3.5

百度文心文本生成
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
支持部署调用

ERNIE Speed

百度文心文本生成
百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
支持训练调优与部署调用

ERNIE Lite

百度文心文本生成
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
支持训练调优与部署调用

ERNIE Tiny

百度文心文本生成
百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。
百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。
支持训练调优与部署调用

ERNIE Speed-AppBuilder

百度千帆文本生成
千帆AppBuilder专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用
千帆AppBuilder专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用
支持部署调用

文心一格

百度文心图像生成
百度自主研发的跨模态图像生成大模型,创新知识增强的混合专家建模,是全球首个知识增强的AI作画大模型,在语义控制、图像细节、中文理解等方面优势显著,已作为基础模型应用在文心一格等相关业务上。
百度自主研发的跨模态图像生成大模型,创新知识增强的混合专家建模,是全球首个知识增强的AI作画大模型,在语义控制、图像细节、中文理解等方面优势显著,已作为基础模型应用在文心一格等相关业务上。
支持训练调优与部署调用

Stable-Diffusion-XL
模型由StabilityAI开源, 了解更多

Stability AI (开源)图像生成
业内知名的跨模态大模型,由StabilityAI研发并开源,有着业内领先的图像生成能力。
业内知名的跨模态大模型,由StabilityAI研发并开源,有着业内领先的图像生成能力。
支持训练调优与部署调用

Fuyu-8B
模型由Adept AI开源, 了解更多

Adept AI (开源)图像理解
Fuyu-8B是由Adept AI训练的多模态图像理解模型,可以支持多样的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。
Fuyu-8B是由Adept AI训练的多模态图像理解模型,可以支持多样的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。
支持部署调用

Gemma-2B-it
模型由Google开源, 了解更多

Google (开源)文本生成
Gemma是Google开发的一系列轻量级、尖端的开源文本生成模型,采用与Gemini模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
Gemma是Google开发的一系列轻量级、尖端的开源文本生成模型,采用与Gemini模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
支持部署调用

Gemma-7B-it
模型由Google开源, 了解更多

Google (开源)文本生成
Gemma是Google开发的一系列轻量级、尖端的开源文本生成模型,采用与Gemini模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
Gemma是Google开发的一系列轻量级、尖端的开源文本生成模型,采用与Gemini模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
支持部署调用

Yi-34B
模型由零一万物开源, 了解更多

零一万物 (开源)文本生成
Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。
Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。
支持部署调用

Yi-34B-Chat
模型由零一万物开源, 了解更多

零一万物 (开源)文本生成
Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现,该版本为支持对话的chat版本。
Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现,该版本为支持对话的chat版本。
支持部署调用

Embedding-V1

百度文心文本表示
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
支持部署调用

BLOOMZ-7B
模型由BigScience开源, 了解更多

BigScience (开源)文本生成
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
支持训练调优与部署调用

Qianfan-BLOOMZ-7B-compressed
模型基于BigScience开源模型增强, 了解更多

百度千帆 (增强)BigScience (开源)文本生成
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
支持部署调用

Mixtral-8x7B-Instruct
模型由Mistral AI开源, 了解更多

Mistral AI (开源)文本生成
由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。
由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。
支持部署调用

Mistral-7B-Instruct
模型由Mistral AI开源, 了解更多

Mistral AI(开源)文本生成
由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。该版本为Mistral-7B-v0.1基础上的微调版本。
由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。该版本为Mistral-7B-v0.1基础上的微调版本。
支持部署调用

Llama-2-7b-chat
模型由Meta开源, 了解更多

Meta (开源)文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
支持部署调用

Llama-2-13b-chat
模型由Meta开源, 了解更多

Meta (开源)文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。
支持部署调用

Llama-2-70b-chat
模型由Meta开源, 了解更多

Meta (开源)文本生成
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果的原生开源版本。
由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果的原生开源版本。
支持部署调用

Qianfan-Chinese-Llama-2-7B
模型基于Meta开源模型增强, 了解更多

百度千帆 (增强)Meta (开源)文本生成
千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
支持训练调优与部署调用

Qianfan-Chinese-Llama-2-7B-32K
模型基于Meta开源模型增强, 了解更多

百度千帆 (增强)Meta (开源)文本生成
千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文
千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文
支持训练调优与部署调用

Qianfan-Chinese-Llama-2-13B
模型基于Meta开源模型增强, 了解更多

百度千帆 (增强)Meta (开源)文本生成
千帆团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
千帆团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
支持训练调优与部署调用

Qianfan-Llama-2-70B-compressed
模型基于Meta开源模型增强, 了解更多

百度千帆 (增强)Meta (开源)文本生成
Qianfan-Llama2-70B-compressed是千帆团队在Llama2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。
Qianfan-Llama2-70B-compressed是千帆团队在Llama2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。
支持部署调用

Linly-Chinese-LLaMA-2-7B
模型由深圳大学开源, 了解更多

深圳大学(开源)文本生成
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 7b参数版本。
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 7b参数版本。
支持部署调用

Linly-Chinese-LLaMA-2-13B
模型由深圳大学开源, 了解更多

深圳大学(开源)文本生成
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 13b参数版本。
由深圳大学CV研究所Linly项目进行中文增强训练的Llama-2 13b参数版本。
支持部署调用

ChatGLM3-6B
模型由智谱AI开源, 了解更多

智谱AI (开源)文本生成
智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
支持部署调用

ChatGLM2-6B
模型由智谱AI开源, 了解更多

智谱AI (开源)文本生成
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
支持训练调优与部署调用

ChatGLM2-6B-32K
模型由智谱AI开源, 了解更多

智谱AI (开源)文本生成
在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
支持部署调用

ChatGLM2-6B-INT4
模型由智谱AI开源, 了解更多

智谱AI (开源)文本生成
在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
支持部署调用

Baichuan2-7B-Chat
模型由百川智能开源, 了解更多

百川智能 (开源)文本生成
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为70亿参数规模的Chat版本。
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为70亿参数规模的Chat版本。
支持训练调优与部署调用

Baichuan2-13B-Chat
模型由百川智能开源, 了解更多

百川智能 (开源)文本生成
Baichuan 2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为130亿参数规模的Chat版本
Baichuan 2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。该版本为130亿参数规模的Chat版本
支持训练调优与部署调用

XVERSE-13B-Chat
模型由元象科技开源, 了解更多

元象科技 (开源)文本生成
由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。该版本为130亿参数规模的Chat版本。
由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。该版本为130亿参数规模的Chat版本。
支持部署调用

SQLCoder-7B
模型由智谱AI开源, 了解更多

Defog (开源)代码生成
由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。
由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。
支持训练调优与部署调用

CodeLlama-7b-Instruct
模型由Meta开源, 了解更多

Meta (开源)代码生成
Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。
Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。
支持部署调用

XuanYuan-70B-Chat-4bit
模型由度小满开源, 了解更多

度小满 (开源)文本生成
由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。
由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。
支持部署调用

DISC-MedLLM
模型由复旦大学数据智能与社会计算实验室开源, 了解更多

复旦大学 (开源)文本生成
DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。
DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。
支持部署调用

ChatLaw

壹万卷 (闭源)文本生成
由壹万卷公司与北大深研院研发的法律行业大模型,在开源版本基础上进行了进一步架构升级,融入了法律意图识别、法律关键词提取、CoT推理增强等模块,实现了效果提升,以满足法律问答、法条检索等应用需求。
由壹万卷公司与北大深研院研发的法律行业大模型,在开源版本基础上进行了进一步架构升级,融入了法律意图识别、法律关键词提取、CoT推理增强等模块,实现了效果提升,以满足法律问答、法条检索等应用需求。
支持部署调用

Falcon-7B
模型由OpenBuddy开源, 了解更多

OpenBuddy (开源)文本生成
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
支持部署调用

Falcon-40B-Instruct
模型由TII开源, 了解更多

TII (开源)文本生成
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
支持部署调用

AquilaChat-7B
模型由智源研究院开源, 了解更多

智源研究院 (开源)文本生成
由智源研究院研发,基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
由智源研究院研发,基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
支持部署调用

AquilaCode-multi
模型由智源研究院开源, 了解更多

智源研究院 (开源)代码生成
由智源研究院研发,基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
由智源研究院研发,基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
支持部署调用

bge-large-zh
模型由智源研究院开源, 了解更多

智源研究院 (开源)文本表示
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
支持部署调用

bge-large-en
模型由智源研究院开源, 了解更多

智源研究院 (开源)文本表示
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
支持部署调用

tao-8k
模型由amu开源, 了解更多

amu (开源)文本表示
tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。
tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。
支持部署调用

RWKV-4-World
模型由RWKV(BlinkDL)开源, 了解更多

RWKV (开源)文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-World在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-World在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。
支持部署调用

RWKV-4-pile-14B
模型由RWKV(BlinkDL)开源, 了解更多

RWKV (开源)文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-pile-14B为在 Pile 数据集上训练的 L40-D5120 因果语言模型。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-4-pile-14B为在 Pile 数据集上训练的 L40-D5120 因果语言模型。
支持部署调用

RWKV-Raven-14B
模型由RWKV开源, 了解更多

RWKV (开源)文本生成
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-Raven-14B为在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调的Chat版本。
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。RWKV-Raven-14B为在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调的Chat版本。
支持部署调用

OpenLLaMA-7B
模型由OpenBuddy开源, 了解更多

OpenBuddy (开源)文本生成
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
支持部署调用

Dolly-12B
模型由Databricks开源, 了解更多

Databricks (开源)文本生成
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
支持部署调用

MPT-7B-Instruct
模型由MosaicML开源, 了解更多

MosaicML (开源)文本生成
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
支持部署调用

MPT-30B-instruct
模型由MosaicML开源, 了解更多

MosaicML (开源)文本生成
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
支持部署调用

Cerebras-GPT-13B
模型由Cerebras开源, 了解更多

Cerebras (开源)文本生成
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
支持部署调用

Pythia-12B
模型由EleutherAI开源, 了解更多

EleutherAI (开源)文本生成
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
支持部署调用

GPT-J-6B
模型由EleutherAI开源, 了解更多

EleutherAI (开源)文本生成
EleutherAI开发的6B参数transformer模型,基于 Mesh Transformer JAX 训练。
EleutherAI开发的6B参数transformer模型,基于 Mesh Transformer JAX 训练。
支持部署调用

GPT-NeoX-20B
模型由EleutherAI开源, 了解更多

EleutherAI (开源)文本生成
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
支持部署调用

OA-Pythia-12B-SFT-4
模型由OpenAssistant开源, 了解更多

OpenAssistant (开源)文本生成
基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在 https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在 https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
支持部署调用

GPT4All-J
模型由Nomic AI开源, 了解更多

Nomic AI (开源)文本生成
由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
支持部署调用

StarCoder
模型由BigCode开源, 了解更多

BigCode(开源)代码生成
由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
支持部署调用

StableLM-Alpha-7B
模型由StabilityAI开源, 了解更多

StabilityAI (开源)文本生成
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
支持部署调用

ERNIE 4.0

百度文心文本生成
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
支持部署调用

ERNIE 3.5

百度文心文本生成
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
支持部署调用

ERNIE Speed

百度文心文本生成
百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
支持训练调优与部署调用

ERNIE Lite

百度文心文本生成
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
支持训练调优与部署调用

ERNIE Tiny

百度文心文本生成
百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。
百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。
支持训练调优与部署调用

ERNIE Speed-AppBuilder

百度千帆文本生成
千帆AppBuilder专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用
千帆AppBuilder专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用
支持部署调用
预置典型的应用范式
域内知识检索
通过输入关键词或问题,从包含大量专业领域知识的数据库或文档中检索相关信息,并生成准确的回答或相关信息。
立即体验
客服问答
理解意图并给出回答
文档分析
自动阅读和理解文档内容
数据分析
提取有价值的信息,辅助企业决策
办公助手
提供管理日程安排、会议预约等
代码助手
支持代码编写、调试和优化建议
网页浏览
分析网页内容生成个性化推荐
创意营销
提供创意想法和内容建议
商品导购
根据用户要求找到符合偏好的产品
教育问答
为学生提供个性化学习和教育支持
文档校对
识别并纠正常见的语言错误
广泛成熟的实践落地,构建下一代智能应用
电商
短视频
教育
游戏
医疗
金融

电商

大模型通过分析消费行为,为电商平台精准推荐商品,优化用户体验,提升销售,降低成本。

立即体验
  • 用户偏好洞察,智能搜索推荐

    提高用户购买率与满意度

    立即体验
  • 电商智能客服,咨询秒级响应

    处理常见问题,减轻客服负担

    立即体验
  • 推广图文生成,销售数据分析

    电商运营降本增效,精准决策

    立即体验

短视频

大模型辅助生成图文内容,启迪创意灵感,提高创作效率。

立即体验
  • 智能视频制作,创意素材生成

    视频批量处理,节省时间成本

    立即体验
  • 用户数据多维分析,精准决策

    精准解析用户兴趣与情感倾向

    立即体验
  • 激发灵感,启迪内容创作

    助力视频脚本、角色及拍摄创新

    立即体验

教育

大模型辅助个性化教育发展规划,推动精准决策,提升教学效果。

立即体验
  • 学习行为数据分析,因材施教

    定制教育方案,提升学习效果

    立即体验
  • 教学数据分析,专业发展指导

    支持教育决策,提升教学水平

    立即体验
  • 海量例文储备,专业写作指导

    批改学生作文,针对性提分

    立即体验

游戏

大模型辅助游戏设计、玩法,优化游戏体验,提升用户日活。

立即体验
  • 智能游戏设计,3D原画生成

    生成设计草图,提升设计效率

    立即体验
  • 游戏开发效率提升之道

    大模型助力战略策划,提质增效

    立即体验
  • 游戏体验优化,提升活跃度

    分析测试与反馈数据,提高日活

    立即体验

医疗

大模型辅助医疗诊断并提供治疗建议,提供更准确、全面的疾病检测与预测。

立即体验
  • 医学图像处理,提升质量与清晰度

    图像数据分析,图像效果增强

    立即体验
  • 辅助医疗诊断,提升治疗效果

    病历文献分析,提高诊断准确率

    立即体验
  • 智能健康管理新体验

    习惯记录分析,健康管理指导

    立即体验

金融

大模型辅助银行与金融机构进行风险评估、市场预测与投资决策。

立即体验
  • 智能金融风控,大数据洞察预防

    历史数据探查,防患未然

    立即体验
  • 智能投资决策,辅助投资决策

    基于市场分析,更高投资回报

    立即体验
  • 市场趋势监控,智能量化交易

    监控市场,优化策略,自动执行

    立即体验
使用方式
使用推理服务
在线快速测试服务效果,便捷调用智能云推理服务
  • 创建应用获取密钥
  • 调用推理服务进行业务集成
  • 流控面板监控输入输出流量,保障服务稳定
使用推理服务
大模型Post-pretrain
一站式模型定制,全流程可视化操作
  • 上传泛文本无标注数据集
  • 根据页面提示完成模型训练
  • 完成SFT,并一键部署至百度云在线服务
开始训练
定制微调大模型
一站式模型定制,全流程可视化操作
  • 上传已标注的训练数据
  • 根据页面提示启动模型训练
  • 完成模型训练,一键部署至百度云在线服务
开始训练
插件集成
支持三方插件集成。快速落地应用
  • 选择大模型服务
  • 按照业务需求选择并配置业务插件
  • 完成插件集成调试,一键部署集成插件应用服务
插件编排
凝聚文心大模型最佳实践
技术领先
  • 知识增强大模型,统一范式支持多类下游任务
  • 先进并行策略支撑大模型训练、压缩与部署
  • 可控可信的语言理解和生成能力
全场景覆盖
  • 支持对话互动,自由问答,文案创作等能力
  • 覆盖能源、金融、航天、工业、媒体等领域
低门槛使用便捷
  • 一行代码调用服务
  • 一键自动模型微调
  • 少量数据完成多场景AI应用落地
真实可落地
  • 提供企业级一站式客户服务
  • 打通芯片+平台+模型+应用的四层架构
  • 联合多家合作伙伴实现端到端应用落地
多样的交付方案与服务
公有云

适合需要快速获取定制大模型服务的企业

  • 公共资源服务推理,超高性价比
  • 私有资源服务托管,保障请求并发
  • 7 × 24 小时工单支持,在线技术服务
私有化部署

适合对数据私密性和控制性要求较高的企业

  • 纯软件平台交付,灵活组合部署
  • 软硬一体交付,高可用保证
支持交流
平台文档
探索和发现千帆平台大模型能力,快速体验大模型能力,开启便捷的开发之旅
技术指南
开放千帆大模型技术开发文档,帮助使用API或SDK的开发者赋能产品
千帆社区
在百度智能云千帆社区了解大模型技术的最新动态,与开发者们一起学习和交流大模型技术

开始体验定制大模型