支持私有资源池部署模型列表
更新时间:2024-09-19
Tips :本页模型版本较多,MAC可使用“command + F键”;Windows可使用“Ctrl + F键”组合,在本页搜索关键字。
以下模型服务仅收取私有资源池租赁的费用,不再按tokens收取额外的调用费用,点击版本名称,可查看API详细介绍。
注意:各个模型的商用限制可查看模型广场的列表说明。
资源租赁入口:模型服务独立资源部署,保障服务并发。
私有资源池计费详情可查看价格文档,操作步骤详见在线服务使用说明。
所属大模型 | 版本名称 | 模型类型 | 版本描述 |
---|---|---|---|
ERNIE Speed | ERNIE-Speed-8K | 大语言模型 | 2024年2月5日发布的初始版本,支持8K上下文长度。 |
ERNIE Lite | ERNIE-Lite-128K-0419 | 大语言模型 | 2024年4月19日发布版本,优化模型效果,支持128K上下文长度 |
ERNIE Lite | ERNIE-Lite-8K-0308(主线版本) | 大语言模型 | 2024年3月8日发布版本,优化模型效果,支持8K上下文长度。 |
ERNIE Lite | ERNIE-Lite-8K-0922 | 大语言模型 | 2023年9月22日发布版本,提升模型创作生成效果,支持8K上下文长度。 |
ERNIE Lite | ERNIE-Lite-8K-0725 | 大语言模型 | 2023年7月25日发布版本,新增推理超参数,提升上下文窗口长度至8K。 |
ERNIE Lite | ERNIE-Lite-4K-0704 | 大语言模型 | 2023年7月4日发布版本,优化推理效果,修复部分问题,支持4K上下文长度。 |
ERNIE Lite | ERNIE-Lite-4K-0516 | 大语言模型 | 2023年5月16日发布的初始版本,支持4K上下文长度。 |
ERNIE Tiny | ERNIE-Tiny-8K | 大语言模型 | 2024年3月8日发布的初始版本,支持8K上下文长度。 |
ERNIE Character | ERNIE-Character-8K-0321 | 大语言模型 | 2024年5月23日发布的版本,支持8K上下文长度,在情节演绎和规则化文本等场景下指令遵循能力更强 |
ERNIE Character | ERNIE-Character-Fiction-8K | 大语言模型 | 2024年3月21日发布的初始版本,支持8K上下文长度 |
Ernie Functions | ERNIE-Functions-8K-0321 | 大语言模型 | 2024年3月21日发布的初始版本,支持8K上下文长度 |
Stable-Diffusion-XL | stable-diffusion-xl-base-1.0「体验」 | 文生图大模型 | Stability AI 7月27日发布的版本,推理性能与图片质量较此前版本有显著提升。 |
Fuyu-8B | fuyu-8b「体验」 | 图像理解大模型 | 初始预训练版本。 |
Gemma-2B | gemma-2b-it「体验」 | 大语言模型 | 该版本为20亿参数的指令微调版本。 |
Gemma-7B | gemma-7b-it「体验」 | 大语言模型 | 该版本为70亿参数的指令微调版本。 |
Yi-34B | Yi-34B-Chat「体验」 | 大语言模型 | 支持对话的chat版本。 |
Yi-34B | Yi-34B「体验」 | 大语言模型 | 初始预训练版本。 |
Mixtral-8x7B | Mixtral-8x7B-Instruct-v0.1「体验」 | 大语言模型 | 该版本为支持对话的微调版本。 |
Mistral-7B | Mistral-7B-Instruct-v0.1「体验」 | 大语言模型 | 在预训练模型Mistral-7B-v0.1基础上的微调版本。 |
Meta-Llama-3-8B | Meta-Llama-3-8B-Instruct「体验」 | 大语言模型 | 8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型。 |
Meta-Llama-3-70B | Meta-Llama-3-70B-Instruct「体验」 | 大语言模型 | 70B参数的指令微调版本,适用于对话场景,在理解语言细节、上下文和执行复杂任务上表现更佳。 |
Llama-2-7B | Qianfan-Chinese-Llama-2-7B-32K「体验」 | 大语言模型 | 千帆ModelBuilder团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。 |
Llama-2-7B | Qianfan-Chinese-Llama-2-7B「体验」 | 大语言模型 | 千帆ModelBuilder团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 |
Llama-2-7B | Linly-Chinese-LLaMA-2-7B「体验」 | 大语言模型 | 由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。 |
Llama-2-7B | Llama-2-7b-chat「体验」 | 大语言模型 | Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。 |
Llama-2-13B | Qianfan-Chinese-Llama-2-13B-v2「体验」 | 大语言模型 | 千帆ModelBuilder团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。 |
Llama-2-13B | Qianfan-Chinese-Llama-2-13B-v1「体验」 | 大语言模型 | 千帆ModelBuilder团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 |
Llama-2-13B | Linly-Chinese-LLaMA-2-13B「体验」 | 大语言模型 | 由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。 |
Llama-2-13B | Llama-2-13b-chat「体验」 | 大语言模型 | Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。 |
Llama-2-70B | Qianfan-Chinese-Llama-2-70B | 大语言模型 | 千帆ModelBuilder团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。 |
Llama-2-70B | Qianfan-Llama-2-70B-compressed | 大语言模型 | 千帆ModelBuilder团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。 |
Llama-2-70B | Llama-2-70b-chat「体验」 | 大语言模型 | Llama-2-70b-chat是高精度效果的原生开源版本。 |
ChatGLM3-6B | chatglm3-6b-32K「体验」 | 大语言模型 | 在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。。 |
ChatGLM3-6B | chatglm3-6b「体验」 | 大语言模型 | 初始版本。 |
ChatGLM2-6B | chatglm2-6b-int4「体验」 | 大语言模型 | 在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。 |
ChatGLM2-6B | chatglm2-6b-32k「体验」 | 大语言模型 | 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 |
ChatGLM2-6B | chatglm2-6b「体验」 | 大语言模型 | 初始预训练版本。 |
Baichuan2-7B | Baichuan2-7B-Chat「体验」 | 大语言模型 | 该版本为70亿参数规模的Chat版本。 |
Baichuan2-13B | Baichuan2-13B-Chat「体验」 | 大语言模型 | 该版本为130亿参数规模的Chat版本。 |
XVERSE-13B | XVERSE-13B-Chat「体验」 | 大语言模型 | 该版本为130亿参数规模的Chat版本。 |
Aquila-7B | AquilaCode-multi「体验」 | 大语言模型 | 基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。 |
Aquila-7B | AquilaChat-7B「体验」 | 大语言模型 | 基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。 |
SQLCoder-7B | sqlcoder-7b「体验」 | 大语言模型 | 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 |
CodeLlama-7B | CodeLlama-7b-Instruct「体验」 | 大语言模型 | 该版本为130亿参数规模的Chat版本。 |
StarCoder | starcoder「体验」 | 大语言模型 | 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 |
XuanYuan-70B | XuanYuan-70B-Chat-4bit「体验」 | 大语言模型 | 为4bit量化后的chat版本,显存占用显著降低。 |
DISC-MedLLM | DISC-MedLLM「体验」 | 大语言模型 | DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。 |
BLOOMZ-7B | Qianfan-BLOOMZ-7B-compressed「体验」 | 大语言模型 | 千帆ModelBuilder团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上 |
BLOOMZ-7B | BLOOMZ-7B「体验」 | 大语言模型 | 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 |
RWKV-7B | rwkv-4-world「体验」 | 大语言模型 | 模型在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。 |
RWKV-14B | rwkv-raven-14b「体验」 | 大语言模型 | RWKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。 |
RWKV-14B | rwkv-4-pile-14B「体验」 | 大语言模型 | 在 Pile 数据集上训练的 L40-D5120 因果语言模型。 |
Falcon-7B | falcon-7b-v5-fp16「体验」 | 大语言模型 | 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 |
Falcon-40B | falcon-40b-instruct「体验」 | 大语言模型 | 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 |
OpenLLaMA-7B | openllama-7b-v5-fp16「体验」 | 大语言模型 | 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 |
Dolly-12B | dolly-v2-12b「体验」 | 大语言模型 | 由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 |
MPT-7B | mpt-7b-instruct「体验」 | 大语言模型 | MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 |
MPT-30B | mpt-30b-instruct「体验」 | 大语言模型 | MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 |
Cerebras-GPT-13B | Cerebras-GPT-13B「体验」 | 大语言模型 | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 |
Pythia-12B | oasst-sft-4-pythia-12b-epoch-3.5「体验」 | 大语言模型 | 基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。 |
Pythia-12B | pythia-12b「体验」 | 大语言模型 | 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 |
GPT-J-6B | gpt4all-j「体验」 | 大语言模型 | 由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。 |
GPT-J-6B | gpt-j-6b「体验」 | 大语言模型 | EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 |
GPT-NeoX-20B | gpt-neox-20b「体验」 | 大语言模型 | 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 |
StableLM-Alpha-7B | stablelm-base-alpha-7B「体验」 | 大语言模型 | Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。 |
需注意:您亦可选择直接调用平台预置的部分服务,届时将按照价格文档收取调用费。
您在调用预置服务Stable-Diffusion-XL时,若出现调用超时的情况可进行以下操作:
(1)初次部署该服务的,需要您点击部署本模型为服务,再调用部署好的服务。发布服务流程可参考说明文档,详细计费可查看价格文档.
(2)如果您已经部署过此服务,可在部署资源中进行复购。