预置模型与服务列表
目录
登录到千帆大模型操作台,在左侧功能列中选择模型广场,查看平台预置模型和预置服务(无部署功能)的列表。平台预置了多款大语言模型供您直接使用,包括文心一言及业内知名的开源大模型,部分展示如下:
基于文心大模型开发的应用在应用商店/微信小程序上架可参考指南。
关于大模型的备案信息,可点击查询,另外您也可以至网信办公官网查看和下载首批、第二批、第三批和第四批的境内深度合成服务算法备案清单。
预置模型名称 | 模型类型 | 模型描述 | 是否提供预置服务 | 商用协议 | 商用备注 | 网信备案情况 |
---|---|---|---|---|---|---|
ERNIE 4.0 | 大语言模型 | 百度自行研发的文心产业级知识增强大语言模型4.0版本,实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上相对ERNIE 3.5都有着显著提升,支持5K输入+2K输出。 | 是 | 无商用限制 | ✓ | |
ERNIE 3.5 | 大语言模型 | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 | 是 | 无商用限制 | ✓ | |
ERNIE Lite | 大语言模型 | 百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。 | 是 | 无商用限制 | 当前各版本通用 | ✓ |
ERNIE Speed | 大语言模型 | 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | 是 | 无限制商用 | ✓ | |
ERNIE Tiny | 大语言模型 | 百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。 | API调用 | 无限制商用 | ✓ | |
ERNIE Character | 大语言模型 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | 是 | 无限制商用 | ✓ | |
ERNIE Functions | 大语言模型 | 百度自研的垂直场景大语言模型,适合对话问答中的外部工具使用和业务函数调用场景,结构化回答合成能力更强、输出格式更稳定,推理性能更优。 | 是 | 无限制商用 | ✓ | |
ERNIE Speed-AppBuilder | 大语言模型 | 原『EB-turbo-AppBuilder专用版』模型升级为『ERNIE Speed-AppBuilder』。模型针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果,需配合“百度智能云千帆AppBuilder”产品使用或结合“AppBuilder-SDK”单独使用。 | API调用 | 无限制商用 | ✓ | |
文心一格 | 文生图大模型 | 百度自主研发的跨模态图像生成大模型,创新知识增强的混合专家建模,是全球首个知识增强的AI作画大模型,在语义控制、图像细节、中文理解等方面优势显著,已作为基础模型应用在 文心一格等相关业务上。 | 可至文心一格体验 | 无限制商用 | ✓ | |
Stable-Diffusion-XL「体验」 | 文生图大模型 | 业内知名的跨模态大模型,由Stability AI研发并开源,有着业内领先的图像生成能力。 | 是 | 有限制商用 | 模型厂商(Stability AI)尚未开放商用申请机制,当前模型仅限研究目的使用。我们将持续关注模型厂商主页公告 | |
Fuyu-8B「体验」 | 大语言模型 | Fuyu-8B是由Adept AI训练的多模态图像理解模型,可以支持任意的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。 | 是 | 有限制商用 | 模型厂商(Adept AI)尚未开放商用申请机制,当前模型仅限研究目的使用。我们将持续关注模型厂商主页公告 | |
Gemma-2B「体验」 | 大语言模型 | Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
Gemma-7B「体验」 | 大语言模型 | Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 | 是 | 无限制商用 | ||
Yi-34B「体验」 | 大语言模型 | 由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。 | 是 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(零一万物)发出商用申请 | ✓ |
Mistral-7B「体验」 | 大语言模型 | 由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。 | 是 | 无限制商用 | ||
Mixtral-8x7B | 大语言模型 | 由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。 | 是 | 无限制商用 | ||
Meta-Llama-3-8B「体验」 | 大语言模型 | 由Meta AI研发并开源的8B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 | 是 | |||
Meta-Llama-3-70B「体验」 | 大语言模型 | 由Meta AI研发并开源的8B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 | 是 | |||
Llama-2-7B「体验」 | 大语言模型 | 由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 | 是 | 宽松限制商用 | APP在7亿月活以下可无限制商用 | |
Llama-2-13B「体验」 | 大语言模型 | 由Meta AI研发并开源的13B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 | 是 | 宽松限制商用 | APP在7亿月活以下可无限制商用 | |
Llama-2-70B「体验」 | 大语言模型 | 由Meta AI研发并开源的70B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 | 是 | 宽松限制商用 | APP在7亿月活以下可无限制商用 | |
ChatGLM3-6B「体验」 | 大语言模型 | 智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。 | 否,需购买资源池来发布使用 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn | ✓ |
ChatGLM2-6B「体验」 | 大语言模型 | 智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | 是 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn | ✓ |
Baichuan2-7B「体验」 | 大语言模型 | 百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果,该版本为70亿参数规模的Chat版本。 | 否,需购买资源池来发布使用 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com | ✓ |
Baichuan2-13B「体验」 | 大语言模型 | 百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果,该版本为130亿参数规模的Chat版本。 | 否,需购买资源池来发布使用 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com | ✓ |
XVERSE-13B「体验」 | 大语言模型 | 由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。 | 是 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(元象)发出商用申请: opensource@xverse.cn | |
Aquila-7B「体验」 | 大语言模型 | 由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。 | 是 | 宽松限制商用 | 您在对外分发和使用该模型时,需请按照模型协议要求说明模型来源、并提供模型协议副本 | |
SQLCoder-7B「体验」 | 大语言模型 | 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 | 是 | 宽松限制商用 | 您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。若对模型权重进行了修改,则也需以CC BY-SA协议开源修改后的权重。 | |
CodeLlama-7B「体验」 | 大语言模型 | 是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。 | 是 | 宽松限制商用 | APP在7亿月活以下可无限制商用 | |
StarCoder「体验」 | 大语言模型 | 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 | 否,需购买资源池来发布使用 | 宽松限制商用 | 您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。 | |
XuanYuan-70B「体验 | 大语言模型 | 由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。 | 是 | 宽松限制商用 | APP在7亿月活以下可无限制商用 | |
DISC-MedLLM「体验」 | 大语言模型 | 专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。 | 否,需购买资源池来发布使用 | 有限制商用 | 如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com | |
ChatLaw「体验」 | 大语言模型 | 由壹万卷公司与北大深研院研发的法律行业大模型,在开源版本基础上进行了进一步架构升级,融入了法律意图识别、法律关键词提取、CoT推理增强等模块,实现了效果提升,以满足法律问答、法条检索等应用需求 | 是 | 无限制商用 | ||
BLOOMZ-7B「体验」 | 大语言模型 | 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 | 是 | 无限制商用 | 当前各版本通用 | |
RWKV-7B「体验」 | 大语言模型 | 由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
RWKV-14B「体验」 | 大语言模型 | 由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。 | 否,需购买资源池来发布使用 | 无限制商用 | 当前各版本通用 | |
Falcon-7B「体验」 | 大语言模型 | 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
Falcon-40B「体验」 | 大语言模型 | 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
OpenLLaMA-7B「体验」 | 大语言模型 | 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
Dolly-12B「体验」 | 大语言模型 | 由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
MPT-7B「体验」 | 大语言模型 | MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
MPT-30B「体验」 | 大语言模型 | MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
Cerebras-GPT-13B「体验」 | 大语言模型 | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
Pythia-12B「体验」 | 大语言模型 | 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
GPT-J-6B「体验」 | 大语言模型 | EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
GPT-NeoX-20B「体验」 | 大语言模型 | 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 | 否,需购买资源池来发布使用 | 无限制商用 | ||
StableLM-Alpha-7B「体验」 | 大语言模型 | Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。 | 否,需购买资源池来发布使用 | 无限制商用 | 您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名,提供协议原始链接,并向用户说明对软件的修改(若有)。 | |
Embedding-V1 | 预置服务 | 仅限API调用,基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。 | API调用 | 无限制商用 | ||
tao-8k | 大语言模型 | 仅限API调用Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 | API调用 | 无限制商用 | ||
bce-reranker-base | 预置服务 | 仅限API调用,由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。 | API调用 | 无限制商用 | ||
bge-large-zh | 预置服务 | 仅限API调用,由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 | API调用 | 无限制商用 | ||
bge-large-en | 预置服务 | 仅限API调用,由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 | API调用 | 无限制商用 |
其中,以下模型有2个及以上的版本:
ERINIE-4.0
当前有以下两个版本(均支持API调用)
- ERNIE-4.0-8K-0104:百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。此版本是2024年1月4号更新发布的版本,在模型效果上进一步提升。
- ERNIE-4.0-8K:百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平。
ERNIE-3.5
当前有以下三个版本(均支持在线体验):
- ERNIE-3.5-8K-0205(主线版本):2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持8K上下文长度。
- ERNIE-3.5-8K-1222:2023年12月22日发布版本,提升上下文窗口长度至8K。
- ERNIE-3.5-4K-0205:2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持4K上下文长度。
ERNIE-Lite
当前有以下五个版本(均支持详情查看和部署):
- ERNIE-Lite-8K-0308(主线版本):2024年3月8日发布版本,优化模型效果,支持8K上下文长度。
- ERNIE-Lite-8K-0922:2023年9月22日发布版本,通过数据和策略迭代,提升模型生成效果,并支持模型评估。
- ERNIE-Lite-8K-0725:2023年7月25日发布版本,支持6K输入+1K输出,支持系统设置,新增推理参数,并支持模型评估。
- ERNIE-Lite-4K-0704:2023年7月4日发布版本,优化推理效果,修复部分问题,并支持模型评估。
- ERNIE-Lite-4K-0516:2023年5月16日发布的初始版本,支持4K上下文长度。
ERNIE-Speed
当前有以下两个版本(均支持详情查看和API调用)
- ERNIE-Speed-128K(预览版):2024年3月14日发布版本,提升上下文窗口长度至128K,不保障SLA。
- ERNIE-Speed-8K:2024年2月5日发布的初始版本,支持8K上下文长度,且支持模型评估
Yi-34B
当前有以下两个版本(均支持详情查看、部署和模型评估):
- Yi-34B:由零一万物开发并开源,使用4K序列长度进行训练,是模型的初始预训练版本。
- Yi-34B-Chat:Yi-34B模型的支持对话的chat版本,支持体验中心在线测试。
Llama-2-7B
当前有以下四个版本(均支持详情查看、部署和模型评估)
- Qianfan-Chinese-Llama-2-7B-32K:千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。
- Qianfan-Chinese-Llama-2-7B:千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。
- Linly-Chinese-LLaMA-2-7B:由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。
- Llama-2-7b-chat:Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。
Llama-2-13B
当前有以下四个版本(均支持详情查看、部署和评估):
- Qianfan-Chinese-Llama-2-13B-v2:千帆团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。
- Qianfan-Chinese-Llama-2-13B-v1:千帆团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异.
- Linly-Chinese-LLaMA-2-13B:由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。
- Llama-2-13b-chat:由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡版本。
Llama-2-70B
当前有以下三个版本(均支持详情查看、部署和评估):
- Qianfan-Chinese-Llama-2-70B:千帆团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异
- Qianfan-Llama-2-70B-compressed:千帆团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。
- Llama-2-70b-chat:Llama-2-70b-chat是高精度效果的原生开源版本。
ChatGLM3-6B
当前有以下两个版本(均支持详情查看、部署):
- chatglm3-6b-32k:在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
- chatglm3-6b:初始版本。
ChatGLM2-6B
当前有以下三个版本(均支持详情查看、部署和评估):
- chatglm2-6b-int4:在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
- chatglm2-6b-32k:在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
- chatglm2-6b:初始预训练版本。
Aquila-7B
当前有以下两个版本(均支持详情查看、部署和评估):
- AquilaCode-multi:基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
- AquilaChat-7B:基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
BLOOMZ-7B
当前有以下两个版本(均支持详情查看、部署和评估):
- Qianfan-BLOOMZ-7B-compressed:千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
- BLOOMZ-7B:业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
RWKV-14B
当前有以下两个版本(均支持详情查看、部署和评估):
- rwkv-raven-14b:RWKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。
- rwkv-4-pile-14b:在 Pile 数据集上训练的 L40-D5120 因果语言模型。
Pythia-12B
当前有以下两个版本(均支持详情查看、部署和评估):
- oasst-sft-4-pythia-12b-epoch-3.5:基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
- pythia-12b:由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
GPT-J-6B
当前有以下两个版本(均支持详情查看、部署和评估):
- gpt4all-j:由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
- gpt-j-6b EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。
详情
点击模型介绍区域,查看预置模型的模型介绍、任务列表、接口信息和部署记录等内容。
- 模型介绍
基本信息包含模型名称、模型类型、模型描述等基本信息。
- 版本列表
点击模型版本名称或查看版本详情,展示预置模型的接口信息,作为服务部署、调用的参考;同时支持部分模型创建SFT任务、查看API文档、体验和部署。
- 任务列表
任务列表下展示预置模型各类任务的记录,如模型评估、模型压缩和删除版本等。
- 部署记录
支持查看预置模型部署的记录,在本页面支持直接部署模型版本。
评估
支持对平台模型广场预置模型、用户SFT模型进行评估,可点击“评估”直接发起评估任务。详情支持范围请参考模型评估相关内容。
部署
预置模型支持通过特定资源池部署为预测服务,点击“部署”跳转至预测服务进行模型部署,详情操作参考服务管理相关内容。