模型广场操作及模型列表
平台预置了多款大模型供您使用,包括文心一言及业内知名的开源大模型。
登录到本平台,在左侧功能列中选择模型广场,查看平台预置模型和预置服务的列表。
模型检索
通过模型广场的标签区可检索您所需的模型列表,支持标签多选和清空筛选条件。
其中,可以针对模型类别、供应商、上下文长度、语言以及扩展能力进行筛选。
同时,在模型列表上方支持综合排序、按模型更新时间、按模型名称进行排序。搜索框内可输入模型名称、描述、模型ID、版本ID进行检索。
模型操作
点击模型卡片,进入模型详情页。
- 模型介绍: 基本信息包含模型名称、模型类型、模型描述等基本信息。
- 版本列表: 点击模型版本名称或查看版本详情;同时支持部分模型创建精调任务、查看API文档、在线体验和部署。
- 评估报告: 支持查看预置模型评估报告,包括综合评价、任务完成能力对比和对话指令违背比例等信息。
- 任务列表: 任务列表下展示预置模型各类任务的记录,如模型评估、模型压缩和删除版本等。
进一步精调
支持对模型广场部分预置模型、用户精调的部分模型进行进一步精调,可将光标移至“使用此模型”,点击“进一步精调”直接创建精调任务。详情支持范围请参考模型精调相关内容。
评估模型效果
支持对模型广场部分预置模型、用户精调的部分模型进行评估,可将光标移至“使用此模型”,点击“评估模型效果”直接发起评估任务。详情支持范围请参考模型评估相关内容。
部署模型推理
预置模型支持通过特定资源池部署为预测服务,可将光标移至“使用此模型”,点击“部署模型推理”跳转至在线服务进行模型部署,详情操作参考在线服务相关内容。
以下为模型广场接入的全部模型及版本,由于模型版本较多,MAC可使用“command + F键”;Windows可使用“Ctrl + F键”组合,在本页搜索关键字,迅速检索模型。如您不确定模型名称可参考模型检索内容。
ERNIE 4.5
多模态
中文
英文
4K-16K
文心大模型4.5是百度自主研发的新一代原生多模态基础大模型,通过多个模态联合建模实现协同优化,多模态理解能力优秀;具备更精进的语言能力,理解、生成、逻辑、记忆能力全面提升,去幻觉、逻辑推理、代码能力显著提升。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-4.5-8K-Preview | 此版本是2025年3月更新发布的版本,在模型效果上进一步提升 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-4.5为每位用户提供50万tokens的免费额度,有效期为一个月。
通义千问-VL
图像理解
中文
英文
Qwen-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM)。Qwen-VL 可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。Qwen-VL 系列模型性能强大,具备多语言对话、多图交错对话等能力,并支持中文开放域定位和细粒度图像识别与理解。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qwen-VL-Chat | 此版本是2025年3月更新发布的版本,集成了视觉和语言能力的交互式对话模型。 | --- | 是 | 部署 |
通义千问2-VL
图像理解
中文
英文
Qwen2-VL系列模型是由阿里云千问团队开发的多模态大语言模型,该系列模型在视觉理解和内容生成领域取得了显著进展。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qwen2-VL-7B-Instruct | 参数量约70亿的多模态预训练大语言模型,专为理解和生成自然语言设计,并支持图像描述、问答等多种跨模态应用场景。 | --- | 是 | 部署 |
DeepSeek-VL2
图像理解
中文
英文
4K-16K
DeepSeek-VL2是一个先进的大型混合专家(MoE)视觉语言模型系列,显著提升了其前身DeepSeek-VL的性能。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
QDeepSeek-VL2-Small | 基于 DeepSeekMoE-16B 构建,总激活参数为 28 亿,序列长度为 4096。 | 2K tokens + 2K tokens | 是 | 体验 API文档 |
QDeepSeek-VL2 | 基于 DeepSeekMoE-16B 构建,总激活参数为 45 亿,序列长度为 4096。 | 2K tokens + 2K tokens | 是 | 体验 API文档 |
通义千问2.5-VL
图像理解
中文
英文
16K以上
Qwen2.5-VL是阿里通义千问团队发布的旗舰视觉语言模型,在Qwen2-VL视觉-语言模型上做了更先进的改进。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qwen2.5-VL-7B-Instruct | 拥有约70亿参数的多模态指令遵循大语言模型,擅长处理图像与文本信息,支持跨模态应用场景。 | 12K tokens + 4K tokens | 是 | 部署 API文档 体验 |
InternLM-XComposer2
图像理解
中文
英文
InternLM-XComposer2 是基于 InternLM2 的视觉-语言大模型 (VLLM),用于高级文本-图像理解和合成。
该模型引入了新颖的部分LoRA(PLoRA)设计,仅对图像标记应用额外的LoRA参数,从而保持了预训练语言知识的完整性。这种设计使得模型在保持语言知识的同时,能够更好地理解和处理图像信息,从而在文本-图像交互中达到更高的性能。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
internlm-xcomposer2-vl-7b | 具备强大的图文理解和问答能力,擅长处理自由形态的文本-图像组合与理解任务。 | --- | 是 | 部署 |
Fuyu-8B
图像理解
4K-16K
Fuyu-8B是由Adept AI训练的多模态图像理解模型,可以支持多样的图像分辨率,回答图形图表有关问题。模型在视觉问答和图像描述等任务上表现良好。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
fuyu-8b | 初始预训练版本 | 8000字符 + 768 tokens | 是 | 部署 API文档 体验 |
GLM-4V-9B
图像理解
中文
英文
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。
千帆平台主要用于图像理解
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
glm-4v-9b | 具备卓越的多模态性能,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中表现出色。 | --- | 是 | 部署 API文档 |
InternVL2
图像理解
中文
英文
与最先进的开源多模态大型语言模型相比,InternVL 2.0 超过了大多数开源模型。它在多种能力上表现出与专有商业模型相当的竞争性能,包括文档和图表理解、信息图问答、场景文本理解和 OCR 任务、科学和数学问题解决以及文化理解和综合多模态能力。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
InternVL2-26B | 拥有260亿参数的多模态大模型,展现出强大的跨模态理解和生成能力。 | --- | 是 | 部署 |
InternVL2-8B | 拥有80亿参数的多模态大模型,具备卓越的全模态理解和生成能力。 | --- | 是 | 部署 |
InternVL2-2B | 参数规模达到20亿的多模态大模型,具备强大的跨模态理解和生成能力,可在多学科问答、文档图表理解、科学数学问题解决等多个领域发挥重要作用。 | --- | 是 | 部署 |
InternVL2.5
图像理解
中文
英文
一个基于 InternVL 2.0 的先进多模态大语言模型(MLLM)系列,在保持其核心模型架构的同时,显著增强了训练和测试策略以及数据质量。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
InternVL2_5-4B | 能够高效理解和处理图像与文本信息,提供高水平的跨模态推理和生成能力。 | --- | 是 | 部署 |
InternVL2_5-4B | 基于“ViT-MLP-LLM”范式,能够处理文本、图像和视频等多种模态的信息,展现了强大的跨模态理解和推理能力。 | --- | 是 | 部署 |
LLaVA
图像理解
英文
LLaVA是一个基于transformer架构的自回归多模态开源大模型,通过在多模态指令上微调LLM来训练而来,有关更多信息请查看相关论文或资源。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
LLaVA-v1.6-13B | LLaVa-NeXT(也称为 LLaVa-1.6)在 LLaVa-1.5 的基础上进行了改进,提高了输入图像分辨率并在改进的视觉指令调整数据集上进行训练,以改进 OCR 和常识推理。 | --- | 是 | 精调 |
ERNIE X1
深度推理
中文
英文
16K以上
文心大模型X1具备更强的理解、规划、反思、进化能力。作为能力更全面的深度思考模型,文心X1兼备准确、创意和文采,在中文知识问答、文学创作、文稿写作、日常对话、逻辑推理、复杂计算及工具调用等方面表现尤为出色。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-X1-32K-Preview | 此版本是2025年3月更新发布的版本,在模型效果上进一步提升 | 32K上下文长度,最大输入24k,最大输出16k(包含思维链) | 否 | [API文档] [体验] |
ERNIE 4.0
文本生成
中文
英文
4K-16K
百度自研的旗舰级超大规模大语言模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-4.0-8K-Latest | 此版本是2024年6月更新发布的版本,在模型效果上进一步提升 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-4.0-8K-Preview | 此版本为ERNIE-4.0-8K模型的预览版本,指向最新版本模型 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-4.0-8K-0613主线版本 | 百度文心系列中效果最强大的⼤语⾔模型,理解、生成、逻辑、记忆能力达到业界顶尖水平 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 评估 体验 |
ERNIE-4.0-8k-0104 | 此版本是2024年1月4号更新发布的版本,在模型效果上进一步提升 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-4.0-8K为每位用户提供50万tokens的免费额度,有效期为一个月。
ERNIE 4.0 Turbo
文本生成
中文
英文
16K以上
4K-16K
百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。
- 无商用限制,网信备案✓
- 按量后付费,输入:0.02元/千tokens,输出:0.06元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-4.0-Turbo-128K | 长文档整体效果优于ERNIE-3.5-128K,时延劣于ERNIE-3.5-128K。 | 124K tokens + 4K tokens | 否 | API文档 体验 |
ERNIE-4.0-Turbo-8K-0628 | 2024年6月28日首次发布的版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 | 6K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-4.0-Turbo-8K-Preview | 2024年7月3日发布的预览版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 | 7K tokens/20000字符 + 1K tokens | 否 | API文档 体验 |
ERNIE-4.0-Turbo-8K | 2024年6月28日首次发布的版本,百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀 | 6K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-4.0-Turbo-8K为每位用户提供50万tokens的免费额度,有效期为一个月。
ERNIE-Novel
文本生成
中文
英文
4K-16K
百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。
- 无商用限制,网信备案✓
- 按量后付费,输入:0.04元/千tokens,输出:0.12元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Novel-8K | 2024年8月2日首次发布的版本,百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。 | 6K tokens + 2K tokens | 否 | API文档 体验 |
DeepSeek-V3
文本生成
中文
英文
16K以上
DeepSeek-V3,这是一个强大的混合专家(MoE)语言模型,总参数量为671B,采用了创新注意力机制(MLA)和DeepSeekMoE架构,这些架构在DeepSeek-V2中得到了充分验证。此外,DeepSeek-V3开创了一种无辅助损失的负载均衡策略,并设置了多token预测训练目标以获得更强的性能。DeepSeek-V3在14.8万亿个多样且高质量的token上进行预训练,随后通过监督微调和强化学习阶段来充分发挥其能力。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-V3-250313-2 | 该版本适配AI加速卡VI型算力单元8卡单机部署。性价比更高。 | 是 | 体验 部署 |
DeepSeek-V3-250313-1 | 相比于上个版本,对推理性能与推理服务稳定性做了优化。DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。 | 是 | 体验 部署 |
DeepSeek-V3-250225 | 相比于上个版本,对推理性能与推理服务稳定性做了优化。DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。 | 是 | 体验 部署 |
DeepSeek-V3-250217 | DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。 | 是 | 体验 部署 |
DeepSeek-V3 | DeepSeek-V3 为杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,其多项评测成绩突出,在主流榜单中位列开源模型榜首。V3 相比 V2.5 模型生成速度实现 3 倍提升,为用户带来更加迅速流畅的使用体验。 | 是 | 体验 部署 |
DeepSeek-R1
深度推理
中文
英文
16K以上
DDeepSeek-R1系列:包括DeepSeek-R1-Zero和DeepSeek-R1两个模型,是基于大型强化学习(RL)训练的第一代理解模型。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek--R1-250313-2 | 该版本适配AI加速卡X型算力单元16卡双机部署。效果与性能有更大提升。 | 是 | 体验 部署 精调 |
DeepSeek--R1-250313-1 | 相比于上个版本,对推理性能与推理服务稳定性做了优化。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 是 | 体验 部署 精调 |
DeepSeek--R1-250225 | 相比于上个版本,对推理性能与推理服务稳定性做了优化。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 是 | 体验 部署 精调 |
DeepSeek--R1-250217 | DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 是 | 体验 部署 精调 |
DeepSeek-R1 | DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | 是 | 体验 部署 精调 |
DeepSeek-R1-Distill-Qianfan-Llama-70B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 系列模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qianfan-Llama-70B | 2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_70B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。 | 是 | 体验 API文档 |
DeepSeek-R1-Distill-Qianfan-Llama-8B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 系列模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qianfan-Llama-8B | 2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_8B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。 | 是 | 体验 API文档 |
DeepSeek-R1-Distill-Llama-70B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Llama-70B | DeepSeek-R1-Distill-Llama-70B是DeepSeek-R1基于Llama3.3-70B-Instruct的蒸馏模型。 | 是 | 体验 API文档部署 评估 |
DeepSeek-R1-Distill-Llama-8B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Llama-8B | DeepSeek-R1-Distill-Llama-8B是DeepSeek-R1基于Llama3.1-8B-Base的蒸馏模型。 | 是 | 体验 API文档部署 评估 |
DeepSeek-R1-Distill-Qwen-7B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
DeepSeek-R1系列:包括DeepSeek-R1-Zero和DeepSeek-R1两个模型,是基于大型强化学习(RL)训练的第一代理解模型。 DeepSeek-R1改进:在RL前加入冷启动数据,解决重复、可读性差和语言混合等问题,性能与OpenAI-o1相当。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-7B | DeepSeek-R1-Distill-Qwen-7B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 | 是 | 体验 部署 API文档 |
DeepSeek-R1-Distill-Qwen-1.5B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
DeepSeek-R1系列:包括DeepSeek-R1-Zero和DeepSeek-R1两个模型,是基于大型强化学习(RL)训练的第一代理解模型。 DeepSeek-R1改进:在RL前加入冷启动数据,解决重复、可读性差和语言混合等问题,性能与OpenAI-o1相当。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 | 是 | 体验 部署 API文档评估 精调 |
DeepSeek-R1-Distill-Qwen-32B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-32B | DeepSeek-R1-Distill-Qwen-32B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 | 是 | 体验 部署 API文档评估 精调 |
DeepSeek-R1-Distill-Qwen-14B
深度推理
中文
英文
16K以上
DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-14B | DeepSeek-R1-Distill-Qwen-14B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。 | 是 | 体验 部署 API文档评估精调 |
Qianfan-Sug
文本生成
中文
百度云-千帆平台自研的,适用于多轮对话场景,推荐下一轮潜在问题的垂直模型,更快、更准。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
Qianfan-Sug | 百度云-千帆平台自研的,适用于多轮对话场景,推荐下一轮潜在问题的垂直模型,更快、更准。 | 否 | 申请试用 |
大模型文档抽取
文档大模型
中文
英文
依托大模型能力,无需训练即可实现复杂文档智能抽取。支持票据、合同、报表等30+常见文档的结构化信息提取,可精准识别表格、长文本、数值等多模态要素,人工校验、回填等工作量降低60%,适用于财税、供应链等高频文档自动化处理场景。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
大模型文档抽取 | 依托大模型能力,无需训练即可实现复杂文档智能抽取。支持票据、合同、报表等30+常见文档的结构化信息提取,可精准识别表格、长文本、数值等多模态要素,人工校验、回填等工作量降低60%,适用于财税、供应链等高频文档自动化处理场景。 | 否 | 立即试用 |
大模型合同审查
文档大模型
中文
英文
依托大模型能力,全面覆盖买卖、租赁、劳动等20+高频合同场景审查,精准定位合同风险点,提供合规建议、修订批注等风控支持,合同平均审核时效提升60%,显著加速合同全流程处理,有效保障企业合同法律合规性。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
大模型合同审查 | 依托大模型能力,全面覆盖买卖、租赁、劳动等20+高频合同场景审查,精准定位合同风险点,提供合规建议、修订批注等风控支持,合同平均审核时效提升60%,显著加速合同全流程处理,有效保障企业合同法律合规性。 | 否 | 立即试用 |
大模型声音复刻
语音大模型
基于大模型zero-shot技术,模型能够捕捉到音色、韵律、情感等声音特征,从而实现高保真度的声音复刻。您只需录制5秒音频,即可极速复刻音色。广泛应用于配音、数字人、情感陪伴、语音助手等场景。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
声音复刻 | 基于大模型zero-shot技术,模型能够捕捉到音色、韵律、情感等声音特征,从而实现高保真度的声音复刻。您只需录制5秒音频,即可极速复刻音色。广泛应用于配音、数字人、情感陪伴、语音助手等场景。 | 否 | 立即试用 |
大模型语音合成
语音大模型
百度大模型语音合成基于新一代大模型能力,音色具备更高的自然度、丰富的情感表达等特点。并且模型能够根据上下文智能预测文本的情绪、语调等信息,自动匹配合适的情感表达。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
语音合成 | 语音合成基于新一代大模型能力,音色具备更高的自然度、丰富的情感表达等特点。并且模型能够根据上下文智能预测文本的情绪、语调等信息,自动匹配合适的情感表达。 | 否 | 立即试用 |
流式语音合成
语音大模型
支持文本、语音双向流式,输入文本同时就可以近乎同步听到合成的语音。适用于基于大模型的语音助手、实时对话场景。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
语音合成 | 语音合成基于新一代大模型能力,音色具备更高的自然度、丰富的情感表达等特点。并且模型能够根据上下文智能预测文本的情绪、语调等信息,自动匹配合适的情感表达。 | 否 | API文档 |
ERNIE iRAG
图像生成
中文
百度自研的ERNIE iRAG大模型,检索增强的文生图技术,将百度搜索的亿级图片资源跟强大的基础模型能力相结合,即可生成各种超真实的图片。
模型版本 | 版本描述 | 是否开源 | 操作 |
---|---|---|---|
ERNIE-iRAG-1.0 | 百度自研的ERNIE iRAG大模型,检索增强的文生图技术,将百度搜索的亿级图片资源跟强大的基础模型能力相结合,即可生成各种超真实的图片。 | 否 | API文档 体验 |
ERNIE 3.5
文本生成
中文
16K以上
4K-16K
百度自研的旗舰级大规模大语言模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
- 无商用限制,网信备案✓
- 按量后付费,输入:0.0008元/千tokens,输出:0.0002元/千tokens,其部分版本支持量包和TPM付费,价格明细可查看计费说明,部分版本评估费用可查看计费明细。
- ERNIE-3.5-128k 输入:0.0008元/千tokens,输出:0.002元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-3.5-128K主版本 | 此版本为ERNIE-3.5-128K模型的正式版本 | 124K tokens + 4K tokens | 否 | 体验 API文档 |
ERNIE-3.5-8K-0701主线版本 | 2024年7月1日发布版本,能力全面升级,尤其数学计算、逻辑推理能力提升显著。 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 评估 体验 |
ERNIE-3.5-128K-Preview | 此版本为ERNIE-3.5-128K模型的预览版本,指向最新版本模型。 | 124K tokens + 4K tokens | 否 | 体验 API文档 |
ERNIE-3.5-8K-0701主线版本 | 2024年7月1日发布版本,能力全面升级,尤其数学计算、逻辑推理能力提升显著。 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 评估 体验 |
ERNIE-3.5-8K-0613 | 2024年6月13日发布版本,该模型版本在信息处理、代码能力、知识问答、多轮会话等均有提升。 | 6K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-3.5-8K-Preview | 此版本为ERNIE-3.5-8K模型的预览版本,指向最新版本模型 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-3.5-128K-0516 | 2024年5月16日发布版本,提升上下文窗口长度至128K | 124K tokens + 4K tokens | 否 | API文档 体验 |
ERNIE-3.5-8K-0205 | 2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持8K上下文长度 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 |
ERNIE-3.5-4K-0205 | 2024年2月5日发布版本,逻辑推理能力显著提升,可更好处理复杂指令,支持4K上下文长度 | 2K tokens/8000字符 + 2K tokens | 否 | - |
ERNIE-3.5-8K-1222 | 2023年12月22日发布版本,提升上下文窗口长度至8K | 5K tokens/20000字符 + 2K tokens | 否 | - |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-3.5-8K和ERNIE-3.5-128K为每位用户提供50万tokens的免费额度,有效期为一个月。
ERNIE Speed Pro
文本生成
中文
16K以上
百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
- 无商用限制,网信备案 ✓
- 按量后付费:输入:0.0004元/千tokens,输出:0.0008元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Speed-Pro-8K | 2024年8月30日发布版本,支持8K上下文长度,效果比ERNIE-Speed-8K更优。 | 7K tokens/11200字符 + 1K tokens | 否 | API文档 精调 体验 |
ERNIE-Speed-Pro-128K主版本 | 2024年8月30日发布的初始版本,支持128K上下文长度,效果比ERNIE-Speed-128K更优。 | 124K tokens + 4K tokens | 否 | API文档 精调 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Speed-Pro-128K为每位用户提供100万tokens的免费额度,有效期为一个月。
ERNIE Lite Pro
文本生成
中文
英文
16K以上
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。
- 无商用限制,网信备案 ✓
- 按量后付费:输入:0.00006元/千tokens,输出:0.00012元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Lite-Pro-128K | 2024年9月5日发布版本,优化模型效果,支持128K上下文长度,效果比ERNIE-Lite-128K更优。 | 124K tokens + 4K tokens | 否 | API文档 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Lite-Pro-128K为每位用户提供100万tokens的免费额度,有效期为一个月。
ERNIE Speed
文本生成
中文
16K以上
4K-16K
百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Speed-128K 主版本 | 2024年3月14日发布版本,提升上下文窗口长度至128K | 124K tokens + 4K tokens | 否 | API文档 体验 |
ERNIE-Speed-128K | 2024年3月14日发布版本,提升上下文窗口长度至128K | 124K tokens + 4K tokens | 否 | API文档 体验 |
ERNIE-Speed-8K | 2024年2月5日发布的初始版本,支持8K上下文长度 | 7K tokens/11200字符 + 1K tokens | 否 | API文档 精调 评估 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Speed-8K和ERNIE-Speed-128K为每位用户提供100万tokens的免费额度,有效期为一个月。
ERNIE Lite
文本生成
英文
中文
16K以上
4K-16K
百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Lite-128K-0722 | 2024年7月22日发布版本,支持128K上下文长度 | 124K tokens + 4K tokens | 否 | 精调 API文档 |
ERNIE-Lite-128K-0419 | 2024年4月19日发布版本,优化模型效果,支持128K上下文长度 | 124K tokens + 4K tokens | 否 | API文档 精调 评估 |
ERNIE-Lite-8K-0308主线版本 | 2024年3月8日发布版本,优化模型效果,支持8K上下文长度 | 6K tokens/24000字符 + 2K tokens | 否 | API文档 精调 评估 体验 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Lite-8K为每位用户提供100万tokens的免费额度,有效期为一个月。
ERNIE Tiny
文本生成
中文
16k以上
4K-16K
百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Tiny-128K-0929 | 2024年9月29日发布的版本,支持128K上下文长度 | 124K tokens + 4K tokens | 否 | API文档 精调 评估 体验 |
ERNIE-Tiny-8K主版本 | 2024年3月8日发布的初始版本,支持8K上下文长度 | 6K tokens/24000字符 + 2K tokens | 否 | API文档 精调 评估 |
千帆ModelBuilder为新用户提供免费试用额度,ERNIE-Tiny-8K为每位用户提供100万tokens的免费额度,有效期为一个月。
ERNIE Character
文本生成
中文
4K-16K
百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Character-Fiction-8K-1028主版本 | 2024年10月28日发布的版本,在深度扮演能力、剧情创意度等方面能力得到增强,场景更加丰富。 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-Character-Fiction-8K | 2024年5月23日发布的版本,支持8K上下文长度,在情节演绎和规则化文本等场景下指令遵循能力更强 | 5K tokens/20000字符 + 2K tokens | 否 | API文档 体验 |
ERNIE-Character-8K-0321 | 2024年3月21日发布的初始版本,支持8K上下文长度 | 6K tokens/24000字符 + 2K tokens | 否 | API文档 精调 评估 体验 |
ERNIE Code
文本生成
中文
英文
16K以上
ERNIE Code是百度自研的代码专精大模型,支持 600+ 种编程语言,在 Go、Java、Python、CPP 等头部语言上优势显著。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Code3-128K主版本 | 单条数据支持128k tokens。支持代码续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、动作预测等多项编程相关能力。 | 124K tokens + 4K tokens | 否 | 精调 |
ERNIE Functions
文本生成
4K-16K
百度自研的垂直场景大语言模型,适合对话问答中的外部工具使用和业务函数调用场景,结构化回答合成能力更强、输出格式更稳定,推理性能更优。
- 无商用限制,网信备案✓
- 按量后付费,输入:0.004/千tokens,输出:0.008/千tokens,评估费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
ERNIE-Functions-8K-0321 | 2024年3月21日发布的初始版本,支持8K上下文长度 | 6K tokens/24000字符 + 2K tokens | 否 | API文档 评估 体验 |
Qianfan Agent
文本生成
中文
16K以上
4K-16K
Qianfan Agent是百度自研Agent专用版模型,针对企业级大模型应用进行了专门的指令调优,在问答场景、智能体相关场景可以获得同等规模模型下更好的效果。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qianfan-Agent-Speed-32K | 2025年1月2号发布的版本,支持32K上下文长度。 | 28K tokens + 4K tokens | 否 | API文档 体验 |
Qianfan-Agent-Speed-8K | 2024年11月21日发布的版本,支持8K上下文长度 | 7K tokens + 1K tokens | 否 | API文档 体验 |
Qianfan-Agent-Lite-8K | 2024年11月21日发布的版本,支持8K上下文长度 | 7K tokens + 1K tokens | 否 | API文档 体验 |
通义千问-QwQ-32B
深度推理
中文
英文
16K以上
QwQ 是 Qwen 系列的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在处理难题时,能够显著提高性能。QwQ-32B 是一个中等规模的推理模型,其性能可以与当前最先进的推理模型(如 DeepSeek-R1、o1-mini)相媲美。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
QwQ-32B | 通义千问团队推出的高效推理模型,支持消费级硬件部署,具备强大的实时推理能力和与智能体Agent集成的潜力。 | 24K tokens + 8K tokens | 是 | 体验 API文档 部署 评估 精调 |
通义千问2.5-代码
文本生成
英文
Qwen2.5-Coder 是最新的面向代码的 Qwen 大型语言模型系列(以前称为 CodeQwen)。截至目前,Qwen2.5-Coder 已覆盖六种主流模型尺寸:0.5、1.5、3、7、14 和 32 亿参数,以满足不同开发者的需求。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qwen2.5-Coder-32B-Instruct | 当前最先进的开源代码 LLM,其编码能力可与 GPT-4o 相媲美。 | --- | 是 | 评估 部署 | |
Qwen2.5-Coder-14B-Instruct | 140亿参数,擅长多语言代码生成、理解和修复,以及结构化数据的处理,适用于多种编程和开发场景。 | --- | 是 | 评估 部署 |
通义千问2.5
文本生成
英文
Qwen2.5 是最新的 Qwen 大型语言模型系列。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Qwen2.5-7B-Instruct | Qwen2.5系列中的旗舰模型,以不到1/5的参数规模超越了拥有4050亿参数的Llama3.1-405B,在多个权威测评中表现出色,稳居“全球最强开源大模型”的位置。 | --- | 是 | 精调 |
通义万相2.1-文生视频-14B
视频生成
中文
英文
Wan2.1 基于主流的扩散变压器范式设计,通过一系列创新实现了生成能力的重大进步。这些创新包括我们的新型时空变分自编码器(VAE)、可扩展的训练策略、大规模数据构建和自动化评估指标。这些贡献共同提升了模型的性能和多功能性。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Wan2.1-T2V-14B | 此版本支持支持生成 480P 和 720P 分辨率的视频 | --- | 是 | 申请试用 |
通义万相2.1-图生视频-14B-720P
视频生成
中文
英文
Wan2.1 基于主流的扩散变压器范式设计,通过一系列创新实现了生成能力的重大进步。这些创新包括我们的新型时空变分自编码器(VAE)、可扩展的训练策略、大规模数据构建和自动化评估指标。这些贡献共同提升了模型的性能和多功能性。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Wan2.1-I2V-14B-720P | 此版本支持支持生成 720P 分辨率的视频 | --- | 是 | 申请试用 |
可灵1.6-文生视频
视频生成
中文
英文
快手旗下的AI视频生成工具可灵(Kling)的1.6版本,是一款能够将文本描述转化为高质量视频的工具。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Kling-1.6-Text2Video | 快手旗下的AI视频生成工具可灵(Kling)的1.6版本,是一款能够将文本描述转化为高质量视频的工具。 | --- | 否 | 申请试用 |
可灵1.6-图生视频
视频生成
中文
英文
快手旗下AI视频生成工具可灵(Kling)的1.6版本中的一项重要功能,实现了从静态图像到动态视频的神奇转换。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Kling-1.6-Image2Video | ||||
快手旗下AI视频生成工具可灵(Kling)的1.6版本中的一项重要功能,实现了从静态图像到动态视频的神奇转换。 | --- | 否 | 申请试用 |
Vidu 1.0
视频生成
中文
英文
Vidu 1.0 是由生数科技自研的视频生成大模型,具备强大的视频生成能力、只需输入文本或图片就可以轻松完成视频制作。Vidu 1.0 能够在短时间内生成4秒或8秒的精美视频片段。其广泛应用于游戏设计、动画制作和创意内容生产等领域。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Vidu-1.0 | 该模型具备强大的视频生成能力,能够实现对真实世界物理效果的高度模拟,能够创建出逼真的环境和场景。 | --- | 否 | 申请试用 |
MiniMax-文生视频
视频生成
中文
英文
MiniMax-T2V-01是MiniMax公司推出的一款导演级视频生成模型。该模型以其精准遵循创作灵感、呈现电影般叙事节奏的能力而著称。MiniMax-T2V-01在视频生成领域树立了新的标杆,为用户提供了前所未有的创作体验。其镜头语言更加精准,能够捕捉到创作者想要表达的每一个细节,使生成的视频作品更具艺术性和观赏性。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
MiniMax-T2V-01-Director | 专为导演打造的先进文本到视频(Text-to-Video)生成模型,擅长创作具有电影级叙事风格的视频内容。 | --- | 否 | 申请试用 |
MiniMax-T2V-01 | 导演级视频生成模型。 | --- | 否 | 申请试用 |
MiniMax-图生视频
视频生成
中文
英文
MiniMax-T2V-01是MiniMax公司推出的一款导演级视频生成模型。该模型以其精准遵循创作灵感、呈现电影般叙事节奏的能力而著称。MiniMax-T2V-01在视频生成领域树立了新的标杆,为用户提供了前所未有的创作体验。其镜头语言更加精准,能够捕捉到创作者想要表达的每一个细节,使生成的视频作品更具艺术性和观赏性。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
MiniMax-S2V-01 | 极低的输入和计算成本实现视觉细节精确还原,同时具备高自由度和组合性的视频模型。 | --- | 否 | 申请试用 |
MiniMax-I2V-01-live | 实时图像到视频转换模型,能够即时将静态图像生成动态、连贯的视频内容。 | --- | 否 | 申请试用 |
MiniMax-I2V-01 | 高效的图像到视频生成模型,能够将单张图像转换为生动、连贯的视频序列。 | --- | 否 | 申请试用 |
九章大模型MathGPT 1.0
文本生成
中文
英文
16K以上
学而思九章大模型(MathGPT)是好未来自主研发的,以解题和讲题算法为核心的大模型。它具备四大核心功能:数学学科的自动解题、复杂应用题的批改、语文英语的作文批改以及个性化的AI分步骤讲题。
MathGPT 1.0 具备强大生成和理解能力,既能针对性解决学生的个性化问题,从其不懂的题目映射出相应知识点,并加以补充讲解,使得学生融会贯通,又能在内置大量优质教学资源的同时,向更广泛的学生普及。
- 无商用限制,网信备案✓
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
MathGPT 1.0 | 该版本具备强大生成和理解能力,既能针对性解决学生的个性化问题,从其不懂的题目映射出相应知识点,并加以补充讲解,使得学生融会贯通,又能在内置大量优质教学资源的同时,向更广泛的学生普及。 | 124K tokens + 4K tokens | 否 | 申请试用 |
Stable-Diffusion-XL
图像生成
英文
中文
4K以下
业内知名的跨模态大模型,由Stability AI研发并开源,有着业内领先的图像生成能力。
- 有限制商用,当前模型仅限研究目的使用。请持续关注模型厂商主页公告。
- 按量后付费0.02元/秒,具体计算逻辑,参考下表。
图片尺寸 | 单图定价 |
---|---|
768x768、576x1024、1024x576 | 3秒/张 * ¥0.02元/秒=¥0.06元/张 |
768x1024、1024x768、1024x1024 | 4秒/张 * ¥0.02元/秒=¥0.08元/张 |
1536x1536、1152x2048、2048x1152 | 6秒/张 * ¥0.02元/秒=¥0.12元/张 |
1536x2048、2048x1536、2048x2048 | 8秒/张 * ¥0.02元/秒=¥0.16元/张 |
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
stable-diffusion-xl-base-1.0 | Stability AI 7月27日发布的版本,推理性能与图片质量较此前版本有显著提升。 | 1K字符 | 是 | CreativeML Open RAIL++-M License | API文档 精调 体验 部署 |
Gemma-2B
文本生成
英文
中文
4K-16K
Gemma 是 Google 推出的一系列轻量级、最先进的开放模型,采用与创建 Gemini 模型相同的研究和技术构建。它们是文本到文本、仅限解码器的大型语言模型,提供英语版本,具有开放权重、预训练变体和指令调整变体。
- 无限制商用
- 需购买资源池来发布使用,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
gemma-2b-it | 该版本为20亿参数的指令微调版本。 | 11200字符 + 1K tokens | 是 | Gemma Terms of Use | API文档 部署评估 |
Gemma-7B
文本生成
英文
中文
4K-16K
Gemma 是 Google 开发的一系列轻量级、尖端的开源文本生成模型,采用与 Gemini 模型相同的技术构建,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
- 无限制商用
- 按量后付费0.004元/千tokens,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
gemma-7b-it | 该版本为70亿参数的指令微调版本。 | 11200字符 + 1K tokens | 是 | Gemma Terms of Use | API文档 体验 部署评估 |
Yi-34B
文本生成
中文
4K-16K
Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(零一万物)发出商用申请 网信备案✓
- 长期调用免费,每个账号每天包含500次调用额度(按调用总次数统计,包括但不限于调用成功的次数)。如需扩容,请使用私有资源池发布该模型,或提交工单说明应用场景、预计月调用量,申请扩充额度。部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Yi-34B-Chat | 支持对话的chat版本 | 8000字符 + 768 tokens | 是 | - | API文档 评估 体验 部署 |
Yi-34B | 初始预训练版本 | 8000字符 + 768 tokens | 是 | Yi Series Models License Agreement | API文档 评估 部署 |
Mixtral-8x7B
文本生成
英文
小语种
中文
4K-16K
由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Mixtral-8x7B-Instruct-v0.1 | 该版本为支持对话的微调版本。 | 11200字符 + 500 tokens | 是 | Apache 2.0 | API文档 精调 评估 体验 部署 |
Mistral-7B
文本生成
英文
中文
4K-16K
由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Mistral-7B-Instruct-v0.1 | 在预训练模型Mistral-7B-v0.1基础上的微调版本。 | 11200字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Meta-Llama-3-8B
文本生成
英文
4K-16K
Meta AI于2024年4月18日发布的Meta Llama 3系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Meta-Llama-3-8B-Instruct | Meta-Llama-3-8B-Instruct是8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型。 | 7K tokens + 1K tokens | 是 | META LLAMA 3 COMMUNITY LICENSE AGREEMENT | API文档 精调 评估 体验 部署 |
Meta-Llama-3.1-8B
文本生成
中文
英文
4K-16K
Meta AI于2024年7月23日发布的Meta Llama 3.1系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。
- 暂不支持调用预置服务,精调费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Meta-Llama-3.1-8B-Instruct | Meta-Llama-3.1-8B-Instruct是8B参数的指令微调版本,适用于对话场景,在常见行业基准上优于许多可用的开源聊天模型。 | 7K tokens + 1K tokens | 是 | META LLAMA 3.1 COMMUNITY LICENSE AGREEMENT | 精调 |
Meta-Llama-3-70B
文本生成
英文
4K-16K
Meta AI于2024年4月18日发布的Meta Llama 3系列70B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Meta-Llama-3-70B-Instruct | Meta-Llama-3-70B-Instruct是70B参数的指令微调版本,适用于对话场景,在理解语言细节、上下文和执行复杂任务上表现更佳。 | 7K tokens + 1K tokens | 是 | META LLAMA 3 COMMUNITY LICENSE AGREEMENT | API文档 评估 体验 部署 |
Qianfan-Chinese-Llama-2-1.3B
文本生成
中文
4K-16K
Qianfan-Chinese-Llama-2-1.3B是由千帆ModelBuilder团队基于Llama2架构开发的13亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Qianfan-Chinese-Llama-2-1.3B | 千帆ModelBuilder团队2024年首次发布的版本 | 8K tokens + 1K tokens | 是 | Meta license(基础模型) | API文档 精调 评估 部署 |
Llama-2-7B
文本生成
英文
中文
16K以上
4K-16K
由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Qianfan-Chinese-Llama-2-7B-32K | 千帆ModelBuilder团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文 | 32500字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 精调 评估 部署 |
Qianfan-Chinese-Llama-2-7B | 千帆ModelBuilder团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 | 8000字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 精调 评估 体验 部署 |
Linly-Chinese-LLaMA-2-7B | 由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Llama-2-7b-chat | Llama-2-7b-chat是高性能原生开源版本,适用于对话场景。 | 8000字符 + 1K tokens | 是 | Meta license | API文档 评估 体验 部署 |
Llama-2-13B
文本生成
英文
中文
4K-16K
由Meta AI研发并开源的13B参数大语言模型,在编码、推理及知识应用等场景表现优秀。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Qianfan-Chinese-Llama-2-13B-v2 | 千帆ModelBuilder团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。 | 8000字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 精调 评估 部署 |
Qianfan-Chinese-Llama-2-13B-v1 | 千帆ModelBuilder团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 | 8000字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 精调 评估 体验 部署 |
Linly-Chinese-LLaMA-2-13B | 由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Llama-2-13b-chat | Llama-2-13b-chat是性能与效果均衡的原生开源版本,适用于对话场景。 | 8000字符 + 1K tokens | 是 | Meta license | API文档 评估 体验 部署 |
Llama-2-70B
文本生成
英文
中文
16K以上
4K-16K
由Meta AI研发并开源的70B参数大语言模型,在编码、推理及知识应用等场景表现优秀。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Qianfan-Chinese-Llama-2-70B | 千帆ModelBuilder团队在Llama-2-70b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异 | 28K tokens + 4K tokens | 是 | Meta license(基础模型) | API文档 评估 体验 部署 |
Qianfan-Llama-2-70B-compressed | Qianfan-Llama-2-70B-compressed是千帆ModelBuilder团队在Llama-2-70B基础上的压缩版本,融合量化、稀疏化、算子优化等压缩加速技术,大幅降低模型推理资源占用。 | 8000字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 评估 部署 |
Llama-2-70b-chat | Llama-2-70b-chat是高精度效果的原生开源版本。 | 8000字符 + 500 tokens | 是 | Meta license | API文档 评估 体验 部署 |
ChatGLM3-6B
文本生成
中文
16K以上
4K-16K
智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn 网信备案✓
- 需购买资源池来发布使用,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
chatglm3-6b-32k | 在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 32500字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
chatglm3-6b | 初始版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Model License | API文档 精调 评估 部署 |
ChatGLM2-6B
文本生成
中文
16K以上
4K-16K
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(智谱AI)发出商用申请:service@zhipuai.cn 网信备案✓
- 按量后付费0.004元/千tokens,部分版本评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
chatglm2-6b-32k | 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 32500字符 + 1K tokens | 是 | Apache 2.0、Model License | API文档 精调 评估 体验 部署 |
chatglm2-6b-int4 | 在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Model License | API文档 评估 部署 |
chatglm2-6b | 初始预训练版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Model License | API文档 精调 评估 部署 |
Baichuan2-7B
文本生成
中文
4K-16K
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com 网信备案✓
- 需购买资源池来发布使用,评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Baichuan2-7B-Chat | 该版本为70亿参数规模的Chat版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Community License for Baichuan2 Model | API文档 精调 评估 部署 |
Baichuan2-13B
文本生成
中文
4K-16K
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com 网信备案✓
- 需购买资源池来发布使用,评估费用可查看计费明细,精调费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Baichuan2-13B-Chat | 该版本为130亿参数规模的Chat版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Community License for Baichuan2 Model | API文档 精调 评估 部署 |
XVERSE-13B
文本生成
中文
4K-16K
由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
XVERSE-13B-Chat | 该版本为130亿参数规模的Chat版本。 | 8000字符 + 1K tokens | 是 | Apache 2.0、Model License Agreement | API文档 评估 部署 |
Aquila-7B
文本生成
中文
4K-16K
由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
AquilaChat-7B | 基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。 | 8000字符 + 1K tokens | 是 | Apache 2.0、BAAI Aquila Model License Agreement | API文档 评估 体验 部署 |
AquilaCode-multi | 基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。 | 8000字符 + 1K tokens | 是 | Apache 2.0、BAAI Aquila Model License Agreement | API文档 部署 |
SQLCoder-7B
文本生成
英文
中文
4K-16K
由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。
- 宽松限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。若对模型权重进行了修改,则也需以CC BY-SA协议开源修改后的权重。
- 按量后付费0.004元/千tokens,部分版本精调费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
sqlcoder-7b | 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 | 8000字符 + 1K tokens | 是 | Apache 2.0、CC-BY-SA-4.0 | API文档 精调 体验 部署 |
CodeLlama-7B
文本生成
英文
4K-16K
Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
CodeLlama-7b-Instruct | Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。 | 8000字符 + 1K tokens | 是 | Meta license | API文档 精调 体验 部署 |
StarCoder
文本生成
英文
4K-16K
由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
- 宽松限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名、说明修改情况(若有)、随附Apache 2.0协议副本。
- 需购买资源池来发布使用,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
starcoder | 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 | 8000字符 + 768 tokens | 是 | OpenRAIL-M license、Apache 2.0 | API文档 部署 |
XuanYuan-70B
行业大模型
英文
中文
4K-16K
由度小满开发,基于Llama2-70B模型进行中文增强的金融行业大模型,通用能力显著提升,在CMMLU/CEVAL等各项榜单中排名前列;金融域任务超越领先通用模型,支持金融知识问答、金融计算、金融分析等各项任务。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
XuanYuan-70B-Chat-4bit | XuanYuan-70B-Chat-4bit为4bit量化后的chat版本,显存占用显著降低。 | 11200字符 + 1K tokens | 是 | Meta license(基础模型) | API文档 评估 体验 部署 |
DISC-MedLLM
行业大模型
中文
4K-16K
DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。
- 有限制商用,如您需对外商用此模型,需单独向模型厂商(百川智能)发出商用申请: opensource@baichuan-inc.com
- 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
DISC-MedLLM | DISC-MedLLM是一个专门针对医疗健康对话式场景而设计的医疗领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC)开发并开源。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
BLOOMZ-7B
文本生成
中文
英文
小语种
4K-16K
业内知名的大语言模型,由BigScience研发并开源,能够以46种语言和13种编程语言输出文本。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Qianfan-BLOOMZ-7B-compressed | 千帆ModelBuilder团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上 | 8000字符 + 1K tokens | 是 | BigScience RAIL License v1.0(基础模型) | API文档 评估 体验 部署 |
BLOOMZ-7B | 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 | 8000字符 + 1K tokens | 是 | BigScience RAIL License v1.0 | API文档 精调 评估 体验 部署 |
RWKV-7B
文本生成
英文
小语种
中文
4K-16K
由香港大学物理系校友彭博研发并开源的7B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
rwkv-4-world | 模型在100多种语言上进行训练,具备优秀的英语零样本与上下文学习能力。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
RWKV-14B
文本生成
英文
中文
小语种
4K-16K
由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
rwkv-4-pile-14b | 在 Pile 数据集上训练的 L40-D5120 因果语言模型。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
rwkv-raven-14b | RWKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Falcon-7B
文本生成
英文
小语种
4K-16K
由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
falcon-7b-v5-fp16 | 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Falcon-40B
文本生成
英文
4K-16K
由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
falcon-40b-instruct | 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 | 8000字符 + 360 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
OpenLLaMA-7B
文本生成
英文
小语种
4K-16K
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
openllama-7b-v5-fp16 | 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
Dolly-12B
文本生成
英文
4K-16K
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
dolly-v2-12b | 由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 | 8000字符 + 1K tokens | 是 | MIT License、CC-BY-SA | API文档 评估 部署 |
MPT-7B
文本生成
英文
4K-16K
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
mpt-7b-instruct | MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 | 8000字符 + 1K tokens | 是 | CC-By-SA-3.0 | API文档 评估 部署 |
MPT-30B
文本生成
英文
4K-16K
MPT-30B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
mpt-30b-instruct | MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 | 8000字符 + 360 tokens | 是 | CC-By-SA-3.0 | API文档 评估 部署 |
Cerebras-GPT-13B
文本生成
英文
4K-16K
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
- 无限制商用
- 需购买资源池来发布使用,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
Cerebras-GPT-13B | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 部署 |
Pythia-12B
文本生成
英文
4K-16K
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
pythia-12b | 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
oasst-sft-4-pythia-12b-epoch-3.5 | 基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在[https://open-assistant.io/]收集的人类反馈的对话数据上进行微调。 | 8000字符 + 768 tokens | 是 | Apache 2.0 | API文档 评估 部署 |
GPT-J-6B
文本生成
英文
4K-16K
EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
gpt-j-6b | EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
gpt4all-j | 由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。 | 8000字符 + 1K tokens | 是 | Apache 2.0 | API文档 评估 部署 |
GPT-NeoX-20B
文本生成
英文
4K-16K
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
- 无限制商用
- 需购买资源池来发布使用,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
gpt-neox-20b | 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 | 8000字符 + 512 tokens | 是 | Apache 2.0 | API文档 部署 |
StableLM-Alpha-7B
文本生成
英文
4K-16K
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
- 无限制商用,您在对外分发和使用该模型时,需请按照模型协议要求对原作者进行署名,提供协议原始链接,并向用户说明对软件的修改(若有)。
- 需购买资源池来发布使用,评估费用可查看计费明细,部署费用可查看计费明细。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
stablelm-base-alpha-7b | Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。了解更多> | 8000字符 + 1K tokens | 是 | CC-BY-SA-4.0 | API文档 评估 部署 |
Embedding-V1
向量表示
中文
4K以下
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
- 无限制商用
- 按量后付费0.0005元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
Embedding-V1 | Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。 | 384 tokens/1000字符 | 否 | API文档 |
千帆ModelBuilder为新用户提供免费试用额度,Embedding-V1为每位用户提供100万tokens的免费额度,有效期为一个月。
tao-8k
向量表示
中文
4K-16K
tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。
- 无限制商用
- 按量后付费0.0005元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
tao-8k | 初始版本 | 8K tokens/28000字符 | 是 | Apache 2.0 | API文档 |
千帆ModelBuilder为新用户提供免费试用额度,tao-8k为每位用户提供100万tokens的免费额度,有效期为一个月。
bce-reranker-base
重排序
英文
小语种
中文
4K以下
由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。
- 无限制商用
- 按量后付费0.0005元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
bce-reranker-base_v1 | 初始版本 | query:400 tokens/1600字符 document:1K tokens/4K字符 |
是 | Apache 2.0 | API文档 |
千帆ModelBuilder为新用户提供免费试用额度,bce-reranker-base为每位用户提供100万tokens的免费额度,有效期为一个月。
bge-reranker-v2-m3
重排序
中文
英文
小语种
由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
bge-reranker-v2-m3 | 由智源研究院推出的高性能多语言检索排序模型,具备强大的语义理解能力和高效的推理速度,适用于多种信息检索和排序任务。 | --- | 否 | Apache 2.0 | 部署 |
jina-reranker-v2-base-multilingual
重排序
中文
英文
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
- 无限制商用
- 按量后付费0.0005元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
jina-reranker-v2-base-multilingual | 支持多语言检索的高性能排序模型,专为提升跨语言信息检索任务的精度和效率而设计。 | --- | 是 | CC-BY-NC-4.0 | 部署 |
bge-large-zh
向量表示
中文
4K以下
向量表征模型(Embedding Model)被广泛应用于搜索、推荐、数据挖掘等重要领域,将自然形式的数据样本(如语言、代码、图片、音视频)转化为向量(即连续的数字序列),并用向量间的“距离”衡量数据样本之间的“相关性” 。
bge-large-zh 由智源研究院开源,是当前中文任务下最强向量表征模型,各项语义表征能力全面超越同类开源模型。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
bge-large-zh-v1.5 | 支持高效的语义相似度计算、信息检索、文本分类及多种自然语言处理任务。 | --- | 否 | MIT许可证 | 部署 API文档 |
bge-large-en
向量表示
英文
4K以下
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
- 无限制商用
- 按量后付费0.0005元/千tokens
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 操作 |
---|---|---|---|---|
bge-large-en | 由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。 | 512 tokens/2000字符 | 否 | API文档 |
千帆ModelBuilder为新用户提供免费试用额度,bge-large-en为每位用户提供100万tokens的免费额度,有效期为一个月。
jina-embeddings-v3
向量表示
中文
英文
小语种
4K-16K
是一个多语言多任务文本嵌入模型,旨在应用于各种NLP场景。 基于Jina-XLM-RoBERTa架构,该模型支持旋转位置嵌入(RoPE),能够处理长达8192个标记的长输入序列。 此外,它还具备5个LoRA适配器,以高效生成特定任务的嵌入。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
jina-embeddings-v3 | 拥有5.7亿参数的多语言文本嵌入模型,支持多达8192个tokens,内置多种LoRA适配器,可在多语言和长文本检索任务上实现先进性能。 | --- | 是 | CC-BY-NC-4.0 | 部署 |
ChatGLM4-9B
文本生成
中文
英文
小语种
4K-16K
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。智谱 AI 还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。
模型版本 | 版本描述 | 上下文长度 | 是否开源 | 开源协议 | 操作 |
---|---|---|---|---|---|
ChatGLM4-9B-8K | GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面均表现较高性能。 | 7K tokens + 1K tokens | 是 | Model License | 精调 |