模型精调
模型精调是模型训练过程中,所选用的基础模型训练费用,包括Post-pretrain、SFT和偏好对齐等内容,您可点击右侧目录选择需要了解的训练方式。
模型训练价格限时5折优惠,文心大模型部分训练支持闲时调度。
价格费用举例
训练数据:25800字符数;
文本生成模型训练公式为:
计算公式 =
(训练集tokens) x
epoch(迭代轮次) x
token单价
示例1:ERNIE Lite训练服务-SFT-全量更新
训练总价 = 训练集字符数 x 0.001(千位计算) x 字符转换token系数(0.5~0.8) x epoch(迭代轮次) x token单价
- 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.03 = 0.774~1.2384 元(原价)
模型训练限时5折优惠,以上示例现价为0.387~0.6192元。
示例2:大模型公有云训练服务-强化学习
- 预估价格(最高)计算方式为: (25800 + 1000 x 2048) x 0.001(千位计算) x 2(epoch迭代轮次) x 0.01 = 41.476 元
模型训练限时5折优惠,以上示例现价最高为165.904元。
示例3:ERNIE Lite训练服务-postpretrain
- 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.004 = 0.1032~0.16512 元(原价)
模型训练限时5折优惠,以上示例现价为0.0516~0.08256元。
Post-pretrain
ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-4.0-turbo-128K | 单条数据支持32k tokens。该模型在性能和效果上表现优异。 | 0.2元/千tokens | 0.4元/千tokens |
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 0.004元/千tokens | 0.008元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 0.03元/千tokens | 0.06元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 0.015元/千tokens | 0.03元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 0.004元/千tokens | 0.008元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 0.0004元/千tokens | 0.0008元/千tokens |
ERNIE-Tiny-128K | 单条数据支持128k tokens。 | 0.003元/千tokens | 0.006元/千tokens |
Llama Meta AI推出的开源大语言模型。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
Qianfan-Chinese-Llama2-13B-v1 | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 | 0.002元/千tokens | 0.004元/千tokens |
训练字符转换token系数为(0.5~0.8),详情计费可查看示例。
SFT
SFT模型训练分为文本生成、图像生成和图像理解三种作业类型。
SFT-文本生成
ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-4.0-Turbo-8K | 单条数据支持8192 tokens。该模型在性能和效果上表现优异。 | LoRA |
0.05元/千tokens |
0.1元/千tokens | 0.2元/千tokens |
ERNIE-4.0-Turbo-128K | 单条数据支持32k tokens。该模型在性能和效果上表现优异。 | 全量更新 |
0.1元/千tokens |
0.2元/千tokens | 0.4元/千tokens |
LoRA |
0.025元/千tokens |
0.05元/千tokens | 0.1元/千tokens | ||
ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-3.5-8K | 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 | 全量更新 |
0.05元/千tokens |
0.1元/千tokens | 0.2元/千tokens |
LoRA |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化,且扩展支持LoRA训练方法。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens | ||
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.01元/千tokenss |
0.02元/千tokens | 0.04元/千tokens |
LoRA |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens | ||
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-8K-250124 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens | ||
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。相比ERNIE-Character-8K-0321,在情节演绎和括号文学等指令遵循能力更强。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Character-8K-0321 | 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Character-Fiction-8K-1028 | 单条数据支持8192 tokens。在深度扮演能力、剧情创意度等方面能力得到增强,场景更加丰富。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Code ERNIE Code是百度自研的代码专精大模型,支持 600+ 种编程语言,在 Go、Java、Python、CPP 等头部语言上优势显著。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Code3-128K | 单条数据支持128k tokens。支持代码续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、动作预测等多项编程相关能力。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
DeepSeek-R1 | 单条数据支持8k tokens。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | ||||
LoRA |
0.3元/千tokens |
0.6元/千tokens | 1.2元/千tokens | ||
DeepSeek-V3-0324 | 单条数据支持8k tokens。2025年3月24日最新版本,由杭州深度求索人工智能基础技术研究有限公司自研的 MoE 模型,在百科知识、数学推理等多项任务上优势突出,评测成绩在主流榜单中位列开源模型榜首。 | ||||
LoRA |
0.175元/千tokens |
0.35元/千tokens | 0.7元/千tokens | ||
DeepSeek-R1-Distill-Qwen-32B | 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-32B是DeepSeek基于Qwen2.5-32B蒸馏得到的。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens | ||
DeepSeek-R1-Distill-Qwen-14B | 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 | 全量更新 |
0.003元/千tokens |
0.006元/千tokens | 0.012元/千tokens |
LoRA |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens | ||
DeepSeek-R1-Distill-Qwen-7B | 单条数据支持16k tokens。DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
DeepSeek-R1-Distill-Qwen-1.5B | 单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek基于Qwen2.5-Math-1.5B蒸馏得到的。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
Qianfan Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
DeepSeek-R1-Distill-Qianfan-Llama-70B | 单条数据支持32k tokens。DeepSeek-R1-Distill-Qianfan-Llama-70B是千帆大模型平台基于Llama3-70B模型蒸馏DeepSeek-R1模型得到的,综合能力较强,在数学题解析场景评测中达到优于DeepSeek-R1模型的效果。 | 全量更新 |
0.02元/千tokens |
0.04元/千tokens | 0.08元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens | ||
DeepSeek-R1-Distill-Qianfan-Llama-8B | 单条数据支持32k tokens。DeepSeek-R1-Distill-Qianfan-Llama-8B是千帆大模型平台基于Llama3-8B模型蒸馏DeepSeek-R1得到的,在多个评测集中优于同参数量模型。 | 全量更新 |
0.00175元/千tokens |
0.0035元/千tokens | 0.007元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
Qianfan-Sug | 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
LoRA |
0.00075元/千tokens |
0.0015元/千tokens | 0.003元/千tokens |
Llama Meta AI推出的开源大语言模型。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Meta-Llama-3.2-1B-128K | 单条数据支持128k tokens。Meta-Llama-3.2-1B针对多语言文本对话进行了优化,包括代理检索和摘要任务,表现优于许多可用的开源和封闭聊天模型。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
Meta-Llama-3.1-8B | 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
Meta-Llama-3-8B | 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
Qianfan-Chinese-Llama-2-13B-v2 | 单条数据支持4096 tokens。千帆团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语。推理效果整体优于同参数量级开源模型。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens | ||
Qianfan-Chinese-Llama-2-7B | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-7B,千帆团队在Llama-2-7b基础上的中文增强版本。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
Qianfan-Chinese-Llama-2-13B-v1 | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens | ||
Qianfan-Chinese-Llama-2-7B-32K | 千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。 | 全量更新 |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
Qianfan-Chinese-Llama-2-1.3B | 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
Mixtral-8x7B 由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Mixtral-8x7B | 单条数据支持32768 tokens。该版本为支持对话的微调版本。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
SQLCoder-7B 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
SQLCoder-7B | 单条数据支持4096 tokens。由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。使用Apache 2.0、CC-BY-SA-4.0协议。根据CC-BY-SA-4.0协议要求,您需要将修改后的模型权重在CC-BY-SA-4.0license中开源。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
ChatGLM 智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ChatGLM4-9B | 单条数据支持8192 tokens。GLM-4-9B是智谱 AI 推出的预训练模型 GLM-4系列中的开源版本,在语义、数学、推理、代码等多方面的数据集测评中,均表现出较高的性能。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens | ||
ChatGLM3-6B | 单条数据支持4096 tokens。相比前两代,具备更强大的基础模型能力。目前仅支持Prompt+Response数据格式。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
ChatGLM2-6B-32K | 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 全量更新 | 暂不支持 | 0.004元/千tokens | 0.008元/千tokens |
ChatGLM2-6B | 单条数据支持4096 tokens。智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | 全量更新 | 暂不支持 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 暂不支持 | 0.002元/千tokens | 0.004元/千tokens |
Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Baichuan2-7B-Chat | 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
Baichuan2-13B-Chat | 单条数据支持4096 tokens。Baichuan2-13B-Chat 采用2.6万亿Tokens的高质量语料训练。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens |
BLOOM-7B 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
BLOOM-7B | 单条数据支持2048 tokens。 Qianfan-BLOOMZ-7B,千帆团队在由BigScience研发并开源的BLOOMZ-7B的基础上的中文增强版。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
CodeLlama 由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
CodeLlama-7B | 单条数据支持4096 tokens。由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解,模型参数规模为70亿。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
Qwen Qwen2.5是Qwen系列的大语言模型。Qwen2.5包含了一些基础大语言模型和指令调优大语言模型,参数从5亿到720亿不等。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
QwQ-32B | 单条数据支持32k tokens。模型数学代码等核心指标及部分通用指标达到DeepSeek-R1 满血版水平。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens | ||
Qwen2.5-1.5B-Instruct | 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
Qwen2.5-7B-Instruct | 单条数据支持8192 tokens。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
Qwen2.5-14B-Instruct | 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 | 全量更新 |
0.003元/千tokens |
0.006元/千tokens | 0.012元/千tokens |
LoRA |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens | ||
Qwen2.5-32B-Instruct | 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02~~~~元/千tokens | ||
SFT中大模型训练字符转换token系数为(0.5~0.8)。
需注意:基于基础模型Meta-Llama-3-8B训练和Meta-Llama-3.1-8B全量更新产生的计费账单,将合并于Llama2-7B的训练模型的账单中,并非单独记账。
SFT-图像生成
按资源配置计费:
计费项目 | 说明 | 单价 |
模型精调资源实例 | 大模型公有云训练服务-按小时计费 |
(5折后)112元/小时 大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。 |
SFT-图像理解
LLaVA LLaVA模型是多模态大模型,是Haotian Liu等人基于Vicuna/Llama等大模型使用多模态数据训练得到。 | |||||
基础模型版本 | 说明 | 训练方法 | 折后价 | 原价 | |
LLaVA-V1.6-13B | LLaVA-v1.6-13B 是基于Vicuna-13B模型训练得到,在多个benchmark数据集上表现优异。该模型仅供研究使用,需要遵循模型许可。 | 全量更新 |
0.085元/千tokens |
0.017元/千tokens | |
LoRA |
0.045元/千tokens |
0.09元/千tokens |
InternLM-XComposer InternLM是在2.6万亿token的高质量语料上训练得到的,包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。多图训练时需要保证图片长宽尺寸相同。 | |||||
基础模型版本 | 说明 | 训练方法 | 折后价 | 原价 | |
InternLM-XComposer2.5-7B | InternLM-XComposer2.5在各种文本-图像理解和创作应用中表现出色。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | |
LoRA |
0.008元/千tokens |
0.016元/千tokens |
InternVL2 InternVL2.0在文档和图表理解、数理问题解决,以及集成多模态能力等方面表现出较强竞争力。 | |||||
基础模型版本 | 说明 | 训练方法 | 折后价 | 原价 | |
InternVL2.5-8B | 基于 InternVL 构建的先进多模式大型语言模型,保留了其核心模型架构,同时在训练和测试策略以及数据质量方面进行了显著的改进。 | 全量更新 |
0.0055元/千tokens |
0.011元/千tokens | |
LoRA |
0.004元/千tokens |
0.008元/千tokens | |||
InternVL2-2B | InternVL2-2B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2-chat-1_8b,参数规模达20亿。 该模型仅供研究使用,需要遵循模型许可。 | 全量更新 |
0.003元/千tokens |
0.006元/千tokens | |
LoRA |
0.0025元/千tokens |
0.005元/千tokens | |||
InternVL2-8B | InternVL2-8B使用8K上下文窗口进行训练,包含InternViT-300M-448px、MLP projector和internlm2_5-7b-chat,参数规模达80亿。 | 全量更新 |
0.0055元/千tokens |
0.011元/千tokens | |
LoRA |
0.004元/千tokens |
0.008元/千tokens |
Qwen-VL 引入了朴素动态分辨率机制,使模型能够将不同分辨率的图像动态处理成不同数量的视觉标记,重新定义了视觉处理中传统的预定分辨率方法。 | |||||
基础模型版本 | 说明 | 训练方法 | 折后价 | 原价 | |
Qwen2.5-VL-7B-Instruct | Qwen2.5-VL-7B在视觉理解、文档解析、视频理解等方面表现出色,具备强大的多模态能力。 | 全量更新 |
0.008元/千tokens |
0.016元/千tokens | |
LoRA |
0.005元/千tokens |
0.01元/千tokens | |||
Qwen2-VL-7B | Qwen2-VL-7B支持图像、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 | 全量更新 |
0.008元/千tokens |
0.016元/千tokens | |
LoRA |
0.005元/千tokens |
0.01元/千tokens | |||
Qwen2-VL-2B | Qwen2-VL-2B支持图像、多图、视频的输入,在更经济的规模上也实现了有竞争力的性能表现。 | 全量更新 |
0.0055元/千tokens |
0.011元/千tokens | |
LoRA |
0.0035元/千tokens |
0.007元/千tokens |
偏好对齐
偏好对齐训练分为RFT、KTO、SimPO、DPO和RLHF五种训练模式。
RFT
DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
DeepSeek-R1-Distill-Qwen-14B | DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 | PPO全量更新 |
0.05元/千tokens |
0.1元/千tokens | 0.2元/千tokens |
GRPO全量更新 |
0.025元/千tokens |
0.05元/千tokens | 0.1~~~~元/千tokens | ||
DeepSeek-R1-Distill-Qwen-7B | DeepSeek-R1-Distill-Qwen-7B是DeepSeek基于Qwen2.5-Math-7B蒸馏得到的。 | PPO全量更新 |
0.0375元/千tokens |
0.075元/千tokens | 0.15元/千tokens |
GRPO全量更新 |
0.0375元/千tokens |
0.075元/千tokens | 0.15元/千tokens |
Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Qwen2.5-7B-Instruct | 单条数据支持32k tokens。 | PPO全量更新 |
0.035元/千tokens |
0.07元/千tokens | 0.14元/千tokens |
GRPO全量更新 |
0.025元/千tokens |
0.05元/千tokens | 0.1元/千tokens | ||
QwQ-32B | 单条数据支持32k tokens。 | PPO全量更新 |
0.05元/千tokens |
0.1元/千tokens | 0.2元/千tokens |
GRPO全量更新 |
0.075元/千tokens |
0.15元/千tokens | 0.3元/千tokens |
KTO
ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-3.5-8K | 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 | 全量更新 |
0.0175元/千tokens |
0.035元/千tokens | 0.07元/千tokens |
LoRA |
0.0125元/千tokens |
0.025元/千tokens | 0.05元/千tokens |
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens | ||
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens | ||
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
0.0175元/千tokens |
0.035元/千tokens | 0.07元/千tokens |
LoRA |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens | ||
ERNIE-Character-8K-0321 | 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
SimPO
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.0175元/千tokens |
0.035元/千tokens | 0.07元/千tokens |
LoRA |
0.0125元/千tokens |
0.025元/千tokens | 0.05元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
DPO
ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-4.0-Turbo-8K | 单条数据支持8k tokens。该模型在性能和效果上表现优异。 | 全量更新 |
0.1元/千tokens |
0.2元/千tokens | 0.4元/千tokens |
ERNIE-4.0-Turbo-128K | 单条数据支持32k tokens。该模型在性能和效果上表现优异。 | 全量更新 |
0.1元/千tokens |
0.2元/千tokens | 0.4元/千tokens |
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-3.5-8K | 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 | 全量更新 |
0.025元/千tokens |
0.05元/千tokens | 0.1元/千tokens |
LoRA |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
0.0175元/千tokens |
0.035元/千tokens | 0.07元/千tokens |
LoRA |
0.0125元/千tokens |
0.025元/千tokens | 0.05元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 | 全量更新 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-8K-250124 | 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens | ||
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
0.015元/千tokens |
0.03元/千tokens | 0.06元/千tokens |
ERNIE-Character-8K-0321 | 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 | 全量更新 |
0.0075元/千tokens |
0.015元/千tokens | 0.03元/千tokens |
LoRA |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
ERNIE Code ERNIE Code是百度自研的代码专精大模型,支持 600+ 种编程语言,在 Go、Java、Python、CPP 等头部语言上优势显著。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Code3-128K | 单条数据支持128k tokens。支持代码续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、动作预测等多项编程相关能力。 | 全量更新 |
0.00325元/千tokens |
0.0065元/千tokens | 0.013元/千tokens |
LoRA |
0.003元/千tokens |
0.006元/千tokens | 0.012元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
0.0025元/千tokens |
0.005元/千tokens | 0.01元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
0.002元/千tokens |
0.004元/千tokens | 0.008元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
DeepSeek DeepSeek是杭州深度求索人工智能基础技术研究有限公司研发的通用AI模型。在知识问答、代码生成、数学计算等方面具备优秀的能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
DeepSeek-R1 | 单条数据支持8k tokens。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 | ||||
LoRA |
0.3元/千tokens |
0.6元/千tokens | 1.2元/千tokens | ||
DeepSeek-R1-Distill-Qwen-14B | 单条数据支持32k tokens。DeepSeek-R1-Distill-Qwen-14B是DeepSeek基于Qwen2.5-14B蒸馏得到的。 | 全量更新 |
0.005元/千tokens |
0.01元/千tokens | 0.02元/千tokens |
LoRA |
0.00375元/千tokens |
0.0075元/千tokens | 0.015元/千tokens |
Qianfan Qianfan是千帆大模型平台推出的大模型,在通用和垂类场景中进一步增强。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Qianfan-Sug | 单条数据支持8192 tokens。Qianfan-Sug是千帆大模型平台下的一款对话预测模型,能够基于对话上下文精准识别用户意图,并智能推测用户接下来的可能提问。 | 全量更新 |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
LoRA |
0.00075元/千tokens |
0.0015元/千tokens | 0.003元/千tokens |
Llama Meta AI推出的开源大语言模型。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Meta-Llama-3.1-8B | 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Baichuan2-7B-Chat | 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 | 全量更新 |
0.0015元/千tokens |
0.003元/千tokens | 0.006元/千tokens |
LoRA |
0.001元/千tokens |
0.002元/千tokens | 0.004元/千tokens |
Qwen Qwen系列包含了一些基础大语言模型和指令调优大语言模型,增强了AI推理能力,参数从5亿到720亿不等。 基础模型版本 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
Qwen2.5-14B-Instruct | 单条数据支持32k tokens。在编程能力和数学能力方面有大幅提升。在指令执行、生成长文本、理解结构化数据(例如表格)以及生成结构化输出特别是 JSON 方面取得了显著改进。 | 全量更新 |
0.00325元/千tokens |
0.0065元/千tokens | 0.013元/千tokens |
LoRA |
0.00225元/千tokens |
0.0045元/千tokens | 0.009元/千tokens |
RLHF
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 奖励模型训练 |
0.0065元/千tokens |
0.013元/千tokens | 0.026元/千tokens |
强化学习训练 |
0.05元/千tokens |
0.1元/千tokens | 0.2元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 奖励模型训练 |
0.00125元/千tokens |
0.0025元/千tokens | 0.005元/千tokens |
强化学习训练 |
0.01元/千tokens |
0.02元/千tokens | 0.04元/千tokens |
特别注意:强化学习计算公式为以下:
训练总价(最高) = (训练集tokens) x epoch(迭代轮次) x token单价