模型精调
模型精调是模型训练过程中,所选用的基础模型训练费用,包括Post-pretrain、SFT和偏好对齐等内容,您可点击右侧目录选择需要了解的训练方式。
模型训练价格限时5折优惠,文心大模型部分训练支持闲时调度,闲时调度限时免费。
Post-pretrain
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 0.004元/千tokens | 0.008元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 0.03元/千tokens | 0.06元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 0.015元/千tokens | 0.03元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 0.004元/千tokens | 0.008元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 0.0004元/千tokens | 0.0008元/千tokens |
ERNIE-Tiny-128K | 单条数据支持128k tokens。 | 0.003元/千tokens | 0.006元/千tokens |
Llama Meta AI推出的开源大语言模型。 | |||
基础模型版本 | 说明 | 现价(折后价) | 原价 |
Qianfan-Chinese-Llama2-13B-v1 | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 | 0.002元/千tokens | 0.004元/千tokens |
训练字符转换token系数为(0.5~0.8),详情计费可查看示例。
SFT
SFT模型训练分为文本生成、图像生成和图像理解三种作业类型。
SFT-文本生成
ERNIE 4.0 Turbo 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-4.0-Turbo-8K | 单条数据支持8192 tokens。该模型在性能和效果上表现优异。 | LoRA |
限时免费
|
0.1元/千tokens | 0.2元/千tokens |
ERNIE 3.5 ERNIE系列旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-3.5-8K | 单条数据支持8192 tokens。ERNIE 3.5 旗舰级⼤语⾔模型。 | 全量更新 |
限时免费
|
0.1元/千tokens | 0.2元/千tokens |
LoRA |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化,且扩展支持LoRA训练方法。 | 全量更新 |
限时免费
|
0.015元/千tokens | 0.03元/千tokens |
LoRA |
限时免费
|
0.01元/千tokens | 0.02元/千tokens | ||
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
LoRA |
限时免费
|
0.015元/千tokens | 0.03元/千tokens | ||
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。相比ERNIE-Character-8K-0321,在情节演绎和括号文学等指令遵循能力更强。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Character-8K-0321 | 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens | ||
ERNIE-Character-Fiction-8K-1028 | 剧情主动性、深度扮演能力、现代潮流度、边界安全问题的灵活度等能力得到增强,涵盖现代都市、古代武侠等的角色扮演场景也更加丰富。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
限时免费
|
0.005元/千tokens | 0.01元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
限时免费
|
0.004元/千tokens | 0.008元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens |
Llama Meta AI推出的开源大语言模型。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
Meta-Llama-3.2-1B-128K | 单条数据支持128k tokens。Meta-Llama-3.2-1B针对多语言文本对话进行了优化,包括代理检索和摘要任务,表现优于许多可用的开源和封闭聊天模型。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
Meta-Llama-3.1-8B | 单条数据支持8192tokens。Meta-Llama-3.1-8B是在15T+tokens上训练的80亿参数预训练大语言模型,推理效果整体优于同参数量级开源模型。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens | ||
Meta-Llama-3-8B | 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
Qianfan-Chinese-Llama-2-13B-v2 | 单条数据支持4096 tokens。千帆团队基于Llama2架构开发的130亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语。推理效果整体优于同参数量级开源模型。 | 全量更新 | 0.01元/千tokens | 0.02元/千tokens |
LoRA | 0.0075元/千tokens | 0.015元/千tokens | ||
Qianfan-Chinese-Llama-2-7B | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-7B,千帆团队在Llama-2-7b基础上的中文增强版本。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens | ||
Qianfan-Chinese-Llama-2-13B-v1 | 单条数据支持4096 tokens。Qianfan-Chinese-Llama-2-13B-v1,千帆团队在Llama-2-13b基础上的中文增强版本。 | 全量更新 | 0.01元/千tokens | 0.02元/千tokens |
LoRA | 0.0075元/千tokens | 0.015元/千tokens | ||
Qianfan-Chinese-Llama-2-7B-32K | 千帆团队在Qianfan-Chinese-Llama-2-7B基础上的增强版本,支持32K上下文。 | 全量更新 | 0.004元/千tokens | 0.008元/千tokens |
LoRA | 0.003元/千tokens | 0.006元/千tokens | ||
Qianfan-Chinese-Llama-2-1.3B | 单条数据支持4096 tokens。Meta-Llama-3-8B在通用能力、知识推理、阅读理解的行业基准测评上表现优异。 | 全量更新 | 0.002元/千tokens | 0.004元/千tokens |
Mixtral-8x7B 由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
Mixtral-8x7B | 单条数据支持32768 tokens。该版本为支持对话的微调版本。 | 全量更新 | 0.015元/千tokens | 0.03元/千tokens |
SQLCoder-7B 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
SQLCoder-7B | 单条数据支持4096 tokens。由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。使用Apache 2.0、CC-BY-SA-4.0协议。根据CC-BY-SA-4.0协议要求,您需要将修改后的模型权重在CC-BY-SA-4.0license中开源。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens |
ChatGLM 智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
ChatGLM3-6B | 单条数据支持4096 tokens。相比前两代,具备更强大的基础模型能力。目前仅支持Prompt+Response数据格式。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens | ||
ChatGLM2-6B-32K | 在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。 | 全量更新 | 0.004元/千tokens | 0.008元/千tokens |
ChatGLM2-6B | 单条数据支持4096 tokens。智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens |
Baichuan2 Baichuan2是百川智能推出的新一代开源大语言模型。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
Baichuan2-7B-Chat | 单条数据支持4096 tokens。Baichuan2-7B-Chat 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens | ||
Baichuan2-13B-Chat | 单条数据支持4096 tokens。Baichuan2-13B-Chat 采用2.6万亿Tokens的高质量语料训练。 | 全量更新 | 0.01元/千tokens | 0.02元/千tokens |
LoRA | 0.0075元/千tokens | 0.015元/千tokens |
BLOOM-7B 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
BLOOM-7B | 单条数据支持2048 tokens。 Qianfan-BLOOMZ-7B,千帆团队在由BigScience研发并开源的BLOOMZ-7B的基础上的中文增强版。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens |
CodeLlama 由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
CodeLlama-7B | 单条数据支持4096 tokens。由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解,模型参数规模为70亿。 | 全量更新 | 0.003元/千tokens | 0.006元/千tokens |
LoRA | 0.002元/千tokens | 0.004元/千tokens |
SFT中大模型训练字符转换token系数为(0.5~0.8)。
需注意:基于基础模型Meta-Llama-3-8B训练和Meta-Llama-3.1-8B全量更新产生的计费账单,将合并于Llama2-7B的训练模型的账单中,并非单独记账。
SFT-图像生成
按资源配置计费:
计费项目 | 说明 | 单价 |
模型精调资源实例 | 大模型公有云训练服务-按小时计费 |
(5折后)112元/小时 大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。 |
SFT-图像理解
按资源配置计费:
计费项目 | 说明 | 单价 |
模型精调资源实例 | 大模型公有云训练服务-按小时计费 |
(5折后)112元/小时 大模型训练模块会根据数据集大小,预估训练时长,其中最小计量粒度为0.01小时,不足0.01小时按0.01小时计算。 |
偏好对齐
偏好对齐训练分为KTO、SimPODPO和RLHF四种训练模式。
KTO
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.03元/千tokens | 0.06元/千tokens | ||
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.015元/千tokens | 0.03元/千tokens |
LoRA |
限时免费
|
0.01元/千tokens | 0.02元/千tokens | ||
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
限时免费
|
0.035元/千tokens | 0.07元/千tokens |
LoRA |
限时免费
|
0.03元/千tokens | 0.06元/千tokens | ||
ERNIE-Character-8K-0321 | 单条数据支持8192 tokens。2024年3月21日发布的初始版本。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
LoRA |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
限时免费
|
0.002元/千tokens | 0.004元/千tokens |
LoRA |
限时免费
|
0.002元/千tokens | 0.004元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
限时免费
|
0.004元/千tokens | 0.008元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens |
SimPO
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.035元/千tokens | 0.07元/千tokens |
LoRA |
限时免费
|
0.025元/千tokens | 0.05元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.015元/千tokens | 0.03元/千tokens |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
限时免费
|
0.005元/千tokens | 0.01元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
限时免费
|
0.004元/千tokens | 0.008元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens |
DPO
ERNIE Speed 百度自主研发的文心产业级知识增强大语言模型(高性能版),相较ERNIE Lite实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上有显著提升。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Speed-8K | 单条数据支持8192 tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE-Speed-Pro-128K | 单条数据支持128k tokens。模型基于海量高质量数据训练,具有更强的文本理解、内容创作、对话问答等能力。 | 全量更新 |
限时免费
|
0.035元/千tokens | 0.07元/千tokens |
LoRA |
限时免费
|
0.025元/千tokens | 0.05元/千tokens |
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.015元/千tokens | 0.03元/千tokens |
ERNIE-Lite-128K-0722 | 单条数据支持128k tokens。ERNIE-Lite-128K的最新版本,对效果和性能都进行了优化。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE-Lite-128K-0419 | 单条数据支持128k tokens。模型基于海量长文本数据训练,具有优秀的长文本创作能力。 | 全量更新 |
限时免费
|
0.02元/千tokens | 0.04元/千tokens |
ERNIE Character 百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Character-Fiction-8K | 单条数据支持8192 tokens。在情节演绎和括号文字等指令遵循能力上表现优异。 | 全量更新 |
限时免费
|
0.03元/千tokens | 0.06元/千tokens |
ERNIE Tiny 百度自研的超高性能大语言模型,精调成本在文心系列模型中最低。 | |||||
基础模型版本 | 说明 | 训练方法 | 闲时调度价 | 非闲时价(折后价) | 原价 |
ERNIE-Tiny-8K | 单条数据支持8192 tokens。 | 全量更新 |
限时免费
|
0.005元/千tokens | 0.01元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens | ||
ERNIE-Tiny-128K-0929 | 单条数据支持128k tokens。 | 全量更新 |
限时免费
|
0.004元/千tokens | 0.008元/千tokens |
LoRA |
限时免费
|
0.003元/千tokens | 0.006元/千tokens |
RLHF
ERNIE Lite 百度自主研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。 | ||||
基础模型版本 | 说明 | 训练方法 | 现价(折后价) | 原价 |
ERNIE-Lite-8K-0308 | 单条数据支持8192 tokens。ERNIE Lite的最新版本,对效果和性能都进行了优化。 | 奖励模型训练 | 0.013元/千tokens | 0.026元/千tokens |
强化学习训练 | 0.01元/千tokens | 0.02元/千tokens |
特别注意:强化学习计算公式为以下:
训练总价(最高) = (训练集tokens) x epoch(迭代轮次) x token单价
价格费用举例
训练数据:25800字符数;
文本生成模型训练公式为:
计算公式 =
(训练集tokens) x
epoch(迭代轮次) x
token单价
示例1:ERNIE Lite训练服务-SFT-全量更新
训练总价 = 训练集字符数 x 0.001(千位计算) x 字符转换token系数(0.5~0.8) x epoch(迭代轮次) x token单价
- 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.03 = 0.774~1.2384 元(原价)
模型训练限时5折优惠,以上示例现价为0.387~0.6192元。
示例2:大模型公有云训练服务-强化学习
- 预估价格(最高)计算方式为: (25800 + 1000 x 2048) x 0.001(千位计算) x 2(epoch迭代轮次) x 0.01 = 41.476 元
模型训练限时5折优惠,以上示例现价最高为165.904元。
示例3:ERNIE Lite训练服务-postpretrain
- 预估价格计算方式为: 25.8千字符数 x (0.5~0.8) x 2(epoch迭代轮次) x 0.004 = 0.1032~0.16512 元(原价)
模型训练限时5折优惠,以上示例现价为0.0516~0.08256元。