创建模型精调任务
更新时间:2024-04-19
功能介绍
用于创建模型精调任务。
注意事项
调用本文API,需使用安全认证AK/SK鉴权,调用流程及鉴权介绍详见SDK安装及使用流程。
调用示例
import os
from qianfan import resources
# 使用安全认证AK/SK鉴权,通过环境变量方式初始化;替换下列示例中参数,安全认证Access Key替换your_iam_ak,Secret Key替换your_iam_sk
os.environ["QIANFAN_ACCESS_KEY"] = "your_iam_ak"
os.environ["QIANFAN_SECRET_KEY"] = "your_iam_sk"
resp = resources.FineTune.V2.create_task(
job_id="job-6ucxxxck8q0",
params_scale="FullFineTuning",
hyper_params={
"epoch": 1,
"learningRate": 0.00003,
"maxSeqLen": 4096
},
dataset_config={
"sourceType": "Platform",
"versions": [{
"versionId": "ds-xxxxxxx"
}],
"splitRatio": 20
},
)
print(resp)
返回示例
QfResponse(
code=200,
headers={...},
body={
"requestId": "81067d4d-c36b-49b2-b2df-87dc9f0b019e",
"result": {"jobId": "job-6ucxxxck8q0", "taskId": "task-2js67xxxi9a"},
},
)
参数说明
请求参数
名称 | 类型 | 必填 | 描述 |
---|---|---|---|
jobId | string | 是 | 作业ID,说明: (1)该参数只支持Post-pretrain、SFT 下的训练任务 (2)可以通过以下方式获取该参数值,以SFT为例,在千帆控制台-模型精调页面,查看ID,如下图所示: |
incrementTaskId | string | 否 | 基础任务ID,说明: (1)如果是增量训练,该字段必传 (2)传了该字段,默认走增量训练 (3)基础任务的模型类型要和作业一致 (4)自定义模型作业不支持增量训练 |
params_scale | string | 否 | 调优的参数规模,说明: (1)对话类 · 模型为ERNIE-Tiny-8K、Mixtral-8x7B、ChatGLM2-6B-32K、Custom-Model(自定义模型),该参数值为FullFineTuning · 其他模型,该字段值可选值为FullFineTuning、LoRA (2)图像类 · 当模型为WENXIN-YIGE,该参数为固定值FullFineTuning · 当模型为Stable-Diffusion-XL-Base-1.0,该参数为固定值LoRA |
hyper_params | Dict[str, Any] | 是 | 超参数配置,说明:该参数取值,请参考本文模型支持情况 |
dataset_config | Dict[str, Any] | 是 | 数据集配置 |
modelConfig | Dict | 否 | 模型配置,说明:只支持自定义模型作业,此时该参数必传 |
datasetConfig说明
名称 | 类型 | 必填 | 描述 |
---|---|---|---|
sourceType | string | 是 | 数据来源,可选值: · Platform · Bos |
versions | List<datasetVersion> | 是 | 数据集版本列表,说明:可以通过以下方法获取该数据版本值: 在千帆控制台-数据集管理页面,查看某数据集版本,如下图所以: |
splitRatio | double | 是 | 数据拆分比例,取值范围:[0,20] |
corpusProportion | string | 否 | 混合训练,通用语料库:用户数据 说明: (1)仅对话续写类型支持 (2)可选值: · 1:5 · 1:2 · 1:1 · 2:1 · 5:1 |
datasetVersion说明
名称 | 类型 | 必填 | 描述 |
---|---|---|---|
versionId | string | 否 | 数据集版本ID,说明: (1) 当sourceType为Platform时,该字段必传 (2) 数据集必须是已发布的数据集 (3)可以通过以下方法获取该字段值,在千帆控制台-数据集管理页面,查看某数据集版本ID,如下图所示: |
versionBosUri | string | 否 | 数据集版本bos地址,说明: (1) 当sourceType为Bos时,该字段必传 |
modelConfig说明
名称 | 类型 | 必填 | 描述 |
---|---|---|---|
modelId | string | 是 | 模型ID |
modelVersionId | string | 是 | 模型版本ID |
hyper_params说明
名称 | 类型 | 必填 | 描述 |
---|---|---|---|
epoch | int | 否 | 迭代轮次,说明:该字段取值详情参考本文模型支持情况 |
learningRate | float | 否 | 学习率,说明:该字段取值详情参考本文模型支持情况 |
batchSize | int | 否 | 批处理大小,说明:该字段取值更多详情参考本文模型支持情况 |
maxSeqLen | int | 否 | 序列长度,说明:该字段取值更多详情参考本文模型支持情况 |
loggingSteps | int | 否 | 保存日志间隔,说明: (1)当为以下情况,该字段必填: · model为ERNIE-Speed-8K,且trainMode为SFT · model为ERNIE-Lite-8K-0922,且trainMode为SFT · model为ERNIE-Lite-8K-0308,且trainMode为SFT · model为ERNIE-Tiny-8K,且trainMode为SFT (2)取值范围[1, 100],默认值为1 |
warmupRatio | float | 否 | 预热比例,说明:该字段取值更多详情参考本文模型支持情况 |
weightDecay | float | 否 | 正则化系数,说明:该字段取值更多详情参考本文模型支持情况 |
loraRank | int | 否 | LoRA 策略中的秩,说明:该字段取值更多详情参考本文模型支持情况 |
loraAlpha | int | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
loraAllLinear | string | 否 | LoRA 所有线性层,说明:该字段取值更多详情参考本文模型支持情况 |
loraTargetModules | string[] | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
loraDropout | float | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
schedulerName | string | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
Packing | bool | 否 | 可选值:true 或 false,默认值false,说明:该字段取值更多详情参考本文模型支持情况 |
gradientAccumulationSteps | int | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
pseudoSamplingProb | float | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
checkpointCount | int | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
saveStep | int | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
dpoBeta | float | 否 | 说明:该字段取值更多详情参考本文模型支持情况 |
模型支持情况
对话续写-文本生成
- 对话续写类
model | trainMode | parameterScale | hyperParameterConfig |
---|---|---|---|
ERNIE-Speed-8K | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 LoRA:[0.00003,0.001],默认值0.0003 (3)maxSeqLen: 单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.0001 (7)gradientAccumulationSteps:[0,32],默认值0 (8)pseudoSamplingProb:[0,1],默认值0 (9)仅LoRA支持: loraRank: 单选,2 或 4 或 8,默认为8 loraAllLinear: 单选,True 或 False,默认为True |
ERNIE-Speed-8K | PostPretrain | - | (1)epoch:[1,10],默认值1 (2)learningRate:[0.00001,0.00004],默认值0.00003 (3)maxSeqLen: 单选,4096 或 8192,默认值4096 |
ERNIE-Speed-8K | DPO | - | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000001,0.00001],默认值0.000001 (3)maxSeqLen:单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)dpoBeta:[0.01,1],默认值0.1 |
ERNIE-Lite-8K-0308 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 (3) LoRA:[0.00003,0.001],默认值0.0003 (4)maxSeqLen: 单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (5)loggingSteps:[1,100],默认值1 (6)warmupRatio:[0.01,0.5],默认值0.1 (7)weightDecay:[0.0001,0.1],默认值0.01 (8)gradientAccumulationSteps:[0,32],默认值0 (9)pseudoSamplingProb:[0,1],默认值0 (10)仅LoRA支持: loraRank: 单选,2 或 4 或 8,默认为8 loraAllLinear: 单选,True 或 False,默认为True |
ERNIE-Lite-8K-0308 | DPO | - | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000001,0.00001],默认值0.000001 (3)maxSeqLen:单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)dpoBeta:[0.01,1],默认值0.1 |
ERNIE-Lite-8K-0704 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 LoRA:[0.00003,0.001],默认值0.0003 |
ERNIE-Lite-8K-0725 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 LoRA:[0.00003,0.001],默认值0.0003 (3)maxSeqLen: 单选,4096 或 8192,默认值4096 |
ERNIE-Lite-8K-0922 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 LoRA:[0.00003,0.001],默认值0.0003 (3)maxSeqLen: 单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)gradientAccumulationSteps:[0,32],默认值0 (8)仅LoRA支持: loraRank: 单选,2 或 4 或 8,默认为8 loraAllLinear: 单选,True 或 False,默认为True |
ERNIE-Lite-8K-0922 | PostPretrain | - | (1)epoch:[1,10],默认值1 (2)learningRate:[0.00001,0.00004],默认值0.00003 (3)maxSeqLen: 单选,4096 或 8192,默认值4096 |
ERNIE-Character-8K-0321 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2) learningRate: FullFineTuning:[0.000001,0.001],默认值0.0003 (3)maxSeqLen:单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)gradientAccumulationSteps:[0,32],默认值0 (8)pseudoSamplingProb:[0,1],默认值0 (9)仅FullFineTuning支持: checkpointCount:[1,10],默认值1 saveStep:64 或 128 或 256 或 512 或 1024 或 2048 或 4096,默认值256 (10)仅LoRA支持: loraRank:单选,2 或 4 或 8,默认为8 loraAllLinear:单选,True 或 False,默认为True |
ERNIE-Tiny-8K | SFT | FullFineTuning | (1)epoch:[1,50],默认值1 (2)learningRate: FullFineTuning:[0.00001,0.00004],默认值0.00003 (3)maxSeqLen: 单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)gradientAccumulationSteps:[0,32],默认值0 (8)pseudoSamplingProb:[0,1],默认值0 |
ERNIE-Tiny-8K | DPO | - | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000001,0.00001],默认值0.000001 (3)maxSeqLen:单选,512 或 1024 或 2048 或 4096 或 8192,默认值4096 (4)loggingSteps:[1,100],默认值1 (5)warmupRatio:[0.01,0.5],默认值0.1 (6)weightDecay:[0.0001,0.1],默认值0.01 (7)dpoBeta:[0.01,1],默认值0.1 |
Meta-Llama-3-8B | SFT | FullFineTuning | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,2],默认值1 |
Qianfan-Chinese-Llama-2-7B | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Qianfan-Chinese-Llama-2-7B-32K | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值3 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,4096 或 8192 或 16384 或 32768,默认值32768 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Qianfan-Chinese-Llama-2-13B-v1 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen:单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Qianfan-Chinese-Llama-2-13B-v1 | PostPretrain | - | (1)epoch:1 (2)learningRate:[0.0000002,0.0002],默认值0.00002 (3)batchSize:[48,960],默认值192 (4)weightDecay:[0.0001,0.05],默认值0.01 (5)checkpointCount:[1,10],默认值1 (6)saveStep:[64,8192],默认值256 |
Qianfan-Chinese-Llama-2-13B-v2 | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen:单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Mixtral-8x7B | SFT | FullFineTuning | (1)epoch:[1,20],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 |
SQLCoder-7B | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
ChatGLM2-6B-32K | SFT | FullFineTuning | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:1Packing:布尔值,true 或 false,默认值false (4)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (5)warmupRatio:[0.01,0.1],默认值0.03 (6)weightDecay:[0.001,1],默认值0.01 (7)maxSeqLen: 单选,4096 或 8192 或 16384 或 32768,默认值32768 (8)checkpointCount:[1,10],默认值1 (9)saveStep:[64,4096],默认值256 |
ChatGLM2-6B | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Baichuan2-7B-Chat | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1Packing:布尔值,true 或 false,默认值false (4)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (5)warmupRatio:[0.01,0.1],默认值0.03 (6)weightDecay:[0.001,1],默认值0.01 (7)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (8)checkpointCount:[1,10],默认值1 (9)saveStep:[64,4096],默认值256 (10)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
Baichuan2-13B-Chat | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
BLOOMZ-7B | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)checkpointCount:[1,10],默认值1 (9)saveStep:[64,4096],默认值256 (10)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 |
CodeLlama-7B | SFT | FullFineTuning、LoRA | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)batchSize:[1,4],默认值1 (4)Packing:布尔值,true 或 false,默认值false (5)schedulerName: 单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (6)warmupRatio:[0.01,0.1],默认值0.03 (7)weightDecay:[0.001,1],默认值0.01 (8)maxSeqLen: 单选,512 或 1024 或 2048 或 4096,默认值4096 (9)checkpointCount:[1,10],默认值1 (10)saveStep:[64,4096],默认值256 (11)仅LoRA支持: loraRank: 单选,8 或 16 或 32 或 64,默认值32 loraAlpha: 单选,8 或 16 或 32 或 64,默认值32 loraDropout:[0.01,0.5],默认值0.1 loraTargetModules: 多选,self_attn.q_proj、self_attn.k_proj、self_attn.v_proj、self_attn.o_proj、mlp.gate_proj、mlp.up_proj、mlp.down_proj,默认值self_attn.q_proj + self_attn.v_proj |
Custom-Model(自定义模型) | SFT | FullFineTuning | (1)epoch:[1,50],默认值1 (2)learningRate:[0.0000000001,0.0002],默认值0.000001 (3)schedulerName:单选,linear 或 cosine 或 polynomial 或 constant 或 constant_with_warmup,默认值cosine (4)warmupRatio:[0.01,0.1],默认值0.03 (5)weightDecay:[0.001,1],默认值0.01 |
文生图
model | trainMode | parameterScale | hyperParameterConfig |
---|---|---|---|
WENXIN-YIGE | SFT | FullFineTuning | epoch:[1,100],默认值20 learningRate:[0.00000001,0.01],默认值0.00001 batchSize:[1,8],默认值8 |
Stable-Diffusion-XL-Base-1.0 | SFT | LoRA | epoch:[1,100],默认值20 learningRate:[0.00001,0.0001],默认值0.00005 batchSize:[2,8],默认值8 |
返回参数
名称 | 类型 | 描述 |
---|---|---|
requestId | string | 请求ID |
result | object | 请求结果 |
result说明
名称 | 类型 | 描述 |
---|---|---|
jobId | string | 作业ID |
taskId | string | 任务ID |