快速导入deepseek V2模型
更新时间:2024-09-19
本平台支持您导入deepseek V2模型,需要您将模型文件上传至BOS平台,请您提前开通BOS。
基本信息
首先,需要您登录本平台,在左侧功能列选择我的模型,直接创建模型,填写下图所示的基本信息。

其中,模型类型要选择文本生成。
模型配置
- 进入模型配置模块,需要您在Bucket地址选择模型文件的文件夹,其余填写如下图所示:

其中,Prompt拼接规范选择选择平台预置,样例如下所示,具体填写配置可参考配置字段说明。
当前问题拼接规范:
[Round {round}]\n\n问:{question}\n\n答:
历史问答拼接规范:
[Round {round}]\n\n问:{question}\n\n答:{answer}\n\n
Prompt模版:
{input}
[Round {round}]\n\n问:{question}\n\n答:
历史问答拼接规范:
[Round {round}]\n\n问:{question}\n\n答:{answer}\n\n
Prompt模版:
{input}
- 拼接规范选择平台预置规范即可,并打开高级配置按钮,填写以下信息:

- 在选择上传py文件时,文件内容可参考以下内容,其他模型样例可查看自定义配置介绍。
Python
1# !/usr/bin/env python3
2# -*- coding: utf-8 -*-
3from transformers import AutoModelForCausalLM, GenerationConfig
4import torch
5
6def load_model(model_path, **kwargs):
7 max_memory = {i: "75GB" for i in range(8)}
8 model = AutoModelForCausalLM.from_pretrained(model_path, trust_remote_code=True, device_map="sequential", torch_dtype=torch.bfloat16, max_memory=max_memory, attn_implementation="eager")
9 model.generation_config = GenerationConfig.from_pretrained(model_path)
10 model.generation_config.pad_token_id = model.generation_config.eos_token_id
11 return model
- 推理参数配置,选择默认即可,具体参数定义可查看推理参数配置。
- 以上内容填写完成,即可确认导入。
查看模型导入
1.在我的模型任务列,可查看到本模型。

- 选择操作列的详情按钮,即可查看本模型版本的导入状态,当状态为就绪时,则表示模型导入成功。

- 模型导入成功后的其他相关操作,您可查看查看与管理我的模型。
