简介:本文为零基础用户提供DeepSeek在Windows系统(D盘安装)的完整部署指南,涵盖环境配置、依赖安装、代码部署及Web UI访问全流程,包含详细步骤说明和常见问题解决方案。
DeepSeek模型对硬件有一定要求,建议使用:
若硬件不达标,可选择轻量级模型版本或使用云服务器部署。
python --version,确认显示版本号。
conda create -n deepseek python=3.9conda activate deepseek
若需GPU加速:
nvcc --version # 检查CUDApython -c "import torch; print(torch.cuda.is_available())" # 检查PyTorch GPU支持
deepseek-model.zip)。deepseek文件夹。D:\deepseek\model。在conda虚拟环境中执行:
pip install torch transformers fastapi uvicorn[standard]# 若使用GPU,替换为GPU版torch# pip install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu117
创建D:\deepseek\deploy.py,内容如下:
from fastapi import FastAPIfrom transformers import AutoModelForCausalLM, AutoTokenizerimport uvicornapp = FastAPI()model_path = "D:/deepseek/model"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path)@app.get("/generate")async def generate(prompt: str):inputs = tokenizer(prompt, return_tensors="pt")outputs = model.generate(**inputs, max_length=100)return {"response": tokenizer.decode(outputs[0], skip_special_tokens=True)}if __name__ == "__main__":uvicorn.run(app, host="0.0.0.0", port=8000)
在命令提示符中执行:
cd D:\deepseekpython deploy.py
看到Uvicorn running on http://0.0.0.0:8000即表示服务启动成功。
D:\deepseek\web。
cd D:\deepseek\webnpm install
修改D:\deepseek\web\src\config.js,将API_URL改为http://localhost:8000。
npm run dev
浏览器会自动打开http://localhost:3000,若未打开,手动访问该地址。
deploy.py中的port参数(如8001)。
netstat -ano | findstr :8000taskkill /PID <PID> /F
max_length参数值。deploy.py中模型加载代码)。config.js中的API_URL与后端地址一致。bitsandbytes库进行4/8位量化,减少显存占用。logging模块记录请求日志,便于排查问题。通过本文,您已掌握:
下一步可探索:
如有疑问,可查阅DeepSeek官方文档或加入技术论坛交流。祝您部署顺利!”