简介:本文为AI初学者提供了一套完整的DeepSeek模型本地部署方案,涵盖Python环境配置、模型下载、依赖安装、Web UI启动等全流程操作,特别针对D盘安装场景进行优化,帮助零基础用户快速搭建本地AI交互环境。
DeepSeek模型对硬件有一定要求,建议配置:
⚠️ 注意:若使用NVIDIA显卡,需确保CUDA驱动已安装(非必须但可加速推理)
python --version,应显示版本号
# 在D盘创建项目目录mkdir D:\DeepSeekcd D:\DeepSeek# 创建虚拟环境(避免污染系统环境)python -m venv venv# 激活虚拟环境.\venv\Scripts\activate
激活后命令行前缀应显示(venv)
推荐从HuggingFace获取官方模型:
下载方式:
git lfs installgit clone https://huggingface.co/deepseek-ai/DeepSeek-V2 D:\DeepSeek\model
解压后应包含以下核心文件:
D:\DeepSeek\model\├── config.json # 模型配置文件├── pytorch_model.bin # 模型权重文件└── tokenizer.json # 分词器配置
在激活的虚拟环境中执行:
pip install torch transformers fastapi uvicorn[standard]
关键库说明:
pip list | findstr "torch transformers fastapi"
建议版本:
from fastapi import FastAPIfrom transformers import AutoModelForCausalLM, AutoTokenizerimport uvicornapp = FastAPI()# 加载模型(首次运行会下载依赖文件)model = AutoModelForCausalLM.from_pretrained("D:/DeepSeek/model")tokenizer = AutoTokenizer.from_pretrained("D:/DeepSeek/model")@app.post("/chat")async def chat(prompt: str):inputs = tokenizer(prompt, return_tensors="pt")outputs = model.generate(**inputs, max_length=200)return {"response": tokenizer.decode(outputs[0], skip_special_tokens=True)}if __name__ == "__main__":uvicorn.run(app, host="0.0.0.0", port=8000)
<!DOCTYPE html><html><head><title>DeepSeek Web UI</title><style>body { max-width: 800px; margin: 0 auto; padding: 20px; }#chat { height: 400px; border: 1px solid #ccc; padding: 10px; }button { padding: 8px 16px; background: #007bff; color: white; border: none; }</style></head><body><h1>DeepSeek交互界面</h1><div id="chat"></div><input type="text" id="prompt" style="width: 70%; padding: 8px;"><button onclick="send()">发送</button><script>async function send() {const prompt = document.getElementById("prompt").value;const response = await fetch("http://localhost:8000/chat", {method: "POST",headers: { "Content-Type": "application/json" },body: JSON.stringify({ prompt })});const data = await response.json();document.getElementById("chat").innerHTML += `<p><strong>你:</strong>${prompt}</p><p><strong>AI:</strong>${data.response}</p>`;}</script></body></html>
python app.py
index.html(建议使用VS Code的Live Server插件)CUDA out of memory或OOMmax_length参数(建议100-200)/而非反斜杠\bitsandbytes库进行4/8位量化quant_config = BitsAndBytesConfig(load_in_4bit=True)
model = AutoModelForCausalLM.from_pretrained(
“D:/DeepSeek/model”,
quantization_config=quant_config
)
```
asyncio提升并发能力通过本教程,即使是编程新手也能在D盘完成DeepSeek的完整部署。建议从轻量版模型开始测试,逐步掌握各组件的工作原理。遇到问题时,可优先检查虚拟环境激活状态和模型路径配置。