简介:无需编程基础,本文将通过分步指南和详细说明,帮助零基础用户完成DeepSeek在本地D盘的安装与配置,涵盖环境准备、依赖安装、模型下载及启动验证全流程。
DeepSeek作为一款开源的AI推理框架,其本地部署的优势在于隐私安全(数据不出本地)、定制化开发(自由调整模型参数)和无网络依赖(适合离线场景)。对于零基础用户而言,本地安装避免了云端服务的复杂权限配置,且D盘存储可减少系统盘压力,尤其适合数据量较大的模型训练场景。
python --version,显示版本即成功。C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8)。在D盘根目录新建DeepSeek文件夹,内部再创建models(存放模型文件)、data(输入数据)、output(输出结果)三个子文件夹,便于后续管理。
通过Python包管理工具pip安装官方库:
pip install deepseek-ai -i https://pypi.tuna.tsinghua.edu.cn/simple # 使用清华镜像加速
若遇到权限问题,可添加--user参数安装到用户目录。
DeepSeek提供多种规模的预训练模型(如7B、13B参数版本),推荐从官方GitHub仓库或Hugging Face下载:
# 示例:下载7B模型到D盘models文件夹git lfs install # 启用Git大文件支持cd D:\DeepSeek\modelsgit clone https://huggingface.co/deepseek-ai/deepseek-7b .
注:模型文件较大(约14GB),需确保网络稳定。
若使用GPU,需设置CUDA路径:
CUDA_PATH,值为C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.8。Path变量中添加%CUDA_PATH%\bin和%CUDA_PATH%\libnvvp。进入DeepSeek安装目录,运行启动脚本:
cd D:\DeepSeekpython -m deepseek.server --model_path D:\DeepSeek\models\deepseek-7b --port 8000
参数说明:
--model_path:指定模型文件路径。--port:设置服务端口(默认8000)。--device:可选cpu或cuda(GPU加速)。打开浏览器输入http://localhost:8000,若看到API文档页面,说明服务已启动。
使用Python发送简单请求验证:
import requestsurl = "http://localhost:8000/v1/chat/completions"headers = {"Content-Type": "application/json"}data = {"model": "deepseek-7b","messages": [{"role": "user", "content": "你好,DeepSeek!"}],"temperature": 0.7}response = requests.post(url, json=data, headers=headers)print(response.json()["choices"][0]["message"]["content"])
若返回类似“你好!我是DeepSeek,有什么可以帮你的吗?”的回复,则安装成功。
若安装时提示torch版本不兼容,可指定版本重装:
pip install torch==2.0.1 torchvision==0.15.2 -f https://download.pytorch.org/whl/cu118/torch_stable.html
降低batch_size参数或切换至CPU模式:
python -m deepseek.server --device cpu
修改启动脚本中的端口号(如8001),并确保防火墙允许该端口通信。
bitsandbytes库将模型量化为4/8位,减少显存占用(需修改启动参数--load_in_8bit)。--log_path D:\DeepSeek\logs,便于排查问题。通过本文的步骤,零基础用户也能在D盘完成DeepSeek的本地部署。关键点在于:
遇到问题时,可优先检查环境变量、依赖版本和端口占用情况。本地部署后,用户可自由探索模型微调、API开发等高级功能,真正实现AI技术的自主掌控。