简介:本文详细指导Windows用户在本地通过Docker与Ollama部署DeepSeek模型,结合Open WebUI实现可视化交互,覆盖环境配置、模型加载及界面定制全流程。
本地部署DeepSeek需满足基础硬件条件:建议使用NVIDIA显卡(CUDA支持)或配备足够内存的CPU(推荐16GB以上)。Windows系统需为Windows 10/11专业版或企业版(家庭版可能因Hyper-V限制导致Docker兼容性问题)。通过系统信息查看处理器型号,在NVIDIA官网确认显卡CUDA版本,确保与后续Docker镜像兼容。
Use WSL 2 instead of Hyper-V(需提前启用WSL 2:wsl --set-default-version 2)。docker run hello-world,看到欢迎信息即表示成功。常见问题处理:
wsl --shutdown后重启Docker服务。性能选项卡确认虚拟化已激活。创建专用网络供DeepSeek服务使用:
docker network create deepseek-net
配置持久化存储卷,避免容器重启后数据丢失:
docker volume create deepseek-data
在后续容器启动时通过-v deepseek-data:/data挂载卷。
ollama pull deepseek-ai/deepseek-r1:7b
ollama run deepseek-ai/deepseek-r1:7b "用一句话描述量子计算"
模型版本选择建议:
启动Ollama API服务(默认端口11434):
ollama serve
测试API连通性:
curl http://localhost:11434/api/generate -d '{"model":"deepseek-ai/deepseek-r1:7b","prompt":"解释光合作用"}'
git clone https://github.com/open-webui/open-webui.gitcd open-webui
config.yaml,指定Ollama API地址:
ollama:url: "http://host.docker.internal:11434"
docker compose -f docker-compose.yml up -d
static/css目录下修改theme.css。plugins目录创建自定义路由。models.py,添加不同参数的DeepSeek版本。使用nvidia-smi(GPU版)或htop(CPU版)监控资源占用。调整Ollama启动参数:
ollama serve --gpu-memory 10240 # 限制GPU显存使用
~/.ollama/models目录权限,确保有读写权限。docker-compose.yml中添加extra_hosts: ["host.docker.internal:host-gateway"]。
ollama pull deepseek-ai/deepseek-r1:7b-q4_0
本方案通过Docker容器化实现了DeepSeek的跨平台部署,结合Ollama的轻量级运行时与Open WebUI的可视化界面,显著降低了本地化LLM的使用门槛。未来可探索:
操作建议:初次部署时建议从7B模型开始,逐步升级;企业用户需重点关注数据安全与访问控制配置。