简介:本教程详细讲解在 Windows 系统中安装 Docker 和 Ollama 的步骤,并通过 Open WebUI 实现 DeepSeek-V3 大模型的本地化部署,涵盖环境配置、容器管理及模型调用的完整流程。
[✓] 启用 WSL 2 后端[✓] 添加桌面快捷方式[✓] 开机自动启动 Docker 服务
docker --versiondocker run hello-world
若显示”已禁用”,需进入 BIOS 开启虚拟化选项
systeminfo | find "Hyper-V 要求"
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
docker exec -it ollama ollama pull deepseek-ai/deepseek-v3
docker exec -it ollama ollama run deepseek-v3 "请用中文回答:人工智能是什么?"
docker run -d \--network=host \-v open-webui:/app/backend/data \--name open-webui \--restart always \ghcr.io/open-webui/open-webui:main
| 参数 | 说明 |
|---|---|
-e OLLAMA_API_BASE_URL |
指向 Ollama 服务地址(默认 http://localhost:11434) |
-e WEBUI_SECRET_KEY |
建议设置复杂字符串增强安全性 |
-v 挂载点 |
持久化保存聊天记录和配置 |
ollama pull deepseek-v3:q4_0
docker exec -it open-webui bash -c "python ./scripts/initial_setup.py"
通过 WebUI 发送请求:
请用 Python 实现快速排序算法,要求添加中文注释
分析上传的 PDF 文档(合同文本),提取关键条款并生成摘要
| 错误码 | 解决方案 |
|---|---|
| 503 Service Unavailable | 检查 Ollama 容器是否正常运行 |
| CUDA out of memory | 降低模型量化等级或减少并发请求 |
| WSL 分配失败 | 执行 wsl --shutdown 后重启服务 |
docker logs -f ollama # 实时查看 Ollama 日志docker exec open-webui cat /app/logs/app.log # 查看 WebUI 日志
http://localhost:11434/api/generate 对接自有应用注:所有操作需在管理员权限的 PowerShell 中执行,建议使用 Windows Terminal 获得最佳体验。本教程已验证适用于 DeepSeek-V3 的 2024-06 发布版本,模型下载约需 30-60 分钟(视网络情况而定)。