简介:本文详细介绍在Windows 11系统上通过Ollama框架部署DeepSeek大语言模型的完整流程,涵盖环境准备、依赖安装、模型加载及API调用等关键环节,为开发者提供可落地的技术实现方案。
Windows 11系统需满足以下基础条件:
winver命令验证)关键验证步骤:
# 验证系统版本[System.Environment]::OSVersion.Version# 输出应为Major=10, Minor≥22000# 检查CPU架构(必须为x64)[System.Environment]::Is64BitOperatingSystem
WSL2集成(非必需但推荐):
# 启用WSL功能dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestartdism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestartwsl --set-default-version 2
NVIDIA CUDA驱动(GPU加速场景):
nvcc --version# 应显示CUDA版本信息
下载安装包:
访问Ollama官方仓库获取Windows版安装程序
命令行安装(推荐):
# 以管理员身份运行PowerShellStart-Process -FilePath "ollama-setup.exe" -ArgumentList "/S" -Wait
验证安装:
# 检查服务状态Get-Service -Name "OllamaService"# 应显示Running状态# 测试基础命令ollama --version# 应返回版本号(如v0.1.15)
# 拉取DeepSeek-R1模型(以7B参数版本为例)ollama pull deepseek-ai/DeepSeek-R1:7b# 查看已下载模型ollama list# 输出应包含:# NAME SIZE CREATED# deepseek-ai... 8.1GB Jun 10 10:00
参数配置优化:
config.json(位于%APPDATA%\Ollama\models):
{"model": "deepseek-ai/DeepSeek-R1","parameters": {"temperature": 0.7,"top_k": 30,"max_tokens": 2048}}
基础运行:
ollama run deepseek-ai/DeepSeek-R1:7b
GPU加速运行(需NVIDIA显卡):
# 设置CUDA环境变量$env:CUDA_VISIBLE_DEVICES="0"ollama run --gpu deepseek-ai/DeepSeek-R1:7b
持久化服务:
# 创建系统服务(需管理员权限)New-Service -Name "DeepSeekService" -BinaryPathName "C:\Program Files\Ollama\ollama.exe serve --model deepseek-ai/DeepSeek-R1:7b" -DisplayName "DeepSeek LLM Service" -StartupType AutomaticStart-Service -Name "DeepSeekService"
import requestsurl = "http://localhost:11434/api/generate"headers = {"Content-Type": "application/json",}data = {"model": "deepseek-ai/DeepSeek-R1:7b","prompt": "解释量子计算的基本原理","stream": False}response = requests.post(url, headers=headers, json=data)print(response.json()["response"])
import requestsdef generate_stream():url = "http://localhost:11434/api/generate"headers = {"Content-Type": "application/json"}data = {"model": "deepseek-ai/DeepSeek-R1:7b","prompt": "写一首关于春天的诗","stream": True}with requests.post(url, headers=headers, json=data, stream=True) as r:for line in r.iter_lines():if line:print(line.decode("utf-8").strip())generate_stream()
内存管理:
--num-gpu参数限制GPU内存占用批处理优化:
# 启动时设置最大并发数ollama serve --max-concurrent-requests 4
模型量化(降低显存需求):
# 下载量化版本(需官方支持)ollama pull deepseek-ai/DeepSeek-R1:7b-q4_0
端口冲突:
netstat -ano | findstr 11434检查占用ollama serve --api-port 8080模型加载失败:
ollama rm deepseek-ai/DeepSeek-R1:7bCUDA错误处理:
企业级部署架构:
与现有系统集成:
// C#调用示例using var client = new HttpClient();var response = await client.PostAsync("http://localhost:11434/api/generate",new StringContent("{\"model\":\"deepseek-ai/DeepSeek-R1:7b\",\"prompt\":\"生成周报\"}",Encoding.UTF8,"application/json"));Console.WriteLine(await response.Content.ReadAsStringAsync());
模型微调:
--train参数启动微调任务本教程完整覆盖了从环境搭建到生产部署的全流程,开发者可根据实际需求调整参数配置。建议首次部署时先使用7B参数版本验证基础功能,再逐步扩展至更大规模的模型。对于企业用户,建议结合Kubernetes实现容器化部署以提高资源利用率。