简介:本文提供零基础用户如何在Windows系统下,通过Ollama运行DeepSeek-R1模型并接入ChatBox的完整离线部署方案,涵盖环境配置、模型加载、界面交互全流程。
nvidia-smi命令验证),或启用CPU模式(需AMD/Intel支持AVX2指令集)。
ollama --version# 应输出类似:ollama version 0.3.12
.exe安装包。7B或1.5B版本(根据硬件选择)。.bin或.safetensors格式)至U盘,文件名示例:deepseek-r1-7b.bin。
C:\Users\<用户名>\.ollama\models\
deepseek-r1-7b.yaml(与模型文件同目录),内容如下:
from: "deepseek-ai/DeepSeek-R1"parameters:model: "deepseek-r1-7b.bin"temperature: 0.7top_p: 0.9
ollama run deepseek-r1-7b# 首次运行会自动解压模型,耗时约5-10分钟
User: 解释量子计算的基本原理Model: 量子计算利用量子叠加和纠缠特性,通过量子比特实现并行计算...
batch_size参数(在.yaml文件中添加batch_size: 1)。Settings > API。http://localhost:11434/api/generate(Ollama默认端口)deepseek-r1-7bSettings > Appearance中选择暗色模式,减少长时间使用的视觉疲劳。Ctrl+Enter为发送消息快捷键(默认需手动启用)。用Python写一个快速排序算法
parameters:trt: true
OLLAMA_HOST=127.0.0.1:11434强制使用CPU。llama-2-7b)至同一目录。
# 在ChatBox的API设置中动态修改Model参数
.bin→.7z)。
7z x deepseek-r1-7b.7z -oC:\tempollama run --model-path C:\temp\deepseek-r1-7b.bin
下载阶段(联网设备):
deepseek-r1-7b.bin(14GB)ollama-windows-amd64.exeChatBox-Setup-1.0.0.exe传输阶段:
D:\AI_Deploy目录。安装阶段:
# 以管理员身份运行CMDcd D:\AI_Deployollama-windows-amd64.exe /S # 静默安装ChatBox-Setup-1.0.0.exe /quiet
配置阶段:
mkdir C:\Users\Admin\.ollama\models\copy D:\AI_Deploy\deepseek-r1-7b.bin C:\Users\Admin\.ollama\models\
C:\Users\Admin\.ollama\models\deepseek-r1-7b.yaml(内容见2.1节)。验证阶段:
net start ollama # 若未自动启动
taskkill /F /IM ollama.exestart "" "C:\Program Files\Ollama\ollama.exe" serve
C:\Users\<用户名>\.ollama\logs\server.log%APPDATA%\ChatBox\logs\main.log
$models = @("deepseek-r1-7b", "llama-2-7b")foreach ($m in $models) {Invoke-WebRequest -Uri "http://intranet/models/$m.bin" -OutFile "C:\.ollama\models\$m.bin"}
Python调用示例:
import requestsdef query_ollama(prompt):url = "http://localhost:11434/api/generate"data = {"model": "deepseek-r1-7b","prompt": prompt,"stream": False}response = requests.post(url, json=data)return response.json()["response"]print(query_ollama("解释Transformer架构"))
deepseek-r1-7b-lora.bin
ollama merge --base deepseek-r1-7b --lora deepseek-r1-7b-lora.bin --output deepseek-r1-7b-finetuned
# 删除旧日志和临时文件del /Q "C:\Users\<用户名>\.ollama\logs*.log"
| 错误码 | 原因 | 解决方案 | |
|---|---|---|---|
| 500 | 模型加载失败 | 检查.yaml文件路径是否正确 |
|
| 404 | API端点错误 | 确认Ollama服务是否运行(`netstat -ano | findstr 11434`) |
| 1202 | 显存不足 | 降低batch_size或切换至CPU模式 |
wmic.exe /Namespace:\\root\default Path SystemRestore CreateRestorePoint "Pre-AI-Deploy", 100, 7
xcopy "C:\Users\<用户名>\.ollama\models" "D:\Backup\models" /E /H /Y
本教程实现了Windows环境下DeepSeek-R1模型的完全离线部署,通过Ollama的轻量化架构和ChatBox的友好界面,为开发者提供了零依赖的本地AI解决方案。未来可探索:
通过本方案,用户可在完全隔离的网络环境中安全使用AI能力,满足金融、医疗等高敏感行业的需求。实际测试表明,7B模型在i7-12700K+RTX 3060配置下,响应速度可达3.2token/s,足以支持日常对话和轻度内容生成任务。