简介:本文详细解析如何通过Ollama在本地部署DeepSeek系列大模型,涵盖环境准备、安装配置、模型加载及运行测试全流程,提供分步操作指南与常见问题解决方案。
# Ubuntu示例sudo apt update && sudo apt install docker.iosudo systemctl enable --now docker
curl -fsSL https://ollama.ai/install.sh | sh
C:\Program Files\Ollama添加至PATH环境变量。
ollama --version# 应输出类似:ollama version 0.1.15
~/.ollama/settings.json(Linux/macOS)或%APPDATA%\Ollama\settings.json(Windows):
{"gpu-layers": 50, # GPU显存分配比例(0-100)"num-cpu": 8, # CPU线程数"log-level": "info"}
ollama pull deepseek-r1:7b # 7B参数版本ollama pull deepseek-r1:33b # 33B参数版本
其中
# 假设模型文件为deepseek_33b.ggufollama create deepseek-custom -f ./Modelfile
Modelfile内容示例:
FROM deepseek-r1:basePARAMETER size 33BFILE deepseek_33b.gguf
ollama run deepseek-r1:7b# 输出示例:# >>> 你好,DeepSeek如何工作?# DeepSeek通过...
ollama run deepseek-r1:7b --temperature 0.7 --top-p 0.9
temperature:控制随机性(0-1,值越高回答越创意)top-p:核采样阈值(0.8-0.95推荐)gpu-layers值(如从50调至30)--cpu参数强制CPU运行
ollama run deepseek-r1:7b --cpu
ollama create deepseek-r1-q4 --from deepseek-r1:7b --parameter quantize q4_0
ollama serve
使用Python调用示例:
import requestsurl = "http://localhost:11434/api/generate"data = {"model": "deepseek-r1:7b","prompt": "解释量子计算原理","stream": False}response = requests.post(url, json=data).json()print(response["response"])
from langchain.llms import Ollamallm = Ollama(model="deepseek-r1:7b",base_url="http://localhost:11434",temperature=0.7)print(llm("用Python写一个快速排序"))
ollama pull deepseek-r1:7b # 获取最新版本
~/.ollama/logs/目录下的运行日志。通过以上步骤,开发者可在本地环境中高效运行DeepSeek模型,兼顾性能与灵活性。实际部署时需根据硬件条件调整参数,并定期关注社区更新以获取优化方案。