简介:本文详细介绍Linux系统下DeepSeek的安装流程,附带Ollama安装包及完整配置说明,覆盖环境准备、依赖安装、模型部署及常见问题解决,适合开发者与企业用户参考。
DeepSeek官方推荐使用Ubuntu 20.04 LTS或CentOS 7.x及以上版本,需确保系统为64位架构。通过以下命令验证:
uname -m # 输出应为x86_64cat /etc/os-release # 查看系统版本
若系统版本较低,建议升级或使用容器化方案(如Docker)规避兼容性问题。
DeepSeek依赖Python 3.8+、CUDA 11.x(GPU版本)及基础开发工具链。执行以下命令安装依赖:
# Ubuntu示例sudo apt updatesudo apt install -y python3-pip python3-dev git wget curl# CentOS示例sudo yum install -y epel-releasesudo yum install -y python3 python3-devel git wget curl
GPU用户需额外安装NVIDIA驱动及CUDA Toolkit,可通过nvidia-smi命令验证驱动状态。
Ollama是DeepSeek的轻量级推理框架,提供预编译的Linux二进制包。从官方GitHub仓库(示例链接:https://github.com/ollama/ollama)下载对应版本的.tar.gz文件,使用SHA256校验完整性:
wget https://example.com/ollama-linux-amd64.tar.gzsha256sum ollama-linux-amd64.tar.gz # 对比官方提供的哈希值
解压后将二进制文件移动至/usr/local/bin,并赋予执行权限:
tar -xzvf ollama-linux-amd64.tar.gzsudo mv ollama /usr/local/bin/chmod +x /usr/local/bin/ollama
通过ollama --version验证安装成功。
推荐使用虚拟环境隔离依赖:
python3 -m venv deepseek_envsource deepseek_env/bin/activatepip install --upgrade pip
通过pip安装DeepSeek官方库(示例包名deepseek-ai):
pip install deepseek-ai
若需从源码编译,克隆仓库并安装:
git clone https://github.com/deepseek-ai/DeepSeek.gitcd DeepSeekpip install -e .
DeepSeek提供多种规模的预训练模型(如7B、13B参数)。使用Ollama下载指定模型:
ollama pull deepseek-7b # 示例命令
模型文件默认存储在~/.ollama/models目录,可通过ollama list查看已下载模型。
在~/.bashrc或~/.zshrc中添加以下变量(根据实际路径调整):
export OLLAMA_MODELS=~/.ollama/modelsexport CUDA_VISIBLE_DEVICES=0 # GPU设备号,CPU模式可省略
生效配置:
source ~/.bashrc
通过Ollama启动推理服务:
ollama serve --model deepseek-7b
服务默认监听127.0.0.1:11434,可通过--host 0.0.0.0开放外部访问。
使用Python客户端或cURL测试API:
# Python示例import requestsresponse = requests.post("http://localhost:11434/api/generate",json={"prompt": "Hello, DeepSeek!"})print(response.json())
错误示例:CUDA out of memory
解决方案:
batch_size参数(在配置文件中调整)
pip install tensorrt
若出现ModuleNotFoundError,优先检查虚拟环境是否激活,或通过pip check诊断冲突:
pip check # 列出依赖冲突pip install --ignore-installed <冲突包名> # 临时解决方案
企业内网可能屏蔽模型下载,可通过以下方式解决:
export HTTP_PROXY=http://proxy.example.com:8080export HTTPS_PROXY=http://proxy.example.com:8080
~/.ollama/models目录。GPU用户需确保CUDA与cuDNN版本匹配。通过以下命令验证:
nvcc --version # CUDA版本cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2 # cuDNN版本
使用INT8量化减少显存占用(需支持量化工具):
ollama create deepseek-7b-int8 --from deepseek-7b --optimizer awq
启用Ollama的日志功能:
ollama serve --log-level debug
通过nvidia-smi或htop实时监控资源使用情况。
# 停止服务pkill ollama# 删除模型文件rm -rf ~/.ollama/models/deepseek-*# 删除Ollama二进制文件sudo rm /usr/local/bin/ollama# 删除Python环境(可选)rm -rf deepseek_env
使用find命令搜索残留配置:
find ~/.config -name "*ollama*" # 用户配置find /etc -name "*ollama*" # 系统配置
本教程覆盖了Linux下DeepSeek从环境准备到模型部署的全流程,附带Ollama安装包简化了推理框架的配置。实际生产环境中,建议结合Docker实现环境隔离,或使用Kubernetes进行集群化部署。对于高并发场景,可参考Ollama的负载均衡文档(示例链接:https://ollama.ai/docs/load-balancing)优化服务性能。
附件:Ollama安装包(Linux版)下载链接及SHA256校验值(示例):
https://example.com/ollama-linux-amd64.tar.gz a1b2c3d4e5f6... (注:实际使用时请替换为官方提供的最新版本链接及校验值。)