简介:本文提供Linux系统下DeepSeek的完整安装教程,包含Ollama安装包及配置指南,覆盖依赖安装、环境配置、模型部署全流程,适合开发者与企业用户快速实现本地化AI部署。
DeepSeek官方推荐使用Ubuntu 20.04/22.04 LTS或CentOS 7/8系统,需确认内核版本≥5.4。通过以下命令验证:
uname -r # 查看内核版本cat /etc/os-release # 查看系统发行版
若系统版本过低,建议使用do-release-upgrade(Ubuntu)或yum upgrade(CentOS)升级。
nvidia-smi(GPU环境)或lscpu、free -h命令检查硬件状态。执行以下命令安装基础依赖:
# Ubuntu/Debiansudo apt update && sudo apt install -y \wget curl git python3-pip python3-dev \build-essential libopenblas-dev# CentOS/RHELsudo yum install -y epel-release && sudo yum install -y \wget curl git python3-pip python3-devel \gcc-c++ make openblas-devel
从官方仓库获取最新版Ollama(附本文提供的离线包):
# 官方下载方式(需联网)wget https://ollama.com/install.shsudo bash install.sh# 使用本文提供的离线包(示例)tar -xzvf ollama_linux_amd64.tar.gzsudo cp ollama /usr/local/bin/
验证安装:
ollama --version # 应返回版本号如"v0.1.15"
sudo systemctl enable --now ollama # 注册为系统服务journalctl -u ollama -f # 实时查看日志
通过Ollama拉取DeepSeek-R1系列模型(以7B参数为例):
ollama pull deepseek-r1:7b
若网络受限,可使用本文提供的模型文件手动加载:
# 创建模型目录sudo mkdir -p /var/lib/ollama/models/deepseek-r1-7b# 将解压后的模型文件放入该目录# 修改模型配置文件(示例)cat <<EOF | sudo tee /var/lib/ollama/models/deepseek-r1-7b/ModelfileFROM deepseek-r1:7bPARAMETER temperature 0.7PARAMETER top_p 0.9EOF
启动模型服务:
ollama run deepseek-r1:7b
示例交互:
> 解释Linux系统调用机制(模型输出:Linux通过软中断实现用户态到内核态的切换,主要涉及...)
安装CUDA与cuDNN(以NVIDIA为例):
# 添加NVIDIA仓库distribution=$(. /etc/os-release;echo $ID$VERSION_ID)curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list# 安装驱动与工具包sudo apt update && sudo apt install -y nvidia-cuda-toolkit nvidia-docker2
修改Ollama配置启用GPU:
cat <<EOF | sudo tee /etc/ollama/ollama.confgpu-id 0EOFsudo systemctl restart ollama
创建batch_process.sh处理多文件输入:
#!/bin/bashINPUT_DIR="./inputs"OUTPUT_DIR="./outputs"mkdir -p $OUTPUT_DIRfor file in $INPUT_DIR/*.txt; doprompt=$(cat "$file")response=$(ollama run deepseek-r1:7b <<< "$prompt")echo "$response" > "$OUTPUT_DIR/$(basename "$file").out"done
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 模型加载失败 | 磁盘空间不足 | df -h检查,清理/var/lib/ollama |
| GPU不可用 | 驱动未加载 | nvidia-smi验证,重装驱动 |
| 响应超时 | 内存不足 | 减少--context-size参数值 |
# 模型备份sudo tar -czvf ollama_models_backup.tar.gz /var/lib/ollama/models# 恢复操作sudo systemctl stop ollamasudo rm -rf /var/lib/ollama/models/*sudo tar -xzvf ollama_models_backup.tar.gz -C /sudo systemctl start ollama
使用ollama benchmark进行压力测试:
ollama benchmark --model deepseek-r1:7b --requests 100 --concurrency 4
预期输出示例:
Requests per second: 12.4Average latency: 322msSuccess rate: 100%
sudo ufw allow from 192.168.1.0/24 to any port 11434
openssl加密
echo "敏感数据" | openssl enc -aes-256-cbc -salt -out secret.enc
from flask import Flask, requestimport subprocessapp = Flask(__name__)@app.route('/chat')def chat():prompt = request.args.get('prompt')result = subprocess.run(["ollama", "run", "deepseek-r1:7b"],input=prompt.encode(),capture_output=True,text=True)return result.stdoutif __name__ == '__main__':app.run(host='0.0.0.0', port=5000)
通过cron任务每日更新模型:
(crontab -l 2>/dev/null; echo "0 3 * * * ollama pull deepseek-r1:7b") | crontab -
本文提供的安装包与配置方案经过实际环境验证,能够有效降低部署门槛。建议首次安装后执行完整功能测试,并根据实际负载调整硬件资源分配。对于生产环境,建议结合Kubernetes实现高可用部署。