简介:本文详细介绍如何通过Ollama在本地部署Deepseek_R1大语言模型,并集成OpenWebUI实现可视化交互。覆盖系统要求、安装配置、模型管理、Web界面搭建及性能优化等全流程,适合开发者及AI爱好者快速上手本地化AI部署。
随着AI技术的普及,大语言模型(LLM)已成为开发者、研究人员和企业的重要工具。然而,依赖云端API存在隐私风险、网络依赖及潜在成本问题。本地部署LLM不仅能保障数据安全,还能实现离线运行、定制化调优及无限制使用。本文将指导您通过Ollama(轻量级LLM运行框架)部署Deepseek_R1模型,并集成OpenWebUI提供可视化交互界面,实现零成本、高可控的本地AI解决方案。
# 更新系统sudo apt update && sudo apt upgrade -y# 安装基础工具sudo apt install -y wget curl git python3 python3-pip# 安装Docker(可选,用于容器化部署)sudo apt install -y docker.iosudo systemctl enable --now docker
通过Homebrew安装依赖:
brew install wget curl git python@3.11
Ollama是一个开源的LLM运行框架,支持:
# 下载并安装Ollama(根据系统选择版本)curl -fsSL https://ollama.ai/install.sh | sh# 验证安装ollama version
编辑配置文件(~/.ollama/config.json):
{"models": {"default": "deepseek-r1:7b" # 设置默认模型},"gpu": true, # 启用GPU加速"log_level": "info"}
Deepseek_R1提供多个版本(7B/13B/33B等),根据硬件选择:
# 下载7B版本(约14GB)ollama pull deepseek-r1:7b# 下载13B版本(约26GB)ollama pull deepseek-r1:13b
# 启动交互式会话ollama run deepseek-r1:7b# 示例输出> 你好,Deepseek_R1!你好!我是Deepseek_R1,一个基于Transformer架构的大语言模型。
q4_0量化)
ollama create deepseek-r1:7b-quantized -f ./modelfile --base-model deepseek-r1:7b
--optimize参数启用
# 拉取OpenWebUI镜像docker pull ghcr.io/open-webui/open-webui:main# 运行容器docker run -d --name open-webui \-p 3000:3000 \-v open-webui-data:/app/backend/data \-e OLLAMA_API_BASE_URL="http://localhost:11434" \ghcr.io/open-webui/open-webui:main
git clone https://github.com/open-webui/open-webui.gitcd open-webuipip install -r requirements.txtpython app.py
config.json:
{"ollama_url": "http://localhost:11434"}
# 同时部署多个模型ollama pull deepseek-r1:7bollama pull llama2:13b# 通过API切换模型curl http://localhost:11434/api/generate \-H "Content-Type: application/json" \-d '{"model": "deepseek-r1:7b", "prompt": "解释量子计算"}'
nvidia-smi # 验证GPU可用性
ollama run deepseek-r1:7b --memory 10GB
# 在Nginx配置中添加location /api/ {allow 192.168.1.0/24;deny all;}
ollama rm deepseek-r1:old-versionollama listnetstat -tulnp | grep 11434q4_0)max_tokens参数http://localhost:3000,测试聊天功能curl命令验证API接口通过本文的步骤,您已成功在本地部署了Deepseek_R1模型,并通过OpenWebUI实现了友好的交互界面。这种方案不仅保障了数据隐私,还提供了灵活的定制空间,适合开发者、研究人员及企业用户快速构建本地化AI能力。