简介:本文详细指导Windows用户完成Ollama下载安装、DeepSeek模型本地部署、UI可视化配置及个人知识库搭建的全流程,涵盖环境配置、模型加载、界面优化及知识管理方法。
ollama --version,若显示版本号则安装成功。refreshenv命令)。ollama pull deepseek-r1:7b(自动从官方源下载)。%APPDATA%\Ollama\models)。
ollama run deepseek-r1:7b
--temperature 0.7参数调整回答创造性(值越高越随机)。--gpu-layers 20(指定GPU层数)减少显存占用。--quantize q4_0(4位量化)压缩模型,降低内存需求。npm install && npm run dev启动本地服务。http://localhost:11434。.env文件中设置:
OLLAMA_API_URL=http://localhost:11434
src/styles/theme.css)。/docs/tech、/docs/finance)。RecursiveCharacterTextSplitter)。bge-small-en-v1.5):
ollama run bge-small-en-v1.5 --file "document.txt"
from ollama import generateresponse = generate("bge-small-en-v1.5", prompt="文本内容")embedding = response["embeddings"]
代码示例(Python):
from langchain.embeddings import OllamaEmbeddingsfrom langchain.vectorstores import Chromafrom langchain.chains import RetrievalQA# 初始化嵌入模型与向量库embeddings = OllamaEmbeddings(model="bge-small-en-v1.5")db = Chroma.from_documents(documents, embeddings)# 构建RAG链qa_chain = RetrievalQA.from_chain_type(llm=Ollama(model="deepseek-r1:7b"),retriever=db.as_retriever(),)# 查询response = qa_chain.run("量子计算的应用场景有哪些?")print(response)
ollama serve & # 后台运行ollama run deepseek-r1:7b
/docs目录,运行分块脚本。ollama pull deepseek-r1:7b获取新版。--batch 32)。通过本文,用户可完成Ollama安装、DeepSeek模型部署、UI可视化配置及知识库搭建的全流程。关键步骤包括:硬件适配、模型量化、UI集成、向量存储与RAG实现。实际使用中,建议从轻量级模型(7B)入手,逐步优化性能与功能。