简介:本文详细介绍了在Windows环境下如何搭建基于LLM的智能问答系统MaxKB,并导入本地大语言模型,包括下载运行Ollama、安装大语言模型、配置cpolar内网穿透工具以及MaxKB中添加模型等步骤。
在当今人工智能快速发展的时代,智能问答系统已经成为众多企业和个人用户的得力助手。MaxKB作为一款基于LLM(Large Language Model)大语言模型的知识库问答系统,以其强大的学习能力和问答响应速度,赢得了广泛的关注。本文将详细介绍如何在Windows环境下搭建MaxKB智能问答系统,并导入本地大语言模型,以实现高效的智能问答功能。
在搭建MaxKB之前,需要确保Windows系统满足其运行要求,包括足够的内存和存储空间。同时,需要从MaxKB的官方网站或GitHub仓库下载最新版本的安装包。双击安装包,按照提示完成安装过程。安装完成后,使用默认的用户名(admin)和密码(MaxKB@123)登录系统。
Ollama是一个用于运行和管理大语言模型的框架,支持多种模型,包括本文将要使用的Llama2。首先,访问Ollama的GitHub页面,下载适用于Windows的安装包。双击安装包进行安装,并等待安装完成。安装完成后,打开命令窗口,输入ollama-v查看版本信息。接着,在浏览器中输入http://127.0.0.1:11434/访问Ollama服务,如果看到“运行的字样”,则表示本地运行成功。
在Ollama安装成功后,接下来需要下载并运行大语言模型。本例采用Llama2模型,当然也可以选择其他模型。在命令窗口中输入ollama run llama2命令,等待安装完成。当出现“success”字样时,表示下载完成。然后按ctrl+d退出,再输入ollama list即可看到已下载的大语言模型列表。
由于MaxKB接入本地大语言模型时限制只能使用域名接入,因此需要使用cpolar内网穿透工具将Ollama服务暴露到公网。首先,访问cpolar官网,注册一个账号,然后下载并安装Windows客户端。安装成功后,在浏览器上访问本地9200端口(http://localhost:9200),使用cpolar账号登录,即可看到cpolar管理界面。
在cpolar管理界面中,点击左侧仪表盘的“隧道管理”——“创建隧道”,创建一个指向Ollama服务的隧道。隧道名称可自定义命名,注意不要与已有的隧道名称重复;协议选择http;本地地址填写11434;域名类型选择免费随机域名;地区选择China;host头域填写127.0.0.1:11434。然后点击“创建”按钮。隧道创建成功后,点击左侧的“状态”——“在线隧道列表”,查看所生成的公网访问地址。有两种访问方式,http和https,两种都可以访问。
为了更好地演示和长期使用,建议为cpolar配置一个固定二级子域名。登录cpolar官网,点击左侧的“预留”,选择保留二级子域名,设置一个二级子域名名称,点击“保留”。保留成功后复制保留的二级子域名名称。然后返回cpolar web UI管理界面,找到要配置的隧道,点击右侧的“编辑”。修改隧道信息,将保留成功的二级子域名配置到隧道中,域名类型选择二级子域名,Sub Domain填写保留成功的二级子域名,然后点击“更新”。
成功运行MaxKB后,登录进去,点击“系统设置”,选择“模型设置”,再选择“Ollama”,然后点击“添加模型”。在添加模型页面中,填写模型相关信息,包括模型名称、API域名(使用cpolar生成的公网地址)和API Key(从Ollama运行日志中获取)。API Key的获取方式是在Ollama运行后,找到运行的小图标,右键点击并查看日志位置,打开名为server.log的日志文件,在文件最开始可以看到key的信息。
填写完所有信息后,点击“添加”即可。如果在添加过程中没有Llama2的大语言模型,MaxKB也会自动下载。添加成功后,可以在MaxKB中看到成功添加的模型。
在MaxKB中成功添加大语言模型后,接下来可以创建一个问答应用。点击“应用”,创建一个新的问答应用,模型选择刚刚添加的大语言模型。创建完成后,点击“演示”,进入问答页面,然后就可以进行对话了。
由于Llama2是一个英文模型,所以基本的回答都是英文。当然,可以根据自己的需求导入设置其他模型,方式也是一样的。另外,由于运行在Windows设备,设备配置越高,响应速度越快。
通过本文的介绍,读者可以在Windows环境下成功搭建MaxKB智能问答系统,并导入本地大语言模型,实现高效的智能问答功能。MaxKB以其强大的学习能力和问答响应速度,为企业和个人用户提供了极大的便利。随着人工智能技术的不断发展,智能问答系统将在未来发挥更加重要的作用。
在搭建和使用过程中,可能会遇到一些问题,如模型加载慢、问答不准确等。这些问题可以通过优化设备配置、调整模型参数、增加训练数据等方式进行改进。同时,也可以关注MaxKB和Ollama的官方文档和社区,获取更多的技术支持和解决方案。
此外,在智能问答系统的实际应用中,还需要注意数据安全和隐私保护等问题。在搭建和使用过程中,应严格遵守相关法律法规和隐私政策,确保用户数据的安全和隐私。
值得一提的是,百度智能云也提供了类似的数字人服务,如曦灵数字人。曦灵数字人是一个基于AI技术的数字人平台,可以为企业和个人用户提供智能客服、虚拟主播等应用。与MaxKB相比,曦灵数字人更注重于数字人的形象和交互体验。在未来的发展中,智能问答系统和数字人技术将相互融合、相互促进,共同推动人工智能技术的创新和应用。
总之,搭建基于LLM的智能问答系统MaxKB并导入本地大语言模型是一项具有挑战性和实用性的工作。通过本文的介绍和实践,读者可以掌握相关技术和方法,为自己的企业和个人用户提供更加智能、高效的问答服务。