简介:本文详细介绍了如何在本地部署清华开源大语言模型ChatGLM3,包括硬件配置、环境搭建、模型下载与加载、以及多种使用方式的探讨,旨在帮助用户充分利用该模型的强大对话能力。
随着人工智能技术的不断发展,大语言模型在各个领域的应用日益广泛。ChatGLM3,作为由智谱AI和清华大学KEG实验室联合发布的开源对话预训练模型,凭借其强大的对话能力和低部署门槛,受到了众多开发者的青睐。本文将全面解析如何在本地部署ChatGLM3大模型,以便用户能够充分利用其优势。
在本地部署ChatGLM3之前,首先需要确保计算机具备足够的硬件配置。推荐配置如下:
这些配置将确保模型在运行过程中具备良好的性能和稳定性。
安装Python环境:
ChatGLM3要求Python版本3.7及以上。建议使用Anaconda进行安装,以便更方便地管理Python环境和依赖包。安装完成后,记得配置软连接。
安装Git和Git LFS:
为了从GitHub下载ChatGLM3的代码和模型,需要安装Git和Git Large File Storage(Git LFS)。可以使用以下命令进行安装:
sudo yum install git -ysudo yum install git-lfs -y
创建Python虚拟机并安装依赖:
推荐使用conda创建Python虚拟机,并安装transformers库(推荐版本4.30.2)和torch库(推荐使用2.0及以上的版本),以获得最佳的推理性能。可以使用以下命令进行安装:
conda create -n torch python=3.10conda activate torchpip install transformers==4.30.2 torch>=2.0
下载ChatGLM3代码:
使用Git从GitHub下载ChatGLM3的代码仓库。可以使用以下命令进行下载:
git clone https://github.com/THUDM/ChatGLM3cd ChatGLM3
下载预训练模型:
ChatGLM3的预训练模型可以从Hugging Face Hub或ModelScope下载。由于模型文件较大(十几个GB),建议使用Git LFS进行下载。可以使用以下命令进行下载:
git lfs installgit clone https://huggingface.co/THUDM/chatglm3-6b # 或者从ModelScope下载
下载完成后,将模型文件放到ChatGLM3仓库目录下,并修改模型路径。
ChatGLM3提供了多种使用方式,包括命令行Demo、网页版Demo和API部署。
命令行Demo:
找到ChatGLM3目录下的cli_demo.py文件,修改模型路径和部署方式(CPU或GPU),然后运行python cli_demo.py启动服务。程序会在命令行中进行交互式的对话。
网页版Demo:
找到ChatGLM3目录下的web_demo.py文件,进行类似的修改后运行python web_demo.py启动服务。程序会运行一个Web Server,并输出一个访问地址,在浏览器中打开该地址即可使用。
API部署:
这是推荐的使用方式,可以将ChatGLM3作为任意基于ChatGPT的应用的后端。首先,找到ChatGLM3目录下的openai_api.py文件,修改模型路径、部署方式以及Host和Port。然后运行python openai_api.py启动模型服务。最后,将接口地址添加到ChatGPT应用(如ChatGPT-Next-Web)的设置中,并添加自定义模型。
在本地部署ChatGLM3的过程中,千帆大模型开发与服务平台可以作为一个强大的辅助工具。该平台提供了丰富的模型开发、部署和管理功能,可以帮助用户更高效地利用ChatGLM3进行项目开发。例如,用户可以在平台上进行模型的训练、调优和部署,同时利用平台提供的监控和日志功能来跟踪模型的运行状态和性能表现。
本文详细介绍了如何在本地部署清华开源大语言模型ChatGLM3,包括硬件配置、环境搭建、模型下载与加载以及多种使用方式的探讨。通过本地部署ChatGLM3,用户可以充分利用其强大的对话能力,为自己的项目或应用提供智能对话功能。同时,结合千帆大模型开发与服务平台等辅助工具,用户可以更高效地进行模型开发和项目管理。希望本文能够为读者提供有价值的参考和帮助。