简介:本文详细介绍了在Windows环境下搭建ChatGLM-6B-int4量化版模型的全过程,包括环境准备、模型安装、问题解决等步骤,并提供了成果案例。
ChatGLM-6B是一个开源的双语对话语言模型,由清华大学知识工程和数据挖掘小组(KEG)发布。该模型具有62亿参数,能够生成符合人类偏好的回答。而ChatGLM-6B-int4是其量化版本,可以在消费级显卡上进行本地部署,占用资源更少,适合在个人电脑上进行测试和使用。本文将详细介绍在Windows环境下搭建ChatGLM-6B-int4量化版模型的全过程。
在搭建模型之前,需要准备以下环境:
硬件环境:
软件环境:
安装Anaconda:
安装Git:
git --version检查版本信息。安装TDM-GCC:
下载模型源码并安装依赖:
git clone命令从GitHub上拉取ChatGLM-6B的代码:
git clone https://github.com/THUDM/ChatGLM-6B.git
cd ChatGLM-6Bconda create -n chatglm6b python=3.10conda activate chatglm6b
pip install -r requirements.txt
下载量化模型:
修改运行脚本:
tokenizer = AutoTokenizer.from_pretrained("chatglm-6b-int4", trust_remote_code=True)model = AutoModel.from_pretrained("chatglm-6b-int4", trust_remote_code=True).float()
在搭建过程中,可能会遇到以下问题:
报错:No module named ‘readline’:
pip install pyreadline
报错:AttributeError: module ‘collections’ has no attribute ‘Callable’:
return isinstance(x, collections.Callable)改为return isinstance(x, collections.abc.Callable)。经过上述步骤,我们成功在Windows环境下搭建了ChatGLM-6B-int4量化版模型。启动cli_demo.py脚本后,可以在控制台中看到模型输出的回答。虽然由于电脑配置的问题,结果输出可能较为缓慢,但已经成功实现了模型的本地部署和测试。
本文详细介绍了在Windows环境下搭建ChatGLM-6B-int4量化版模型的全过程,包括环境准备、模型安装、问题解决等步骤。通过本文的指导,读者可以在个人电脑上成功部署和测试该模型,为后续的研究和应用打下基础。同时,本文也展示了成果案例,验证了搭建过程的正确性和有效性。在实际应用中,还可以结合千帆大模型开发与服务平台等工具,进一步优化和扩展模型的功能和应用场景。