简介:Centos/Ubuntu离线部署清华chatGLM(特别详细,十分钟搞定)
Centos/Ubuntu离线部署清华chatGLM(特别详细,十分钟搞定)
在AI热潮中,自然语言处理(NLP)技术越来越受到关注。最近,一款名为”清华chatGLM”的开源NLP模型引起了广泛的兴趣。这个模型由清华大学开发,具有很高的性能和准确度。为了方便广大用户使用,我们提供了一份详细的离线部署指南,帮助你在Centos或Ubuntu系统上十分钟内搞定清华chatGLM的部署。
一、准备工作
在Ubuntu上,使用以下命令:
sudo yum install -y python36 numpy pandas requests protobuf opencv-python3 tensorflow-gpu==2.4.1
sudo apt-get install -y python3 python3-pip python3-numpy python3-pandas python3-requests python3-protobuf python3-opencv python3-tensorflow
在Ubuntu上,使用以下命令:
sudo pip3 install torch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0
sudo pip3 install torch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0
tar -zxvf chathub-xxxxx.tar.gz -C /opt/