简介:想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现
想要自己的专属 AI 猫娘助理?教你使用 CPU 本地安装部署运行 ChatGLM-6B实现
近年来,人工智能(AI)的发展越来越引人瞩目。其中,生成式AI技术,如ChatGLM-6B,更是因其能够生成自然、流畅的语言而备受瞩目。如果你也对此感到好奇,那么本文将详细介绍如何使用CPU本地安装部署运行ChatGLM-6B,实现自己的专属AI猫娘助理。
(2)下载ChatGLM-6B模型文件:在终端或命令行中输入以下命令:
pip install tensorflow
(3)准备数据集:准备一个用于训练和测试的数据集,可以是文本文件或CSV文件等。
curl -O <模型文件URL>
import tensorflow as tfimport numpy as npimport jsonfrom transformers import TFChatGLMTokenizer, TFChatGLMEvaluationSet, TFChatGLMForCausalLM, ChatGLMModel# 加载模型和数据集tokenizer = TFChatGLMTokenizer.from_pretrained('cat_glm')eval_set = TFChatGLMEvaluationSet.from_pretrained('cat_glm')model = TFChatGLMForCausalLM.from_pretrained('cat_glm', input_模Chunk=tokenizer.encode, output_length=eval_set.output_length)train_dataset = tokenizer(json.load(open('train.json')))eval_dataset = tokenizer(json.load(open('eval.json')))input_ids = np.vstack((train_dataset['inputs'], eval_dataset['inputs'])).astype(np.int32).Ty = np.vstack((train_dataset['targets'], eval_dataset['targets'])).astype(np.int32).T[1:, :] # remove start token from targetsinput_ids = tf.convert_to_tensor(input_ids)y = tf.convert_to_tensor(y)dataset = tf.data.Dataset.from_tensor_slices(({'input': input_ids}, y))model.compile(optimizer='adam', loss=model.compute_loss)model.fit(dataset, epochs=10, validation_data=eval_dataset) 4 训练模型