简介:Hugging Face 的 Transformers 库快速入门(三)必要的 Pytorch 知识
Hugging Face 的 Transformers 库快速入门(三)必要的 Pytorch 知识
在前面的两部分中,我们介绍了 Hugging Face 的 Transformers 库的基础知识和使用方法。在本篇中,我们将重点介绍使用 Transformers 库所必需的 Pytorch 知识。Pytorch 作为深度学习领域的知名框架,为研究人员和开发人员提供了一个简单、灵活和高效的工具,用于构建和训练深度学习模型。
在 Hugging Face 的 Transformers 库中,Pytorch 的使用是不可或缺的。它提供了我们需要的大部分功能,包括模型的构建、训练和推理。使用 Transformers 库,我们可以轻松地构建各种复杂的语言模型,如 Transformer、BERT、GPT 等。
模型构建
在 Hugging Face 的 Transformers 库中,模型构建主要涉及词汇表、语言模型和编码器的定义。我们通常不需要从头开始构建一个模型,因为 Transformers 库已经提供了许多预训练的模型供我们使用。
词汇表是我们定义模型所需词汇的集合。在构建语言模型时,我们需要指定哪些单词应该被包含在模型中,以及它们应该如何被编码。这通常涉及到一个词汇表的定义,以及一个将单词映射到唯一整数的编码器。
语言模型是一种可以生成文本的模型,它被训练来预测给定上下文文本的下一个单词。在 Hugging Face 的 Transformers 库中,我们可以使用预先训练好的语言模型,如 BERT、GPT 等,也可以使用 Transformers 库来训练我们自己的语言模型。
编码器是将输入序列转换成模型可以理解的形式的模型。在语言翻译任务中,编码器通常将源语言文本转换为一组向量,这组向量随后被传输给解码器以生成目标语言文本。
训练
在 Hugging Face 的 Transformers 库中,训练模型通常涉及以下步骤: