来源 | github 转自 | 大数据文摘
过去几年里,机器学习语言处理模型的发展十分迅速,已经不再局限于实验阶段,而是可以应用于某些先进的电子产品中。
举个例子,最近谷歌官宣,称BERT模型已经成为其搜索产品背后的主要动力。谷歌认为,这一进展(即自然语言理解应用于搜索领域)是过去五年中机器学习领域的最大进步,也是搜索史上的最大进展之一。
Jay Alammar小哥最近又发了一篇新文,简要介绍了如何使用BERT模型来完成句子分类任务,作为基础性入门教程,深入地展示了相关的核心概念。
与此同时,他为本篇文章制作了ipython notebook文件,可在github上查看,或者在colab中运行。
Github:https://github.com/jalammar/jalammar.github.io/blob/master/notebooks/bert/A_Visual_Notebook_to_Using_BERT_for_the_First_Time.ipynb
Colab:
https://colab.research.google.com/github/jalammar/jalammar.github.io/blob/master/notebooks/bert/A_Visual_Notebook_to_Using_BERT_for_the_First_Time.ipynb
本示例中使用的数据集是SST2,其中包含影评及相应标签(积极为1,消极为0)。
数据集:
我们的目标是创建一个模型,该模型以句子为输入(就如上述数据集中的评论),输出为1(句子带有积极情感)或者0(句子带有消极情感)。如下图所示:
实际上,该模型是由两个子模型组成的。
DistilBERT模型负责处理句子并将从中提取的信息传给下一个模型,这是由HuggingFace团队开发的开源知识蒸馏版BERT模型,量级更轻、运行更快,性能堪比BERT。
下一个模型是scikit-learn中一个基本的逻辑回归模型,接收DistilBERT处理的结果,并将句子分类为积极或消极(分别为1或0)。
两个模型间传递的数据是一个768维的向量。我们可以把这个向量当作用于分类的句子的嵌入(embedding)。
如果你看过我之前的文章《BERT图解》的话,这个向量就是其中提到的第一位置(以[CLS]标志为输入)的输出结果。
《BERT图解》:
模型训练
虽然我们要用到两个模型,但只需训练逻辑回归模型即可。DistillBERT模型将使用适用于英语语言处理的预训练模型。这种模型没有专门为句子分类任务进行过训练和微调,但是,基于BERT模型的通用目标,它还是具有一定的句子分类能力,尤其是第一位置(与[CLS]标志相关)的BERT输出。我认为,这是由BERT模型的次要训练目标,即下一句分类(Next sentence classification)决定的。这一目标似乎是训练模型去封装整句意思作为第一位置的输出。Transformers库包含DistilBERT模型及其预训练版本模型的实现。
这是本教程的步骤简介。首先,使用训练后的distilBERT模型来生成数据集中2000个句子的句子嵌入。
这一步后就不再用distilBERT,剩下的都是scikit-learn的工作。依照惯例,将数据集划分为训练集和测试集。
然后使用训练集训练逻辑回归模型。
如何计算单一预测结果?
在深入代码理解如何训练模型之前,我们先来看看一个训练好的模型是如何计算出预测结果的。
先来尝试对句子“视觉效果满分的爱情故事(a visually stunning rumination on love)”进行分类。第一步,使用BERT 分词器将英文单词转化为标准词(token)。第二步,加上句子分类所需的特殊标准词(special token,如在首位的[CLS]和句子结尾的[SEP])。
第三步,分词器会用嵌入表中的id替换每一个标准词(嵌入表是从训练好的模型中得到的),词嵌入的背景知识可参见我的《图解Word2Vec》。
《图解Word2Vec》:
注意,分词器完成以上步骤只需一行代码:
此时,已经将输入的句子转为合适维度的向量,可直接传入DistilBERT模型中。
如果你读过《图解BERT》这篇文章,此步骤可用下图表示:
将向量输入至DistilBERT模型获得输出的过程和BERT模型如出一辙。输出结果是与输入有关的向量,其中每个向量由768个(浮点)数值组成。
因为这是一个句子分类任务,所以我们将忽略除第一个向量(与[CLS]记号相关的向量)以外的其他向量。我们将第一个向量作为逻辑回归模型的输入。
之后,逻辑回归模型的工作就是根据训练阶段所学对该向量进行分类。这个预测的过程如下所示:
我们将在下一部分中讨论模型的训练以及整个过程的代码。
在本节中,我们将重点介绍用于训练此句子分类模型的代码。包含所有这些代码的ipython notebook可以在colab和github上找到。
我们所用的数据集文件可以在GitHub上找到,所以我们直接在pandas框架下导入它。
, header=None)
我们可以使用df.head()查看数据集的前五行,看看数据长啥样。
输出如下:
model = model_class.from_pretrained(pretrained_weights)
现在我们可以对数据集进行分词。请注意,此处的操作与上面的示例有些不同。上面的示例仅进行了一个句子的分词。在这里,我们将分批处理所有句子的分词(考虑到资源问题,ipython notebook文件中只处理了一小部分数据,约2000个)。
of ids.
上述指令将每个句子转化为一个id列表。
数据集是列表的列表(或pandas的Series/DataFrame)。在DistilBERT将此作为输入处理之前,我们需要令所有向量的长度相同,因而需要将较短句子的向量填充词标记为零。填充步骤可以参考notebook,是基本的python字符串和数组操作。
填充后,我们可以将矩阵/张量输入至BERT模型:
现在,我们需要从填充好的标记词矩阵中获得一个张量,作为DistilBERT的输入。
last_hidden_states = model(input_ids)
运行此步骤后,last_hidden_states保存DistilBERT的输出。它是一个具有多维度的元组(示例个数,序列中的最大符号的个数,DistilBERT模型中的隐藏单元数)。在我们的例子中是2000(因为我们自行限制为2000个示例),66(这是2000个示例中最长序列中的词数量),768(DistilBERT模型中的隐藏单位数量)。
让我们解析这个3维输出张量,先看其维度:
数据集中的每一个句子就是一行,下图概括了第一个句子的处理过程:
对于句子分类问题,我们仅对[CLS]标记的BERT输出感兴趣,因此我们只选择该三维数据集的一个切片。
下面的代码是如何对三维张量进行切片以获取我们感兴趣的二维张量:
].numpy()
现在我们获得了features这个二维numpy数组,它包含数据集中所有句子的句子嵌入。
现在我们有了BERT的输出,已经具备训练逻辑回归模型所需的完整数据集。768列数据是特征集,而标签可以从初始数据集中获得。
我们用来训练Logistic回归的标记数据集。其中,特征是上图中切片得到的[CLS]标记(位置0)的BERT输出向量。每行对应于我们数据集中的一个句子,每列对应于Bert / DistilBERT模型顶部转换器(transformer)中前馈神经网络的隐藏单元的输出。
在完成传统的机器学习训练集、测试集划分之后,我们得到了最终的逻辑回归模型并可以对数据集进行训练了。
train_features, test_features, train_labels, test_labels = train_test_split(features, labels)
训练集、测试集划分:
下一步,用训练集训练逻辑回归模型。
lr_clf.fit(train_features, train_labels)
得到训练后的模型,进行测试评估:
(test_features, test_labels)
模型的准确率在81%左右。
作为参考,该数据集的最高准确性得分目前为96.8。可以对DistilBERT进行训练以提高其在此任务上的分数,这个过程称为微调,会更新BERT的权重,以提高其在句子分类(我们称为下游任务)中的性能。经过微调的DistilBERT准确性得分可达90.7,标准版的BERT模型可以达到94.9。
github上的Ipython notebook文件可以在colab上直接运行。
好了,BERT模型的初级体验完美结束。下一步可以去跑一下notebook文件,并尝试进行微调。你也可以回到开头用BERT代替distilBERT重新试一下,了解其工作原理。
原文链接:
<pre style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><p style="max-width: 100%;min-height: 1em;letter-spacing: 0.544px;white-space: normal;color: rgb(0, 0, 0);font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;line-height: 1.75em;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong>完<strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong></span></strong></span></strong></p><section style="max-width: 100%;letter-spacing: 0.544px;white-space: normal;font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><p style="margin-bottom: 15px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;color: rgb(127, 127, 127);font-size: 12px;font-family: sans-serif;line-height: 25.5938px;letter-spacing: 3px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;font-size: 16px;font-family: 微软雅黑;caret-color: red;box-sizing: border-box !important;overflow-wrap: break-word !important;">为您推荐</span></strong></span></p><p style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">人工智能领域最具影响力的十大女科学家</span><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;" /></p><p style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">MIT最新深度学习入门课,安排起来!</span></p><p style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">有了这个神器,轻松用 Python 写个 App</span></p><p style="margin-top: 5px;margin-bottom: 5px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(87, 107, 149);font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">「最全」实至名归,NumPy 官方早有中文教程</span></p><section style="margin: 5px 16px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">北大团队成功实现精准删除特定记忆,马斯克脑机接口有望今年人体测试</span></section></section></section></section></section></section></section></section></section>
本篇文章来源于: 深度学习这件小事
本文为原创文章,版权归知行编程网所有,欢迎分享本文,转载请保留出处!
内容反馈