Skip to content

Latest commit

 

History

History
 
 

nce_cost

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 
 
 
 
 

噪声对比估计加速词向量训练

词向量是许多自然语言处理任务的基础,详细介绍可见 PaddleBook 中的词向量一节,其中通过训练神经概率语言模型(Neural Probabilistic Language Model, NPLM)得到词向量,是一种流行的方式。然而,神经概率语言模型的最后一层往往需要计算一个词典之上的概率分布,词典越大这一层的计算量也就越大,往往非常耗时。在models的另一篇我们已经介绍了Hsigmoid加速词向量训练,这里我们介绍另一种加速词向量训练的方法:使用噪声对比估计(Noise-contrastive estimation, NCE)损失函数[1]。

NCE

NPLM 的最后一层 softmax 函数计算时需要考虑每个类别的指数项,必须计算字典中的所有单词,而在一般语料集上面字典往往非常大[3],从而导致整个训练过程十分耗时。NCE 是一种快速对离散分布进行估计的方法。与常用的 hierarchical-sigmoid [2] 方法相比,NCE 不再使用复杂的二叉树来构造目标函数,而是采用相对简单的随机负采样,以大幅提升计算效率。

假设已知具体的上下文 $h$,并且知道这个分布为 $P^h(w)$ ,并将从中抽样出来的数据作为正样例,而从一个噪音分布 $P_n(w)$ 抽样的数据作为负样例。我们可以任意选择合适的噪音分布,默认为无偏的均匀分布。这里我们同时假设噪音样例 $k$ 倍于数据样例,则训练数据被抽中的概率为[1]:

$$P^h(D=1|w,\theta)=\frac { P_\theta^h(w) }{ P^h_\theta(w)+kP_n(w) } =\sigma (\Delta s_\theta(w,h))$$

其中 $\Delta s_\theta(w,h)=s_\theta(w,h)-\log (kP_n(w))$ ,$s_\theta(w,h)$ 表示选择在生成 $w$ 字并处于上下文 $h$ 时的特征向量,整体目标函数的目的就是增大正样本的概率同时降低负样本的概率。目标函数如下[1]:

$$ J^h(\theta )=E_{ P_d^h }\left[ \log { P^h(D=1|w,\theta ) } \right] +kE_{ P_n }\left[ \log P^h (D=0|w,\theta ) \right]$$ $$ \\\qquad =E_{ P_d^h }\left[ \log { \sigma (\Delta s_\theta(w,h)) } \right] +kE_{ P_n }\left[ \log (1-\sigma (\Delta s_\theta(w,h))) \right]$$

总体上来说,NCE 是通过构造逻辑回归(logistic regression),对正样例和负样例做二分类,对于每一个样本,将自身的预测词 label 作为正样例,同时采样出 $k$ 个其他词 label 作为负样例,从而只需要计算样本在这 $k+1$ 个 label 上的概率。相比原始的 softmax 分类需要计算每个类别的分数,然后归一化得到概率,节约了大量的计算时间。

实验数据

本文采用 Penn Treebank (PTB) 数据集(Tomas Mikolov预处理版本)来训练语言模型。PaddlePaddle 提供 paddle.dataset.imikolov 接口来方便调用这些数据,如果当前目录没有找到数据它会自动下载并验证文件的完整性。并提供大小为5的滑动窗口对数据做预处理工作,方便后期处理。语料语种为英文,共有42068句训练数据,3761句测试数据。

网络结构

N-gram 神经概率语言模型详细网络结构见图1:


图1. 网络配置结构

可以看到,模型主要分为如下几个部分构成:
  1. 输入层:输入的 ptb 样本由原始的英文单词组成,将每个英文单词转换为字典中的 id 表示,使用唯一的 id 表示可以区分每个单词。

  2. 词向量层:比起原先的 id 表示,词向量表示更能体现词与词之间的语义关系。这里使用可更新的 embedding 矩阵,将原先的 id 表示转换为固定维度的词向量表示。训练完成之后,词语之间的语义相似度可以使用词向量之间的距离来表示,语义越相似,距离越近。

  3. 词向量拼接层:将词向量进行串联,并将词向量首尾相接形成一个长向量。这样可以方便后面全连接层的处理。

  4. 全连接隐层:将上一层获得的长向量输入到一层隐层的神经网络,输出特征向量。全连接的隐层可以增强网络的学习能力。

  5. NCE层:训练时可以直接实用 PaddlePaddle 提供的 NCE Layer。

训练

在命令行窗口运行命令python train.py可以直接开启训练任务。

  • 程序第一次运行会检测用户缓存文件夹中是否包含 ptb 数据集,如果未包含,则自动下载。
  • 运行过程中,每10个 batch 会打印模型训练在训练集上的代价值
  • 每个 pass 结束后,会计算测试数据集上的损失,并同时会保存最新的模型快照。

在模型文件network_conf.py中 NCE 调用代码如下:

cost = paddle.layer.nce(
            input=hidden_layer,
            label=next_word,
            num_classes=dict_size,
            param_attr=paddle.attr.Param(name="nce_w"),
            bias_attr=paddle.attr.Param(name="nce_b"),
            act=paddle.activation.Sigmoid(),
            num_neg_samples=25,
            neg_distribution=None)

NCE 层的一些重要参数解释如下:

参数名 参数作用 介绍
param_attr / bias_attr 用来设置参数名字 方便预测阶段加载参数,具体在预测一节中介绍。
num_neg_samples 负样本采样个数 可以控制正负样本比例,这个值取值区间为 [1, 字典大小-1],负样本个数越多则整个模型的训练速度越慢,模型精度也会越高
neg_distribution 生成负样例标签的分布,默认是一个均匀分布 可以自行控制负样本采样时各个类别的采样权重。例如:希望正样例为“晴天”时,负样例“洪水”在训练时更被着重区分,则可以将“洪水”这个类别的采样权重增加
act 使用何种激活函数 根据 NCE 的原理,这里应该使用 sigmoid 函数

预测

  1. 首先修改 infer.py 脚本的 main 函数指定需要测试的模型。

  2. 需要注意的是,预测和训练的计算逻辑不同,需要以一个全连接层:paddle.layer.fc替换训练使用的paddle.train.nce层, 并直接加载NCE学习到的参数,代码如下:

    prediction = paddle.layer.fc(
        size=dict_size,
        act=paddle.activation.Softmax(),
        bias_attr=paddle.attr.Param(name="nce_b"),
        input=hidden_layer,
        param_attr=paddle.attr.Param(name="nce_w"))
  3. 运行 python infer.py。程序首先会加载指定的模型,然后按照 batch 大小依次进行预测,并打印预测结果。预测的输出格式如下:

    0.6734  their   may want to move
    
    

    每一行是一条预测结果,内部以“\t”分隔,共计3列:

    • 第一列:下一个词的概率。
    • 第二列:模型预测的下一个词。
    • 第三列:输入的 $n$ 个词语,内部以空格分隔。

参考文献

  1. Mnih A, Kavukcuoglu K. Learning word embeddings efficiently with noise-contrastive estimation[C]//Advances in neural information processing systems. 2013: 2265-2273.

  2. Morin, F., & Bengio, Y. (2005, January). Hierarchical Probabilistic Neural Network Language Model. In Aistats (Vol. 5, pp. 246-252).

  3. Mnih A, Teh Y W. A Fast and Simple Algorithm for Training Neural Probabilistic Language Models[J]. Computer Science, 2012:1751-1758.