Layer Normalization
Layer Normalization 是针对 Batch Normalization 提出的,两者都是深度神经网络中为解决训练困难而提出的归一化手段。
Background
前馈神经网络可以认为是一个将输入 映射到输出向量 的非线性映射。即下式所示的过程:
其中 指第 层第 个隐藏单元的表征输出, 指第 层中第 个隐藏单元的权重, 指输入到第 层的输入表征, 是非线性函数, 是偏置参数。
这样的深度学习计算过程导致一个层参数的梯度与上一层的输出高度相关,这被称为“协变量偏差”。Batch Normalization 的提出就是为了减弱这种偏差。
Batch Normalization
BN 将训练样本在每个隐藏单元上的输入归一化,具体地说,对于第 层上第 个输入,BN 根据训练数据的分布缩放隐藏单元的输入。
其中 是第 层第 个隐藏单元的归一化后的输入, 是增益参数。
上述公式中计算统计参数 和 是在整个训练集 上进行,但是这在实践中不可能完成。因为这需要在某个 Batch 的计算中引入不属于该 Batch 的分布信息,因此统计参数由当前的 mini-batch 中的样本中估计。这客观上限制了 mini-batch 的大小不能太小,并且很难将其应用在 RNN 中
Layer Normalization
作者考虑到,如果固定深度神经网络每一层的输入数据的均值和方差,可以减弱上述的协变量偏移问题。LN 中统计参数的计算过程如下:
其中 代表第 层(当前层)中隐藏单元的数量。
与 BN 不同的是,LN 中同一层的所有隐藏单元共享相同的统计参数 和 ,不同的训练样本计算出不同的 和 ,而 BN 中则是同一 Batch 中所有的训练样本在相同的隐藏单元上共享相同的统计参数,不同的隐藏单元计算出不同的统计参数。这一区别使得 LN 取消了对 mini-batch 尺寸的限制,甚至可以进行 batch-size 为 1 的纯在线训练过程。