Keras 3 API 文档 / 层 API / 归一化层 / 层归一化(LayerNormalization)层

层归一化(LayerNormalization)层

[源代码]

LayerNormalization

keras.layers.LayerNormalization(
    axis=-1,
    epsilon=0.001,
    center=True,
    scale=True,
    beta_initializer="zeros",
    gamma_initializer="ones",
    beta_regularizer=None,
    gamma_regularizer=None,
    beta_constraint=None,
    gamma_constraint=None,
    **kwargs
)

层归一化层 (Ba et al., 2016)。

独立地对批处理中每个给定示例的前一层激活进行归一化,而不是像批归一化那样跨批次归一化。即,应用一个变换,使每个示例的平均激活值接近 0,激活标准差接近 1。

如果启用 scalecenter,则该层将通过与可训练变量 gamma 进行广播来缩放归一化输出,并通过与可训练变量 beta 进行广播来使输出居中。gamma 默认是一个全 1 张量,beta 默认是一个全 0 张量,因此在训练开始之前,居中和缩放操作不起作用。

因此,当启用缩放和居中时,归一化方程如下:

设小批量的中间激活为 inputs

对于 inputs 中具有 k 个特征的每个样本 x_i,我们计算样本的均值和方差

mean_i = sum(x_i[j] for j in range(k)) / k
var_i = sum((x_i[j] - mean_i) ** 2 for j in range(k)) / k

然后计算归一化的 x_i_normalized,其中包含一个用于数值稳定的小因子 epsilon

x_i_normalized = (x_i - mean_i) / sqrt(var_i + epsilon)

最后,x_i_normalized 通过 gammabeta 进行线性变换,它们是学习参数

output_i = x_i_normalized * gamma + beta

gammabeta 将跨越 axis 中指定的 inputs 轴,并且这部分输入形状必须完全定义。

例如

>>> layer = keras.layers.LayerNormalization(axis=[1, 2, 3])
>>> layer.build([5, 20, 30, 40])
>>> print(layer.beta.shape)
(20, 30, 40)
>>> print(layer.gamma.shape)
(20, 30, 40)

请注意,其他层归一化实现可能会选择在与归一化轴不同的独立轴集上定义 gammabeta。例如,组归一化 (Wu et al. 2018) 的组大小为 1 时,对应于在高度、宽度和通道上进行归一化,并且 gammabeta 仅跨越通道维度。因此,此层归一化实现将与组大小设置为 1 的组归一化层不匹配。

参数

  • axis:整数或列表/元组。要进行归一化的轴。通常,这是特征轴。未选择的轴通常是批次轴。-1 是输入的最后一个维度。默认为 -1
  • epsilon:添加到方差中的小浮点数,以避免除以零。默认为 1e-3。
  • center:如果为 True,则将 beta 的偏移量添加到归一化张量。如果为 False,则忽略 beta。默认为 True
  • scale:如果为 True,则乘以 gamma。如果为 False,则不使用 gamma。当下一层是线性层(例如 nn.relu)时,可以禁用此功能,因为缩放将由下一层完成。默认为 True
  • beta_initializer:beta 权重的初始化器。默认为零。
  • gamma_initializer:gamma 权重的初始化器。默认为一。
  • beta_regularizer:beta 权重的可选正则化器。默认为 None。
  • gamma_regularizer:gamma 权重的可选正则化器。默认为 None。
  • beta_constraint:beta 权重的可选约束。默认为 None。
  • gamma_constraint:gamma 权重的可选约束。默认为 None。
  • **kwargs:基础层关键字参数(例如 namedtype)。

参考