GroupNormalization
类keras.layers.GroupNormalization(
groups=32,
axis=-1,
epsilon=0.001,
center=True,
scale=True,
beta_initializer="zeros",
gamma_initializer="ones",
beta_regularizer=None,
gamma_regularizer=None,
beta_constraint=None,
gamma_constraint=None,
**kwargs
)
组归一化层。
组归一化将通道分成若干组,并在每组内计算均值和方差以进行归一化。经验表明,在各种小批量大小下,如果学习率随批量大小线性调整,其准确性比批量归一化更稳定。
与层归一化的关系:如果组数设置为 1,则此操作几乎与层归一化相同(详见层归一化文档)。
与实例归一化的关系:如果组数设置为输入维度(组数等于通道数),则此操作与实例归一化相同。可以通过 groups=-1
实现此功能。
参数
[1, N]
之间,其中 N 是输入维度。输入维度必须能被组数整除。默认为 32。-1
。True
,则将 beta
的偏移量添加到归一化张量。如果为 False
,则忽略 beta
。默认为 True
。True
,则乘以 gamma
。如果为 False
,则不使用 gamma
。当下一层是线性层(例如 relu
)时,可以禁用此选项,因为缩放将由下一层完成。默认为 True
。input_shape
(整数元组,不包括样本轴)。# 输出形状与输入形状相同。name
和 dtype
)。参考