GroupNormalization
类keras.layers.GroupNormalization(
groups=32,
axis=-1,
epsilon=0.001,
center=True,
scale=True,
beta_initializer="zeros",
gamma_initializer="ones",
beta_regularizer=None,
gamma_regularizer=None,
beta_constraint=None,
gamma_constraint=None,
**kwargs
)
Group normalization 层。
Group Normalization 将通道划分为组,并在每个组内计算均值和方差以进行归一化。经验表明,如果学习率随批量大小线性调整,则其准确性比小批量大小范围内的批归一化更稳定。
与层归一化的关系:如果组数设置为 1,则此操作几乎与层归一化相同(有关详细信息,请参阅层归一化文档)。
与实例归一化的关系:如果组数设置为输入维度(组数等于通道数),则此操作与实例归一化相同。您可以通过 groups=-1
来实现这一点。
参数
[1, N]
内,其中 N 是输入维度。输入维度必须可被组数整除。默认为 32。-1
。True
,则将 beta
偏移量添加到归一化张量。如果为 False
,则忽略 beta
。默认为 True
。True
,则乘以 gamma
。如果为 False
,则不使用 gamma
。当下一层是线性层(例如 relu
)时,可以禁用此项,因为缩放将由下一层完成。默认为 True
。input_shape
(整数元组,不包括样本轴)。 # 输出形状 与输入形状相同。name
和 dtype
)。参考