LeakyReLU
类tf_keras.layers.LeakyReLU(alpha=0.3, **kwargs)
修正线性单元的泄露版本。
当单元未激活时,它允许一个小的梯度。
f(x) = alpha * x if x < 0
f(x) = x if x >= 0
用法
>>> layer = tf.keras.layers.LeakyReLU()
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
>>> layer = tf.keras.layers.LeakyReLU(alpha=0.1)
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]
输入形状
任意。当在模型中使用此层作为第一层时,使用关键字参数input_shape
(整数元组,不包括批处理轴)。
输出形状
与输入形状相同。
参数
0.
。负斜率系数。默认为 0.3
。