Keras 2 API 文档 / 层 API / 激活层 / LeakyReLU 层

LeakyReLU 层

[来源]

LeakyReLU

tf_keras.layers.LeakyReLU(alpha=0.3, **kwargs)

修正线性单元的泄露版本。

当单元未激活时,它允许一个小的梯度。

    f(x) = alpha * x if x < 0
    f(x) = x if x >= 0

用法

>>> layer = tf.keras.layers.LeakyReLU()
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
>>> layer = tf.keras.layers.LeakyReLU(alpha=0.1)
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]

输入形状

任意。当在模型中使用此层作为第一层时,使用关键字参数input_shape(整数元组,不包括批处理轴)。

输出形状

与输入形状相同。

参数

  • alpha: 浮点数 >= 0.。负斜率系数。默认为 0.3