Keras 2 API 文档 / 层 API / 激活层 / 阈值化ReLU层

阈值化ReLU层

[源代码]

ThresholdedReLU

tf_keras.layers.ThresholdedReLU(theta=1.0, **kwargs)

阈值化线性整流单元。

它遵循

    f(x) = x for x > theta
    f(x) = 0 otherwise`

输入形状

任意。当在模型中将此层用作第一层时,使用关键字参数 input_shape(整数元组,不包括样本轴)。

输出形状

与输入形状相同。

参数

  • theta: 浮点数 >= 0. 激活函数的阈值位置。