Activation
类tf_keras.layers.Activation(activation, **kwargs)
将激活函数应用于输出。
参数
tf.nn.relu
,或内置激活函数的字符串名称,例如“relu”。用法
>>> layer = tf.keras.layers.Activation('relu')
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
>>> layer = tf.keras.layers.Activation(tf.nn.relu)
>>> output = layer([-3.0, -1.0, 0.0, 2.0])
>>> list(output.numpy())
[0.0, 0.0, 0.0, 2.0]
输入形状
任意。在将此层用作模型中的第一层时,使用关键字参数 input_shape
(整数元组,不包含批处理轴)。
输出形状
与输入形状相同。