SimpleRNN
类tf_keras.layers.SimpleRNN(
units,
activation="tanh",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
recurrent_constraint=None,
bias_constraint=None,
dropout=0.0,
recurrent_dropout=0.0,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
unroll=False,
**kwargs
)
输出反馈到输入的全连接 RNN。
有关 RNN API 用法的详细信息,请参阅TF-Keras RNN API 指南。
参数
tanh
)。如果传递 None,则不应用激活函数(即“线性”激活:a(x) = x
)。True
),指示层是否使用偏置向量。kernel
权重矩阵的初始化器。默认值:glorot_uniform
。recurrent_kernel
权重矩阵的初始化器。默认值:orthogonal
。zeros
。kernel
权重矩阵的正则化函数。默认值:None
。recurrent_kernel
权重矩阵的正则化函数。默认值:None
。None
。None
。kernel
权重矩阵的约束函数。默认值:None
。recurrent_kernel
权重矩阵的约束函数。默认值:None
。None
。False
。False
调用参数
[batch, timesteps, feature]
的 3D 张量。[batch, timesteps]
的二元张量,指示是否应屏蔽给定的时间步长。单个 True
条目表示应使用对应的时间步长,而 False
条目表示应忽略对应的时间步长。dropout
或 recurrent_dropout
时才相关。示例
inputs = np.random.random([32, 10, 8]).astype(np.float32)
simple_rnn = tf.keras.layers.SimpleRNN(4)
output = simple_rnn(inputs) # The output has shape `[32, 4]`.
simple_rnn = tf.keras.layers.SimpleRNN(
4, return_sequences=True, return_state=True)
# whole_sequence_output has shape `[32, 10, 4]`.
# final_state has shape `[32, 4]`.
whole_sequence_output, final_state = simple_rnn(inputs)