在keras docs中:然后,您可以使用TimeDistributedDense图层分别应用于10个时间步中的每一个:

# as the first layer in a model
model = Sequential()
model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
# now model.output_shape == (None, 10, 8)

# subsequent layers: no need for input_shape
model.add(TimeDistributed(Dense(32)))
# now model.output_shape == (None, 10, 32)

我在任何地方都找不到它,Dense图层的权重是否在时间轴上共享?

最佳答案

是的,它们是共享的-完全相同的Dense应用于每个timestep。此外-在Keras 2.0中,像TimeDistributed这样的行为现在是应用于输入的具有超过2D的Dense层(包括batch_dimension)的默认行为。

关于python - Keras TimeDistributed-权重是共享的吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43265084/

10-12 19:31