在keras docs中:然后,您可以使用TimeDistributed
将Dense
图层分别应用于10个时间步中的每一个:
# as the first layer in a model
model = Sequential()
model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
# now model.output_shape == (None, 10, 8)
# subsequent layers: no need for input_shape
model.add(TimeDistributed(Dense(32)))
# now model.output_shape == (None, 10, 32)
我在任何地方都找不到它,
Dense
图层的权重是否在时间轴上共享? 最佳答案
是的,它们是共享的-完全相同的Dense
应用于每个timestep
。此外-在Keras 2.0
中,像TimeDistributed
这样的行为现在是应用于输入的具有超过2D的Dense
层(包括batch_dimension
)的默认行为。
关于python - Keras TimeDistributed-权重是共享的吗?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43265084/