我是keras的新手。
我在旨在减少对数损失的数据集上运行它。
对于每个时期,它给我相同的损失值。无论我是否走上正轨,我都感到困惑。
例如:
Epoch 1/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 2/5
91456/91456 [==============================] - 139s - loss: 3.8019 - val_loss: 3.8278
Epoch 3/5
91456/91456 [==============================] - 143s - loss: 3.8019 - val_loss: 3.8278
Epoch 4/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
Epoch 5/5
91456/91456 [==============================] - 142s - loss: 3.8019 - val_loss: 3.8278
3.8019在每个时代都是相同的。它应该更少。
最佳答案
我也遇到了这个问题。经过深思熟虑,我发现这是我的输出层上的激活函数。
我有这个模型来预测二进制结果:
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='softmax'))
我需要这个用于二进制交叉熵
model = Sequential()
model.add(Dense(16,input_shape=(8,),activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(32,activation='relu'))
model.add(Dense(1, activation='sigmoid'))
我会考虑您要解决的问题以及确保您的激活功能所需的输出。
关于conv-neural-network - 喀拉拉邦在每个时代都遭受同样的损失,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35540269/