也许这个问题太笼统,但是谁能解释导致卷积神经网络发散的原因是什么?
细节:
我正在使用Tensorflow的iris_training模型处理一些自己的数据,并不断获取
回溯源于以下行:
tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,
hidden_units=[300, 300, 300],
#optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001),
n_classes=11,
model_dir="/tmp/iris_model")
我尝试过调整优化器,将学习率设置为零,并且不使用优化器。任何对网络层,数据大小等的见解都将受到赞赏。 最佳答案
我见过很多东西使模型产生分歧。
assert not np.any(np.isnan(x))
,以确保您没有引入nan。还要确保所有目标值均有效。最后,确保数据正确归一化。您可能希望像素在[-1,1]而不是[0,255]范围内。