我正在训练逻辑回归算法,每次迭代都会返回以下信息。我将这些实体收集为整个分类的数组。
您能建议我一些可视化的方法吗?例如,将损耗与精度作图是否合适?还是我应该使用哪种图形类型?
***** Iteration #74 *****
Loss: 170.07
Feature L2-norm: 12.5714
Learning rate (eta): 0.00778819
Total number of feature updates: 236800
Loss variance: 5.01839
Seconds required for this iteration: 0.01
Accuracy: 0.9800 (784/800)
Micro P, R, F1: 0.9771 (384/393), 0.9821 (384/391), 0.9796
***** Iteration #75 *****
Loss: 166.81
Feature L2-norm: 12.4385
Learning rate (eta): 0.00769234
Total number of feature updates: 240000
Loss variance: 4.68113
Seconds required for this iteration: 0.01
Accuracy: 0.9800 (784/800)
Micro P, R, F1: 0.9771 (384/393), 0.9821 (384/391), 0.9796
最佳答案
我认为您不应该可视化此信息。您所看到的是L2范数随着时间的推移而减少(因为它是目标最小函数),并且准确性提高了。但是由于F1太高了,我认为它是评估训练数据的指标。
所以我建议做Micro P,R,F1:0.9771(384/393),0.9821(384/391),0.9796这样的测试数据报告(不用于训练的数据)并创建迭代与F1的关系图。然后,您将看到何时开始按图上的峰值实际拟合数据。
关于machine-learning - 如何形象化此类信息,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/7869465/