我正在研究一个文本分类问题,我已经这样设置了它(为了简洁起见,我省略了数据处理步骤,但它们将生成一个名为data的数据框架,其中列Xy):

import sklearn.model_selection as ms
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.ensemble import RandomForestClassifier

sim = Pipeline([('vec', TfidfVectorizer((analyzer="word", ngram_range=(1, 2))),
                ("rdf", RandomForestClassifier())])

现在,我尝试通过对2/3的数据进行培训并对剩余的1/3进行评分来验证该模型,如下所示:
train, test = ms.train_test_split(data, test_size = 0.33)
sim.fit(train.X, train.y)
sim.score(test.X, test.y)
# 0.533333333333

我想对三个不同的测试集进行三次这样的测试,但是使用cross_val_score可以得到更低的结果。
ms.cross_val_score(sim, data.X, data.y)
# [ 0.29264069  0.36729223  0.22977941]

据我所知,该数组中的每一个分数都应该通过对2/3的数据进行培训并用sim.score方法对剩余的1/3进行评分来生成。那么,为什么它们都要低得多呢?

最佳答案

我在写问题的过程中解决了这个问题,下面是:
cross_val_score的默认行为是使用KFoldStratifiedKFold定义折叠。默认情况下,两者都有参数shuffle=False,因此不会从数据中随机提取折叠:

import numpy as np
import sklearn.model_selection as ms

for i, j in ms.KFold().split(np.arange(9)):
    print("TRAIN:", i, "TEST:", j)
TRAIN: [3 4 5 6 7 8] TEST: [0 1 2]
TRAIN: [0 1 2 6 7 8] TEST: [3 4 5]
TRAIN: [0 1 2 3 4 5] TEST: [6 7 8]

我的原始数据是按标签排列的,因此使用这个默认行为,我试图预测培训数据中没有看到的许多标签。如果我强制使用KFold(我正在进行分类,因此StratifiedKFold是默认值),则这一点更为明显:
ms.cross_val_score(sim, data.text, data.label, cv = ms.KFold())
# array([ 0.05530776,  0.05709188,  0.025     ])
ms.cross_val_score(sim, data.text, data.label, cv = ms.StratifiedKFold(shuffle = False))
# array([ 0.2978355 ,  0.35924933,  0.27205882])
ms.cross_val_score(sim, data.text, data.label, cv = ms.KFold(shuffle = True))
# array([ 0.51561106,  0.50579839,  0.51785714])
ms.cross_val_score(sim, data.text, data.label, cv = ms.StratifiedKFold(shuffle = True))
# array([ 0.52869565,  0.54423592,  0.55626715])

手工做的事情给我的分数更高,因为train_test_splitKFold(shuffle = True)做的事情一样。

关于python - sklearn cross_val_score的精度低于手动交叉验证,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43688058/

10-09 19:44