我试图通过在Knearistneighbors上进行测试来学习gridsearchCV的工作。
当我分配n_neighbors = 9时,我的分类器得分为0.9122807017543859

但是当我在列表中给它n_neighbors = 9的同时使用gridsearchCV时,得到的分数是0.8947368421052632。

可能是什么原因?
任何努力表示赞赏。
这是我的代码

from sklearn import datasets
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split as splitter
import pickle
from sklearn.neighbors import KNeighborsClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import GridSearchCV

# Data pre-processing  <-----------------------

data = datasets.load_breast_cancer()
p=data
add=data.target.reshape(569,1)
columns = np.append(data.feature_names,
                    data.target_names[0],
                    axis=None)
data = np.append(data.data,
                 add,
                 axis=1)
df = pd.DataFrame(data=data,columns=columns)

X_train,X_test,y_train,y_test = splitter(p.data,
                                         p.target,
                                         test_size=0.3,
                                         random_state=12)




gauss = KNeighborsClassifier(n_neighbors=9)

param_grid={'n_neighbors':[1,2,3,4,5,6,7,8,9,11,12,13,10]}

gausCV = GridSearchCV(KNeighborsClassifier(),param_grid,verbose=False)


gauss.fit(X_train,y_train)
gausCV.fit(X_train,y_train)

print(gauss.score(X_test,y_test))
print(gausCV.score(X_test,y_test))


这就是我得到的

0.9122807017543859
0.8947368421052632

最佳答案

问题不在于邻居的数量,而在于“交叉验证”。 GridSearchCV进程不仅尝试param_grid中具有的所有值,而且还执行一些数据操作:数据的“折叠”。这是对数据进行多次重采样,以帮助使最终分类器对新数据尽可能强健。考虑到您在gaussgausCV模型之间得到的分数接近,几乎可以肯定,所绘制的数据会影响结果,但影响不大。

这是一个很好的例子,说明为什么仅接受具有最高“得分”的模型可能并不总是最好的途径:与通过交叉验证的模型相比,通过交叉验证的模型得分要高的模型(与其他模型相比,我会更有信心)等于)。

Here is a good description运行交叉验证时发生的情况。

关于python - 使用gridsearchCV()后没有得到更好的结果,而是手动得到了更好的结果,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/60102900/

10-12 23:13