我试图通过在Knearistneighbors上进行测试来学习gridsearchCV的工作。
当我分配n_neighbors = 9时,我的分类器得分为0.9122807017543859
但是当我在列表中给它n_neighbors = 9的同时使用gridsearchCV时,得到的分数是0.8947368421052632。
可能是什么原因?
任何努力表示赞赏。
这是我的代码
from sklearn import datasets
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split as splitter
import pickle
from sklearn.neighbors import KNeighborsClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import GridSearchCV
# Data pre-processing <-----------------------
data = datasets.load_breast_cancer()
p=data
add=data.target.reshape(569,1)
columns = np.append(data.feature_names,
data.target_names[0],
axis=None)
data = np.append(data.data,
add,
axis=1)
df = pd.DataFrame(data=data,columns=columns)
X_train,X_test,y_train,y_test = splitter(p.data,
p.target,
test_size=0.3,
random_state=12)
gauss = KNeighborsClassifier(n_neighbors=9)
param_grid={'n_neighbors':[1,2,3,4,5,6,7,8,9,11,12,13,10]}
gausCV = GridSearchCV(KNeighborsClassifier(),param_grid,verbose=False)
gauss.fit(X_train,y_train)
gausCV.fit(X_train,y_train)
print(gauss.score(X_test,y_test))
print(gausCV.score(X_test,y_test))
这就是我得到的
0.9122807017543859
0.8947368421052632
最佳答案
问题不在于邻居的数量,而在于“交叉验证”。 GridSearchCV
进程不仅尝试param_grid
中具有的所有值,而且还执行一些数据操作:数据的“折叠”。这是对数据进行多次重采样,以帮助使最终分类器对新数据尽可能强健。考虑到您在gauss
和gausCV
模型之间得到的分数接近,几乎可以肯定,所绘制的数据会影响结果,但影响不大。
这是一个很好的例子,说明为什么仅接受具有最高“得分”的模型可能并不总是最好的途径:与通过交叉验证的模型相比,通过交叉验证的模型得分要高的模型(与其他模型相比,我会更有信心)等于)。
Here is a good description运行交叉验证时发生的情况。
关于python - 使用gridsearchCV()后没有得到更好的结果,而是手动得到了更好的结果,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/60102900/