《Python机器学习基础教程》笔记
针对鸢尾花分类这个课题,我们按以下步骤进行:
①获取数据集
②检查数据
③构建训练模型
④进行预测并评估
这只是几个简单的步骤,供初学者熟悉机器学习的大致流程,以及如何使用Scikit-Learn,对于大型工程来说,这些步骤还远远不够的。下面就这几个简单的步骤进行说明。
一、获取数据集
这里为了简单,直接用Scikit-Learn自带的鸢尾花数据集。在Jupyter notebook中输入如下代码进行下载:
from sklearn.datasets import load_iris
iris_dataset = load_iris()
该数据集已经做过处理了,可以输入以下代码查看数据集中的内容:
print("key of iris_dataset:\n{}".format(iris_dataset.keys()))
输出为
现在挨个解释一下这些内容:
1.‘data’:可以理解为特征矩阵,里面是花萼长度、花萼宽度、花瓣长度、花瓣宽度的测量数据;
2.‘target’:样本的标签(每个样本对应的类别,一共3类,分别用‘0’,‘1’,‘2’表示),是一个一维数组;
3.‘target_names’:花的种类,包括 'setosa', 'versicolor' ,'virginica'这3类;
4.‘DESCR’:是一篇说明文档,对该数据集进行了一个简要的说明
5.‘feature_names’:特征的名称,包括花萼长度、花萼宽度、花瓣长度、花瓣宽度;
6.‘filename’:该数据集的文件名(带绝对路径)
需要注意的是,该数据集是一个整理得非常完美的数据集了,不存在缺失值问题,特征工程也做了,所以,我们直接使用就OK。若是一个非常原始的数据集,则还需要我们做很多处理。
二、检查数据
该数据集其实是已经经过多次检验过的经典的数据集,并不需要检查数据这个步骤。但是我们还是按照一般步骤来,假装我们不知道该数据集里是否有异常值和特殊值,此时,就可以将数据可视化。一种可视化的方法是绘制散点图矩阵,数据散点图矩阵将一个特征作为x轴,另一个特征作为y轴,两两查看所有特征。输入以下代码即可绘制散点图矩阵:
%matplotlib inline
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(iris_dataset['data'],iris_dataset['target'],random_state=0)
iris_dataframe = pd.DataFrame(X_train,columns=iris_dataset.feature_names)
grr = pd.scatter_matrix(iris_dataframe,c=y_train,marker='o',figsize=(10,10),hist_kwds={'bins':20},s=60,alpha=0.8,cmap='viridis')
解释一下相关用法:
1.%matplotlib inline 是一个魔法命令,使图在浏览器中显示出来,若没有这个代码,则浏览器中不显示图。
2.train_test_split 函数利用伪随机数生成器将数据打乱,然后将其分为训练集和测试集。
3.scatter_matrix 函数利用鸢尾花的特征矩阵(iris_dataframe)创建散点图矩阵,按训练集的标签(y_train)着色,一共三种颜色(一共3类),用点绘图(marker='o'),图大小为10*10(figsize=(10,10)),直方图的区间数为20(hist_kwds={'bins':20}),点大小为60(s=60),透明度为80%(alpha=0.8),用viridis风格画图。
运行结果如下:
由图可知,利用花瓣和花萼的测量数据基本可以将三个类别区分开,这说明机器学习模型很可能可以学会区分它们。
三、构建训练模型
这里我们选择k近邻分类模型,k近邻算法中k的含义是,我们可以考虑训练集中与新数据点最近的任意k个邻居,而不是只考虑最近的那一个。输入以下代码就可以对数据进行训练了:
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=1)
四、进行训练、预测并评估
之前我们已经将数据分为训练集和测试集了,训练集用于模型训练,而测试集用于模型评估,以精度来衡量模型的优劣,即对测试数据中的每朵鸢尾花进行预测,并将预测结果与标签进行对比,计算品种预测正确的花所占的比例。代码如下:
knn.fit(X_train,y_train)
y_pred = knn.predict(X_test)
print('Test set score:\n{}'.format(np.mean(y_pred == y_test)))
结果如下:
可以看到,精度为97.4%,非常高的精度了,说明这个模型足够可信,因此对于新的数据,我们也有信心用这个模型去预测。即
knn.predict(新数据)