完整的一个小demo:
pandas==1.2.4
numpy==1.19.2
python==3.9.2
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from pandas import DataFrame
from scipy.io import loadmat
from sklearn.model_selection import train_test_split
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout
from sklearn import preprocessing
from sklearn.datasets import load_iris
# 映射函数iris_type: 将string的label映射至数字label
import os
# data.to_csv('data.csv',index=False) #cvs保存文件不会保存index列
# data = pd.read_csv('data.csv',index_col=0) #读取csv文件的时候选择不读取第一列信息
def downLoad():
path="../httdemo/"
iris = load_iris()
data = iris.data #获取特征数据
target = iris.target#获取目标数据
data_information = DataFrame(data, columns=['bcalyx', 'scalyx', 'length', 'width']) #重新定义特征数据的列名
data_target = DataFrame(target, columns=['target'])#目标数据列名target
data_csv = pd.concat([data_information, data_target], axis=1) #合并特征数据和目标数据到一个DataFrame
if not os.path.exists(path):#把DataFrame数据保存到本地,以.CVS的格式保存
os.makedirs(path)
filename = path + 'iris.csv' #定义保存路径
data_csv.to_csv(filename,index=False) #index==False表示,序号下表列不做保存
# 本地数据保存为excel文件
# outputfile = "iris.xls" # 保存文件路径名
# column = list(data['feature_names'])
# dd = pd.DataFrame(data.data, index=range(150), columns=column)
# dt = pd.DataFrame(data.target, index=range(150), columns=['outcome'])
# jj = dd.join(dt, how='outer') # 用到DataFrame的合并方法,将data.data数据与data.target数据合并
# jj.to_excel(outputfile) # 将数据保存到outputfile文件中
def readData(path):
Data = pd.read_csv(path,names=['bcalyx', 'scalyx', 'length', 'width','target']) #读取本地保存的CVS数据
Data.head(10)#展示前10
# 变量初始化
# 最后一列为y,其余为x
cols = Data.shape[1] # 获取列数 shape[0]行数 [1]列数
X = Data.iloc[1:, 0:cols - 1].astype(float) # 获取得到特征数据,转换为Float的格式,如果输入str,会报错的,取前cols-1列,即输入向量
y = Data.iloc[1:, cols - 1:cols] # 取最后一列,即目标变量
X = np.array(X)
y = np.array(y)
print(y)
return X,y
def startM():
path = "../httdemo/iris.csv"
X,y=readData(path) #加载数据
from sklearn.preprocessing import OneHotEncoder
# 创建独热编码器对象
encoder = OneHotEncoder() #sklearn创建热编码器对象
# 训练独热编码器 (将目标数据进行训练)
encoder.fit(y)
# 转换特征向量 (将目标数据y转换为特征向量[[0,0,1][0,1,0][0,0,1]])格式
encoded_data = encoder.transform(y).toarray()
# shuffle = True 随机打乱后再进行分割数据
X_train, X_test, y_train, y_test = train_test_split(X, encoded_data, test_size=0.3,shuffle=True)
#构建网络模型
model = Sequential()
model.add(Dense(units=1024, activation='relu', input_dim=4)) # 输入层,1024个激活单元,激活函数为relu,输入数据维度为(4,)
model.add(Dense(units=512, activation='relu')) # 隐藏层,512个激活单元,激活函数为relu
model.add(Dense(units=256, activation='relu')) # 隐藏层,256个激活单元,激活函数为relu
model.add(Dropout(0.1)) #丢到10%的数据
model.add(Dense(units=3, activation='softmax')) # 输出层,3个输出单元,激活函数为softmax)
model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
#开始训练
model.fit(X_train, y_train, batch_size=30, epochs=32)
#预测测试集的结果
result = model.predict(X_test)
yTest=np.round(result, 2)#保留俩位小数
print(yTest)
#测试机准确率评估
score = model.evaluate(X_test, y_test)
print('loss值为:', score[0])
print('准确率为:', score[1])
if __name__=='__main__':
startM()
# downLoad()
target的数据打印:
热编码转换之后的数据:
测试集预测结果:表示的位概率值,那个数值比较大,就是哪一个类别,每一个数组表示A,B,C
运行结果:
训练完成之后保存模型,然后测试模型:
读取模型,开始预测:
from tensorflow.keras.models import load_model
import numpy as np
# 模型的导入
model = load_model('../httdemo/httmodel.h5')
# 对数据的预测输入分别为[花萼长,花萼宽,花瓣长,花瓣宽]
y_pred = model.predict([[2,1,5.5,2],[2.3,4.5,5.2,9]])
print(y_pred)
for i in y_pred:
a = np.argmax(i)
if a == 0 : print('该花为A')
elif a == 1 : print('该花为B')
elif a == 2 : print('该花为C')
测试结果:准确预测出来为C种类