一个门外汉写的MXNET跑MNIST的例子,三层全连接层最后验证率是97%左右,毕竟是第一个例子,主要就是用来理解MXNet怎么使用。
#导入需要的模块
import numpy as np #numpy只保存数值,用于数值运算,解决Python标准库中的list只能保存对象的指针的问题
import os #本例子中没有使用到
import gzip #使用zlib来压缩和解压缩数据文件,读写gzip文件
import struct #通过引入struct模块来处理图片中的二进制数据
import mxnet as mx #引入MXNet包
import logging #引入logging包记录日志 #利用MNIST数据集进行训练 def read_data(label_url,image_url): #定义读取数据的函数
with gzip.open(label_url) as flbl: #解压标签包
magic, num = struct.unpack(">II",flbl.read(8)) #采用Big Endian的方式读取两个int类型的数据,且参考MNIST官方格式介绍,magic即为magic number (MSB first) 用于表示文件格式,num即为文件夹内包含的数据的数量
label = np.fromstring(flbl.read(),dtype=np.int8) #将标签包中的每一个二进制数据转化成其对应的十进制数据,且转换后的数据格式为int8(-128 to 127)格式,返回一个数组
with gzip.open(image_url,'rb') as fimg: #已只读形式解压图像包
magic, num, rows, cols = struct.unpack(">IIII",fimg.read(16)) #采用Big Endian的方式读取四个int类型数据,且参考MNIST官方格式介绍,magic和num上同,rows和cols即表示图片的行数和列数
image = np.fromstring(fimg.read(),dtype=np.uint8).reshape(len(label),rows,cols) #将图片包中的二进制数据读取后转换成无符号的int8格式的数组,并且以标签总个数,行数,列数重塑成一个新的多维数组
return (label,image) #返回读取成功的label数组和image数组
#且fileobject.read(size)的时候是按照流的方式读取(可test) (train_lbl, train_img) = read_data('mnist/train-labels-idx1-ubyte.gz','mnist/train-images-idx3-ubyte.gz') #构建训练数据
(val_lbl, val_img) = read_data('mnist/t10k-labels-idx1-ubyte.gz','mnist/t10k-images-idx3-ubyte.gz') #构建测试数据 def to4d(img): #定义一个函数用于生成四维矩阵
return img.reshape(img.shape[0],1,28,28).astype(np.float32)/255 #将图像包中的数组以标签总个数,图像通道数(MNIST数据集为黑白数据集故只为1),行数,列数重塑后复制为一个数据类型为float32的新的四维矩阵,且其中的元素值都除以255后转化为0-1的浮点值 batch_size = 100 #定义每次处理数据的数量为100
train_iter = mx.io.NDArrayIter(to4d(train_img),train_lbl,batch_size,shuffle=True) #构建训练数据迭代器,且其中shuffle表示采用可拖动的方式,意味着可以将在早期已经训练过的数据在后面再次训练
val_iter = mx.io.NDArrayIter(to4d(val_img),val_lbl,batch_size) #构建测试数据迭代器 #创建多层网络模型
data = mx.sym.Variable('data') #创建一个用于输入数据的PlaceHolder变量(占位符)
data = mx.sym.Flatten(data=data) #将data中的四维数据转化为二维数据且其中一维为每次处理数据的数量,第二维即为每张图片的图像通道数×长×宽(即为其像素点个数×图像通道数)
fc1 = mx.sym.FullyConnected(data=data,name='fc1',num_hidden=128) #创建第一层全连接层,输入数据为data,num_hidden表示该隐藏层有128个用于输出的节点
act1 = mx.sym.Activation(data=fc1,name='relu1',act_type='relu') #为第一层全连接层设定一个Relu激活函数,输入数据为fc1
fc2 = mx.sym.FullyConnected(data=act1,name='fc2',num_hidden=64) #创建第二层全连接层,输入数据为act1,num_hidden表示该隐藏层有64个用于输出的节点
act2 = mx.sym.Activation(data=fc2,name='relu2',act_type='relu') #为第一层全连接层设定一个Relu激活函数,输入数据为fc2
fc3 = mx.sym.FullyConnected(data=act2,Name='fc3',num_hidden=10) #创建第三层全连接层,输入数据为act2,num_hidden表示该隐藏层有10个用于输出的节点
mlp = mx.sym.SoftmaxOutput(data=fc3,name='softmax') #对输入的数据执行softmax变换,并且通过利用logloss执行BP算法 logging.getLogger().setLevel(logging.DEBUG) #返回作为层次结构根记录器的记录器,且记录等级作为DEBUG #构建前馈神经网络模型
model = mx.model.FeedForward(
symbol = mlp, #使网络结构为构建好的mlp
num_epoch = 10, #数据的训练次数为10
learning_rate = 0.1 #使模型按照学习率为0.1进行训练
)
#数据拟合,训练模型
model.fit(
X = train_iter, #设置训练迭代器
eval_data = val_iter, #设置测试迭代器
batch_end_callback = mx.callback.Speedometer(batch_size,200) #在每一批epoches结尾时调用,打印logging信息(每经过200个batch_size打印logging)
)