0. 其他处理

  • 计时:

    tic
    net = train(net, X, y);
    toc

1. 一个简单的 demo(单层感知器)

P = [1, 1, 1, 1, 0, 0, 0, 0; 0, 0, 1, 1, 0, 1, 1, 0; 0, 1, 0, 1, 1, 0, 1, 0];
% 每一列表示一个输入样本
T = [-1, 1, 1, 1, -1, -1, 1, -1];
% 表示输出值
p = [0, 1; 0, 1; 0, 1];
% 每一行表示参数的取值范围
t = 1;
% 输出值的个数; % 模型的定义
net = newp(p, t, 'hardlims');
% newp:new perceptron net = train(net, P, T);
% 训练的过程;
% 此时得到的 net 便是最终训练好的模型; % 测试
newP = [0, 1, 1]';
newT = sim(net, newP)
newP = [0, 1, 0]';
newT = sim(net, newP)

2. nntool

神经网络的可视化显示方式。

  • 先输入 data,再定义 network,最后 train
  • 通过 simulate 进行仿真测试;

3. BP 神经网络的创建

  • 通过 newff

    % 样本矩阵(trainx, testx)以每一列为一个单独的样本,每一个行为一个属性,
    % target 目标值(trainy, testy)为一个行向量
    trainx, trainy
    testx, testy % 创建 BP 网络
    net = newff(trainx, trainy); % 接口必须统一,方能识别;
    net.trainParam.epochs = 1500; % 最大训练次数
    net.trainParam.goal = 1e-13; % 目标误差
    net.trainParam.show = 1; % 显示级别 % 接受训练样本,进行训练
    net = train(net, trainx, trainy); % 在测试集上进行测试
    predicted_y = net(testx);
  • 通过 feedforwardnet

    net = feedforwardnet([], 'trainlm');        % 第一个参数控制神经网络隐层的拓扑结构,其实就是各个隐层的神经元数目;
    net.trainParam.epochs = ...;
    net.trainParam.goal = ...;
    tic
    net = train(net, X, y); % X 构成输入层,y 构成输出层;
    toc
05-12 09:31