警告:本文为小白入门学习笔记
在机器学习的过程中我们常常会遇到过拟合和欠拟合的现象,就如西瓜书中一个例子:
如果训练样本是带有锯齿的树叶,过拟合会认为树叶一定要带有锯齿,否则就不是树叶。而欠拟合则认为只要是绿色的就是树叶,会把一棵数也误认为树叶。
过拟合:如果我们的数据集有很多的属性,假设函数会对训练集拟合的非常好,也就是说损失函数J(theta)趋近于零,但是对新的样本却不能较为精确的预测(也就是不能够泛化到一般)。
所以要解决过拟合问题(addressing overfitting):
Options:
1 减少属性的个数
对于那些关联性比较弱的属性可以去掉
2 Regularization(正则化)
过拟合现象的产生可能是我们用这样一个多元方程去拟合实际上是一个一元或二元曲线
所以我们希望theta3,theta4,theta5竟可能的小,想想如果这样的话曲线是不是会变得简单很多,但是在实际情况下,我们不知道要去减小(penalty)哪一个theta,因此干脆去penalty每一个theta,所以在损失函数后面增加一个项来实现,而这一项就是正则化项
这里我们要记住的是,我们希望损失函数竟可能的小。
而 λ 这个正则化参数需要控制的是这两者之间的平衡,即平衡拟合训练的目标和保持参数值较小的目标。从而来保持假设的形式相对简单,来避免过度的拟合。
首先解决线性回归问题的过拟合:
数据下载:
使用正规方程去求解正规化线性回归是:
跟随 后面的是一个(n+1)*(n+1)矩阵,n表示属性的个数
使用这个式子就可以计算出theta的值。
MATLAB代码:
function [jVal] = regLinerReg(lamda)
x = load('ex5Linx.dat');
y = load('ex5Liny.dat');
%显示原始数据
plot(x,y,'o','MarkerEdgeColor','b','MarkerFaceColor','r');hold on;
x = [ones(length(y), ), x, x.^, x.^, x.^, x.^];
[m,n] = size(x);
n = n - ;
rm = diag([;ones(n,)]);%lamda后面的矩阵
theta = inv(x'*x + lamda .* rm) * x' * y;
disp(theta);
x = load('ex5Linx.dat');
h = theta() + theta()*x + theta()*x.^ + theta()*x.^ + theta()*x.^ + theta()*x.^;
plot(x(:m),h,'g-');hold on;
end
分别使正则化参数设置为以下值:
lamda = 0;
lamda = 1;
lamda = 10;
可以发现当lamda=0 时,相当于没有加正则化项,函数经过每一个点,这就是过拟合。lamda = 1时稍微缓和,lamda=10 时函数平和,如果lamda再设置大些,函数曲线可能会成为一条直线。
Regularized logistic regression:
拿到数据集后,用MATLAB画出图形:
可以看出,这个图并不像前面的可以直接线性分割,所以假设函数是二元,最高次为6次函数。
设u表示x1(也就是数据集ex5Log.dat的第一例数据),v为x2(是第二列数据)。
% Exercise -- Regularized Logistic Regression clear all; close all; clc x = load('ex5Logx.dat');
y = load('ex5Logy.dat'); % Plot the training data
% Use different markers for positives and negatives
figure
pos = find(y); neg = find(y == );
plot(x(pos, ), x(pos, ), 'k+','LineWidth', , 'MarkerSize', )
hold on
plot(x(neg, ), x(neg, ), 'ko', 'MarkerFaceColor', 'y', 'MarkerSize', ) % Add polynomial features to x by
% calling the feature mapping function
% provided in separate m-file
x = map_feature(x(:,), x(:,)); %获得一个117*28矩阵 117是数据的条数,28是x [m, n] = size(x); % Initialize fitting parameters
theta = zeros(n, );%* % Define the sigmoid function
g = inline('1.0 ./ (1.0 + exp(-z))'); % setup for Newton's method
MAX_ITR = ;
J = zeros(MAX_ITR, ); % Lambda is the regularization parameter
lambda = ; % Newton's Method
for i = :MAX_ITR
% Calculate the hypothesis function
z = x * theta;
h = g(z); % Calculate J (for testing convergence)
J(i) =(/m)*sum(-y.*log(h) - (-y).*log(-h))+ ...
(lambda/(*m))*norm(theta([:end]))^; % Calculate gradient and hessian.
G = (lambda/m).*theta; G() = ; % extra term for gradient
L = (lambda/m).*eye(n); L() = ;% extra term for Hessian
grad = ((/m).*x' * (h-y)) + G;
H = ((/m).*x' * diag(h) * diag(1-h) * x) + L; % Here is the actual update
theta = theta - H\grad; end
% Show J to determine if algorithm has converged
J
% display the norm of our parameters
norm_theta = norm(theta) % Plot the results
% We will evaluate theta*x over a
% grid of features and plot the contour
% where theta*x equals zero % Here is the grid range
u = linspace(-, 1.5, );
v = linspace(-, 1.5, ); z = zeros(length(u), length(v));
% Evaluate z = theta*x over the grid
for i = :length(u)
for j = :length(v)
z(i,j) = map_feature(u(i), v(j))*theta;
end
end
z = z'; % important to transpose z before calling contour % Plot z =
% Notice you need to specify the range [, ]
contour(u, v, z, [, ], 'LineWidth', )
legend('y = 1', 'y = 0', 'Decision boundary')
title(sprintf('\\lambda = %g', lambda), 'FontSize', ) hold off % Uncomment to plot J
% figure
% plot(:MAX_ITR-, J, 'o--', 'MarkerFaceColor', 'r', 'MarkerSize', )
% xlabel('Iteration'); ylabel('J')
运行结果:
改变lambda = 1
lambda = 10;