这是代码
function [theta] = LR(D)
% D is the data having feature variables and class labels
% Now decompose D into X and C
%Note that dimensions of X = , C =
C = D(:,1);
C = C';
size(C)
X = D(:,2:size(D,2));
size(X)
alpha = .00001;
theta_old = zeros(1,34);
theta_new = .001.*ones(1,34);
count = 1;
for count = 1:100000
theta_old = theta_new;
theta_new = theta_new + alpha*(C-sigmoid(X*theta_new')')*X;
llr = sum(LLR((X*theta_new').*(C')))
end
thetaopt = theta_new
end
function a = LLR( z )
a= 1.*log(1.0 + exp(-z));
end
function a = sigmoid(z)
a = 1.0 ./ (1.0 + exp(-z));
end
我的问题是对数似然比先降低,然后开始增加。这是梯度下降算法或代码的问题吗?
最佳答案
您的目标函数似乎有问题。
如果标签(C
)在{0,1}
中,则您应该使用损耗C.*LLR(X*theta')+(1-C).*(LLR(X*theta')+X*theta')
如果标签在{-1,1}
中,则丢失应该是LLR(C.*X*theta')
。
您似乎只使用第一类损失函数的第一部分。
关于matlab - Matlab中的Logistic回归梯度下降,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/21917353/