我正在尝试使用scipy.optimize
进行一些简单的优化问题,但是我发现只能找到起始值范围非常有限的解决方案。这是一个最小的可复制示例:
import numpy as np
import scipy.stats as st
from scipy.optimize import minimize
p = np.linspace(0, 1, 100)
neg_likelihood = lambda p: -1 * st.binom.pmf(6, n=9, p=p)
minimize(neg_likelihood, 0.3)
neg_likelihood
函数的形状如下图所示,因此正确答案应该在0.65
附近:尝试不同的起始值时,我发现只有当
p
的起始值在0.1
和0.4
之间时,才能找到正确的解决方案。最小化算法似乎非常不稳定。我尝试了几种不同的最小化算法(BFGS,Powell等),它们产生了相似的结果,因此我想问题一定是我的,而不是算法的问题。
最佳答案
标准数值优化例程使用函数值(要优化的值)和梯度(函数的大致横向信息)。
您仅提供了该功能。因此,优化例程必须近似梯度。只要您可以计算梯度,就添加此信息源,而不依赖于近似值。
在这里,我手动进行数学运算,并且不使用统计信息中的函数。对数变换使计算梯度更加容易。
import numpy as np
from scipy.optimize import fmin_l_bfgs_b
# do the math by hand, it's quite simple in this case
def target_fun(p, k, n):
f = - k* np.log(p) - (n-k)*np.log(1-p)
g = - k/p + (n-k) / (1-p)
return f, g
f = lambda p: target_fun(p, k=6, n=9)
epsilon = 1e-9
fmin_l_bfgs_b(f, 0.999, bounds=[(epsilon,1-epsilon)])
添加梯度信息时,优化例程会成功找到任意起始值的最优值。